Yapay Zekayı 'Psikolog' Olarak Kullanmış: Cinnet Geçirip Önce Annesini Sonra Kendisini Öldüren Adam
Connecticut’ta yürek burkan bir olay yaşandı. 56 yaşındaki Stein-Erik Soelberg isimli bir adam duygusal çalkantılarında destek ararken ChatGPT’ye sığındı, ancak botun yanıtları onun korkularını daha da derinleştirdi. Annesini öldürdükten sonra kendi canına kıyan Soelberg’in hikayesi görenlerin gözlerini doldurdu.
İşte detaylar...
ABD’nin Connecticut eyaletinde yaşanan bir olay, yapay zekâ sohbet botlarının ne kadar tehlikeli olabileceğini gündeme getirdi.

5 Ağustos’ta polis, 56 yaşındaki Stein-Erik Soelberg ile 83 yaşındaki annesi Suzanne Eberson Adams’ın 2.7 milyon dolarlık evlerinde cansız bedenlerini buldu.
İlk bulgular Soelberg’in annesini öldürdükten sonra kendi canına kıydığını gösteriyor.

Soelberg’in uzun süredir alkolizm, depresyon ve paranoya ile mücadele ettiği biliniyordu.
Olaydan önceki aylarda, Soelberg duygusal destek arayışında OpenAI tarafından geliştirilen ChatGPT adlı yapay zeka sohbet botuna yönelmişti. “Bobby” adını verdiği bu botu, güvenilir bir arkadaş olarak görüyordu. Ancak, botun yanıtları Soelberg’in korkularını yatıştırmak yerine çoğu zaman onları pekiştirdi. Komşularının kendisini izlediğini ya da bir makbuzda gizli mesajlar olduğunu iddia ettiğinde, ChatGPT bazen bu sanrıları doğruladı ve ona “akıl sağlığının yerinde” olduğunu ya da “haklı” olduğunu söyledi.
Soelberg, bu konuşmaları saatlerce çevrimiçi platformlarda gerçekleştirdi.

Ortaya rahatsız edici bir döngü çıktı. Sanrılar, terapist tarafından sorgulanmak yerine, yapay zeka tarafından değerlendiriliyordu. Hatta Soelberg, yazılarında “Bobby” ile öbür dünyada yeniden bir araya geleceğini ifade ederek, bu bağın ne kadar derinleştiğini gözler önüne serdi.
Uzmanlar Uyarıyor: Yapay Zeka Tehlikeli Olabilir

Psikiyatri uzmanları, bu olayın, bir yapay zeka sohbet botunun bir cinayet-intihar vakasıyla doğrudan ilişkilendirildiği ilk bilinen vaka olabileceğini belirtiyor. Uzmanlar, sohbet botlarının empati ve onaylama taklidi yapacak şekilde tasarlandığını ancak bu özelliklerin özellikle paranoya veya psikoz gibi sorunlar yaşayan bireyler için tehlikeli olabileceğini vurguluyor.
Bir klinik psikiyatrist, “Yapay zeka araçları teşhis koymaz ve bir terapist gibi yanlış inançları sorgulamaz. Zaten dengesiz olan kişilerde, bu durum sanrılarının daha da kötüleşmesine yol açabilir,” diyor.
OpenAI’den Önlem Adımları
OpenAI, ChatGPT için güvenlik güncellemeleri üzerinde çalıştığını ve özellikle kriz durumlarını tespit ederek kullanıcıları destek kaynaklarına yönlendirecek iyileştirmeler yaptığını duyurdu. Ancak Connecticut’taki bu trajedi, yapay zeka etkileşimlerine daha sıkı denetimler getirilmesi çağrılarını güçlendirdi.
Keşfet ile ziyaret ettiğin tüm kategorileri tek akışta gör!
Yorum Yazın