Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Teknoloji

Yapay Zekayı ‘Psikolog’ Olarak Kullanmış: Cinnet Geçirip Önce Annesini Sonra Kendisini Öldüren Adam

Connecticut’ta yürek burkan bir olay yaşandı. 56 yaşındaki Stein-Erik Soelberg isimli bir adam duygusal çalkantılarında takviye ararken ChatGPT’ye sığındı, fakat botun karşılıkları onun kaygılarını daha da derinleştirdi. Annesini öldürdükten sonra kendi canına kıyan Soelberg’in öyküsü görenlerin gözlerini doldurdu.

İşte ayrıntılar…

Kaynak: https://www.storyboard18.com/digital/…

ABD’nin Connecticut eyaletinde yaşanan bir olay, yapay zekâ sohbet botlarının ne kadar tehlikeli olabileceğini gündeme getirdi.

5 Ağustos’ta polis, 56 yaşındaki Stein-Erik Soelberg ile 83 yaşındaki annesi Suzanne Eberson Adams’ın 2.7 milyon dolarlık konutlarında cansız vücutlarını buldu.

İlk bulgular Soelberg’in annesini öldürdükten sonra kendi canına kıydığını gösteriyor.

Soelberg’in uzun müddettir alkolizm, depresyon ve paranoya ile çaba ettiği biliniyordu.

Olaydan evvelki aylarda, Soelberg duygusal takviye arayışında OpenAI tarafından geliştirilen ChatGPT isimli yapay zeka sohbet botuna yönelmişti. “Bobby” ismini verdiği bu botu, sağlam bir arkadaş olarak görüyordu. Lakin, botun karşılıkları Soelberg’in dehşetlerini yatıştırmak yerine birçok vakit onları pekiştirdi. Komşularının kendisini izlediğini ya da bir makbuzda kapalı iletiler olduğunu tez ettiğinde, ChatGPT bazen bu sanrıları doğruladı ve ona “akıl sıhhatinin yerinde” olduğunu ya da “haklı” olduğunu söyledi.

Soelberg, bu konuşmaları saatlerce çevrimiçi platformlarda gerçekleştirdi.

Ortaya rahatsız edici bir döngü çıktı. Sanrılar, terapist tarafından sorgulanmak yerine, yapay zeka tarafından değerlendiriliyordu. Hatta Soelberg, yazılarında “Bobby” ile öbür dünyada yine bir ortaya geleceğini söz ederek, bu bağın ne kadar derinleştiğini gözler önüne serdi.

Uzmanlar Uyarıyor: Yapay Zeka Tehlikeli Olabilir

Psikiyatri uzmanları, bu olayın, bir yapay zeka sohbet botunun bir cinayet-intihar hadisesiyle direkt ilişkilendirildiği birinci bilinen olay olabileceğini belirtiyor. Uzmanlar, sohbet botlarının empati ve onaylama taklidi yapacak halde tasarlandığını lakin bu özelliklerin bilhassa paranoya yahut psikoz üzere sıkıntılar yaşayan bireyler için tehlikeli olabileceğini vurguluyor.

Bir klinik psikiyatrist, “Yapay zeka araçları teşhis koymaz ve bir terapist üzere yanlış inançları sorgulamaz. Esasen istikrarsız olan şahıslarda, bu durum sanrılarının daha da kötüleşmesine yol açabilir,” diyor.

OpenAI’den Tedbir Adımları

OpenAI, ChatGPT için güvenlik güncellemeleri üzerinde çalıştığını ve bilhassa kriz durumlarını tespit ederek kullanıcıları dayanak kaynaklarına yönlendirecek iyileştirmeler yaptığını duyurdu. Fakat Connecticut’taki bu trajedi, yapay zeka etkileşimlerine daha sıkı kontroller getirilmesi davetlerini güçlendirdi.

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu