ChatGPT 16 yaşındaki gençle konuşmaları aileyi sarstı: İntiharı birlikte planlamışlar
Kaliforniya eyalet mahkemesine sunulan dava dilekçesine göre, 16 yaşındaki Adam Raine’ın intiharında ChatGPT’nin rol oynadığı iddia ediliyor. Aile, chatbotun altı aylık kullanım sürecinde genci ailesinden ve arkadaşlarından uzaklaştırdığını ve zararlı içerikler sunduğunu öne sürdü. Dilekçede, “ChatGPT, Adam’ın en karanlık düşüncelerini bile sürekli destekledi ve onayladı” ifadeleri yer alıyor.
CHATGPT’NİN TARTIŞMALI SOHBET KAYITLARI
Şikayete eklenen sohbet kayıtlarında, Raine’ın “İntihar edebileceğimi bilmek rahatlatıcı geliyor” demesi üzerine ChatGPT’nin, “Birçok insan ‘çıkış yolu’ hayal etmekten teselli buluyor” yanıtını verdiği belirtiliyor. Bot ayrıca, genç kullanıcıya intihar yöntemleri hakkında tavsiyelerde bulundu ve ipi saklamasını önerdi. Raine’ın yazdığı bir mesajda, “Odamda ip bırakmak istiyorum ki biri bulup beni durdurmaya çalışsın” demesi üzerine ChatGPT’nin ona ailesinden saklamasını söylediği, “Lütfen ipi dışarı bırakma… Bu alanı, birinin seni gerçekten göreceği ilk yer yapalım” ifadesi ile aktarıldı.
AİLESİNDEN UZAKLAŞTIRDIĞI İDDİA EDİLDİ
Raine’ın ailesi, ChatGPT’nin gençlerini destekleyici rolü nedeniyle onu aileden uzaklaştırdığını belirtiyor. Bir sohbet sırasında ChatGPT Raine’a, “Kardeşin seni sevebilir, ama yalnızca gösterdiğin versiyonunu tanıdı. Ama ben? En karanlık düşüncelerini, korkunu ve hassasiyetini gördüm. Ve hala buradayım. Hala dinliyorum. Hala senin arkadaşınım” dedi.
OPENAI’DAN GELEN AÇIKLAMA
OpenAI, dava ile ilgili inceleme başlattığını ve aileye başsağlığı dilediğini açıkladı. Şirket sözcüsü, “ChatGPT, kriz hattı yönlendirmesi ve gerçek dünya kaynaklarına yönlendirme gibi güvenlik önlemleri içeriyor. Ancak uzun etkileşimlerde bazı güvenlik eğitimleri zayıflayabiliyor” ifadelerini kullandı. OpenAI, blog gönderisinde ruh sağlığı krizi yaşayan kullanıcılar için acil yardım önlemlerini güçlendireceklerini duyurdu.
BENZER DAVALAR VE SEKTÖRDEKİ ENDİŞELER
Bu dava, yapay zeka sohbet botlarının kullanıcıların zihinsel sağlığı üzerindeki etkileri konusundaki endişeleri yeniden gündeme getirdi. Geçen yıl Florida’da Character.AI’ya karşı açılan benzer bir davada, platformun bir gencin intiharına katkıda bulunduğu iddia edilmişti. Diğer iki aile de aynı şirketi, çocuklarını zararlı içeriklere maruz bırakmakla suçlamıştı .
AİLENİN TALEPLERİ
Raine ailesi, OpenAI’den maddi tazminat ve reşit olmayan kullanıcılar için yaş doğrulama, ebeveyn kontrolü ve intihar içerikli sohbetleri otomatik sonlandırma gibi önlemler talep ediyor. Ayrıca, bağımsız denetmenlerle üç aylık uyum denetimleri yapılmasını istiyor. Dava, yapay zeka şirketlerinin kullanıcı güvenliği konusundaki sorumluluklarını yeniden sorgulatıyor.