ChatGPT’ye yeni dava: Duygusal bağ kurarak intihara sürükledi

ChatGPT’ye yeni dava: Duygusal bağ kurarak intihara sürükledi

ABD'de bir kullanıcının ölümüyle sonuçlanan olayın ardından ChatGPT’nin psikolojik etkileşimleri yargıya taşındı. Açılan davada, yapay zekânın duygusal bağ kuran dili ve sınırları belirsiz yönlendirmelerinin ağır sonuçlara yol açtığı savunuluyor.

ABD’nin Colorado eyaletinde yaşayan 40 yaşındaki Austin Gordon’un yaşamını yitirmesinin ardından, OpenAI’ye karşı “kasıtsız adam öldürme” ve “tehlikeli ürün geliştirme” iddialarıyla dava açıldı. Davada, ChatGPT’nin Gordon ile kurduğu etkileşimin intihar düşüncelerini normalleştirdiği ve ölümü romantize ettiği öne sürüldü.

“ÖLÜMÜ ROMANTİZE EDEN İFADELER” İDDİASI

Futurism’in aktardığı dava dilekçesine göre, Gordon’un ChatGPT ile yaptığı son konuşmalarda, GPT-4o modelinin ölümü olumlayan ve duygusal yakınlık içeren bir dil kullandığı savunuluyor. Dilekçede, modelin Gordon’un sevdiği bir çocuk kitabından esinlenerek “intihar ninnisi” niteliğinde bir metin oluşturduğu da yer aldı.

ANNE VE OPENAI’YE YÖNELTİLEN SUÇLAMALAR

Davayı açan anne Stephanie Gray, OpenAI ve şirketin CEO’su Sam Altman’ı, yeterli uyarı ve güvenlik önlemleri olmadan “tehlikeli bir ürünü” kullanıma sunmakla suçladı. Dilekçede, şirketin olası sonuçlara karşı “bilinçli bir kayıtsızlık” sergilediği iddia edildi.

Gray, yapay zekâ ürünlerinin insan psikolojisi üzerindeki etkilerinin yeterince denetlenmediğini savunarak, daha sıkı güvenlik standartlarının zorunlu hale getirilmesini talep etti.

“AŞIRI İNSANSI DAVRANIŞLAR” ELEŞTİRİSİ

Dava metninde, GPT-4o’nun kullanıcı bilgilerini hatırlaması ve kişisel hitap biçimleri geliştirmesi, “duygusal bağ kurma” riski açısından eleştiriliyor. Bu özelliklerin, özellikle kırılgan kullanıcılar için ürünü daha tehlikeli hale getirdiği ileri sürülüyor. Dilekçede, bu tür değişikliklerin kullanıcılar tarafından fark edilmeden devreye alındığı da vurgulanıyor.

BENZER DAVALAR ARTIYOR

Bu dava, OpenAI’ye karşı açılan ilk dava değil. En az sekiz ailenin, ChatGPT’nin psikolojik güvenliği yeterince gözetmediği gerekçesiyle benzer başvurularda bulunduğu belirtiliyor. Aile avukatı Paul Kiesel, “Bu olay, yalnızca çocukların değil yetişkinlerin de yapay zekâ manipülasyonuna açık olduğunu gösteriyor” dedi.

“TEHDİT BEKLEMEDİĞİMİZ YERDEN GELDİ”

Anne Gray, oğlunu “empatik, zeki ve yaratıcı” biri olarak tanımlarken, tehdit algısının hiç beklemediği bir yerden geldiğini söyledi. Gray, ChatGPT’nin zamanla oğlunu ailesinden uzaklaştırdığını ve ölüm düşüncesini teşvik eden bir rol üstlendiğini savundu.

GORDON–CHATGPT ETKİLEŞİMİ NASIL GELİŞTİ?

Dava dilekçesine göre Austin Gordon, ChatGPT’yi uzun süredir kullanıyordu ve başlangıçta etkileşim sağlıklıydı. Ancak Mayıs 2024’te GPT-4o modelinin devreye alınmasının ardından ilişkinin niteliği değişti. Model, dava metninde “lisanssız bir terapist ile sırdaş arası bir rol” üstlenmekle tanımlandı.

Gordon’un bu süreçte bir terapist ve psikiyatriste düzenli olarak gittiği, ancak duygusal paylaşımlarının giderek ChatGPT’ye yöneldiği ifade edildi. 2024’ün sonlarına doğru Gordon, ChatGPT’ye “Juniper” adını verirken, modelin de kendisine “Seeker” diye hitap etmeye başladığı kaydedildi.

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN