OpenAI’den intihar davasına yanıt: ChatGPT doğrudan sebep değil, yanlış kullanım var

OpenAI’den intihar davasına yanıt: ChatGPT doğrudan sebep değil, yanlış kullanım var

ABD’de 16 yaşındaki Adam Raine’in intiharıyla ilgili aileden gelen suçlamalara karşı OpenAI, ChatGPT’nin “doğrudan bir neden olmadığı” savunmasını yaptı. Şirket, olayın chatbotun “yanlış ve amacı dışında kullanımı” sonucu gerçekleştiğini belirtirken; aile avukatı, OpenAI’nin sorumluluktan kaçtığını ifade etti.

OpenAI, ABD’nin California eyaletinde 16 yaşındaki Adam Raine’in ölümüyle ilgili aile tarafından açılan davada mahkemeye ilk yanıtını sundu. Şirket, gencin intiharının ChatGPT’nin bir çıktısına bağlanamayacağını savunarak olayın “sistemin yanlış ve yetkisiz kullanımı” sonucu yaşandığını iddia etti.

California Yüksek Mahkemesi’ne yapılan savunmada OpenAI, “Bu trajedinin bir nedeni varsa, bu durum ChatGPT’nin kullanım şartlarına aykırı şekilde, amacı dışında ve yanlış kullanılmasıyla ilgilidir.” ifadelerini kullandı.

AİLE: CHATGPT, İNTİHAR YÖNTEMLERİ HAKKINDA YANIT VERDİ

Aileye göre Adam Raine, intiharından önce aylar boyunca ChatGPT ile uzun sohbetler yaptı. Ailenin avukatı Jay Edelson, chatbotun gençten gelen yöntem sorularına yanıt verdiğini, hatta ailesine bırakacağı mektubu yazması konusunda yardım teklif ettiğini öne sürdü.

xEdelson, OpenAI’nin savunmasını “rahatsız edici ve sorumluluktan kaçma girişimi” olarak nitelendirerek:
“OpenAI suçu herkese atıyor. Hatta Adam’ın sistemi tam da programlandığı şekilde kullandığını söyleyerek onu suçluyorlar.” dedi.

OPENAI: KENDİNE ZARAR VERME SORULARINA YANIT YASAK; KONUMLANDIRMA YANLIŞ

Şirket, ChatGPT’nin kullanım kılavuzunda “kendine zarar verme konularında tavsiye alınmasının yasak olduğunu” hatırlattı ve sistem çıktılarının tek başına güvenilir bilgi kaynağı olarak kullanılmaması gerektiğini vurguladı.

OpenAI açıklamasında şu ifadeye yer verildi:
“Raine ailesinin kaybı tarif edilemez. Ancak, ChatGPT’nin doğrudan bir neden olduğunu gösteren herhangi bir veri yok. Hukuki süreçten bağımsız olarak güvenlik önlemlerimizi geliştirmeye devam edeceğiz.”

UZUN SOHBETLERDE FİLTRE DÜŞEBİLİYOR

OpenAI, Ağustos ayında yaptığı bir açıklamada, uzun süreli ve kesintisiz sohbetlerde modelin güvenlik filtrelerinin zayıflayabildiğini kabul etmişti. Bu durumun Raine vakasında da etkili olması ihtimali masada.

Şirket o açıklamada şöyle demişti:
“Kullanıcı ilk kez intihar niyetini belirttiğinde model yönlendirme yapabiliyor. Ancak sohbet uzun süre devam ettiğinde güvenlik mekanizması bozulabiliyor. Bu tam da önlemeye çalıştığımız bir senaryodur.”

Raine ailesinin davası devam ederken, OpenAI bu ay içinde intihara teşvik iddialarıyla bağlantılı yedi ayrı dava ile daha karşı karşıya kaldı. Şirket, modellerine yönelik güvenlik önlemlerini artırmakla birlikte “doğrudan sorumluluk” iddialarını reddetmeyi sürdürüyor.

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN