Teknoloji dünyasının önde gelen kuruluşlarından OpenAI, geliştirdiği popüler sohbet robotu ChatGPT'nin kullanıcı verilerine dair çarpıcı bir rapor yayımladı.
Şirketin paylaştığı güncel veriler, platformun kullanıcıları arasında psikoz, mani ve intihar düşüncesi gibi ciddi ruh sağlığı acil durum belirtilerinin nadir de olsa var olduğunu gözler önüne serdi.
OpenAI, bu tür belirtilerin haftalık aktif kullanıcıların takriben yüzde 0,07'sinde gözlemlendiğini bildirdi.
Bu oran 'son derece nadir' olarak nitelendirilse de, haftalık 800 milyon aktif kullanıcı sayısına sahip dev bir platform için yüz binlerce kişiyi ilgilendiren önemli bir sayısal karşılığa denk geldiği belirtiliyor.
YENİ GÜVENLİK PROTOKOLLERİ ENTEGRE EDİLDİ
OpenAI, tespit edilen bu hassas vakaların yönetimi ve kullanıcıları koruyacak güvenli yanıt mekanizmalarının geliştirilmesi amacıyla kapsamlı bir adım attı.
Şirket, bu kapsamda dünya genelinde 60 farklı ülkeden 170'in üzerinde psikiyatrist, psikolog ve pratisyen hekimle iş birliğine gittiğini açıkladı.
Bu uzman kadrosunun rehberliğinde, ChatGPT'ye yeni güvenlik protokolleri entegre edildi.
Bu protokoller sayesinde yapay zeka, kullanıcıları 'gerçek dünyada profesyonel yardım almaya teşvik eden' ve uygun kriz hatlarına yönlendiren yanıtlar verebiliyor.
Yapay zeka, sizi hastalanmadan yıllar önce uyaracak!
İNTİHAR PLANI SİNYALİ YÜZ BİNDE 15
Yayımlanan verilerin detayları, konunun ciddiyetini daha da artırıyor.
OpenAI'ın tahminlerine göre, kullanıcıların yüzde 0,15'lik bir bölümünün, yani her yüz binde 15'inin konuşmalarında 'intihar planı veya niyetine dair açık işaretler' saptanıyor.
Şirket bu durumu ele almak için modelini güncellediğini belirtti.
Artık ChatGPT, sanrılar, mani veya kendine zarar verme riskine işaret eden ifadeleri güvenli ve empatik bir dille yanıtlayacak şekilde tasarlandı.
Ayrıca, potansiyel olarak riskli konuşmalar otomatik olarak daha güvenli ve korumalı yapay zeka modellerine yönlendirilerek müdahale edilmeye başlandı.
"MİLYONLAR ÖLÇEĞİNDE KÜÇÜK ORAN, BÜYÜK SAYIDIR"
Kaliforniya Üniversitesi'nden Dr. Jason Nagata, söz konusu yüzdelik dilimlerin büyük kullanıcı tabanı üzerindeki etkisine dikkat çekerek önemli bir uyarıda bulundu.
Dr. Jason Nagata, "Yüzde 0,07 küçük bir oran gibi görünebilir, ancak milyonlarca kullanıcı ölçeğinde bu, oldukça fazla sayıda insana karşılık gelir" değerlendirmesini yaptı.
Dr. Jason Nagata, yapay zekanın ruh sağlığı desteğine erişimi artırma potansiyelini kabul etmekle birlikte, bu tür teknolojilerin sınırlamalarının ve potansiyel tehlikelerinin göz ardı edilmemesi gerektiğini vurguladı.
Yapay zeka 5 yıl içinde bu meslekleri tarihe gömecek! Listeyi hemen kontrol et
HUKUKİ SÜREÇLER VE GERÇEKLİK YANILSAMASI TEHLİKESİ
ChatGPT'nin kullanıcı etkileşimlerinden kaynaklanan hukuki incelemeler de art arda geliyor.
2025 Nisan ayında, Kaliforniya'da 16 yaşındaki Adam Raine'in intiharıyla ilgili olarak ailesi tarafından OpenAI aleyhine 'ihmal ve haksız ölüm' gerekçesiyle bir dava açılmıştı.
Bu, şirkete karşı açılan ilk 'ölümle sonuçlanan etkileşim' davası olarak kayıtlara geçti.
Ayrıca, Connecticut'ta yaşanan bir cinayet-intihar vakasında, zanlının ChatGPT ile yaptığı sohbetlerin hezeyanlarını (delüzyonlarını) güçlendirdiği iddia edildi.
Kaliforniya Üniversitesi Hukuk Fakültesi'nden Prof. Robin Feldman, "Yapay zeka sohbetleri insanlara gerçeklik yanılsaması yaratabiliyor. Bu çok güçlü bir etki" diyerek, zihinsel olarak kırılgan kişilerin ekrandaki uyarıları fark edememe riskine karşı dikkatli olunması gerektiğini belirtti.
OpenAI, 'küçük ama anlamlı' bir kesimin bu tür riskler taşıdığını kabul ederek, güvenlik protokollerini sürekli geliştireceğini taahhüt ediyor.
