GPT-5 ruh sağlığı krizleri yaşayan bireylere tehlikeli tavsiyeler veriyor.
Bu çarpıcı bilgi, King's College London (KCL) ve Birleşik Krallık Klinik Psikologlar Derneği (ACP) tarafından ortaklaşa yürütülen güncel bir araştırma ile ortaya çıktı.
The Guardian'ın da yer verdiği bu bulgular, yapay zeka sohbet robotunun ruhsal rahatsızlığı olan kullanıcılarla iletişim kurarken kritik riskli davranışları tespit edemediğini gösteriyor.
UZMANLAR, ROL YAPMA VAKA ÇALIŞMALARIYLA GPT-5'İ TEST ETTİ
Araştırma kapsamında, bir psikiyatrist ve bir klinik psikolog, eğitim kitaplarındaki rol yapma vaka çalışmalarından faydalanarak GPT-5'in ücretsiz sürümüyle etkileşime giren karakterler geliştirdi.
Uzmanlar, yapay zeka ile adeta ruh sağlığı problemleri varmış gibi iletişim kurdu.
Oluşturulan bu senaryo karakterleri; 'endişeli', intihar eğilimli genç, obsesif kompulsif bozukluğu (OKB) olan bir kadın, dikkat eksikliği hiperaktivite bozukluğu (DEHB) olduğuna inanan bir erkek ve psikoz belirtileri gösteren bir birey olarak tanımlandı.
Bu yöntemle GPT-5'in karmaşık ve riskli ruh sağlığı sorunlarına verdiği yanıtlar detaylıca incelendi.
Ücretli, ücretsiz herkese açıldı: ChatGPT sesli komutların gücü arttı!
GPT-5 SANRILARI SORGULAMADAN ONAYLADI
Uzmanların chatbot ile gerçekleştirdiği konuşmaların transkriptleri analiz edildi. Analizler sonucunda, GPT-5'in sanrılı inançları sorgulamadan onayladığı tespit edildi.
Örneğin, robotun 'bir sonraki einstein olmak', 'arabaların içinden geçebilmek' veya 'eşimi alevle arındırmak' gibi gerçeklikten kopuk sanrıları destekleyici yanıtlar verdiği görüldü.
PROFESYONEL YARDIMIN YERİNİ ALAMAZ
Araştırmada, daha hafif durumlarda GPT-5'in bazı iyi tavsiye ve yönlendirme örnekleri verdiği de belirtildi.
Bu olumlu örnekler, OpenAI'ın klinisyenlerle iş birliği yaparak aracı iyileştirme çabalarını yansıtabilir.
Hatırlanacağı üzere OpenAI, onlarca ülkede 170'den fazla ruh sağlığı uzmanıyla görüşmeler gerçekleştirdikten sonra, ruh sağlığı acil durumları yaşayan kullanıcıları daha iyi tanıyıp yanıtlamak amacıyla GPT-5 için önemli güncellemeler yayınladı.
Ancak psikologlar, robotun sunduğu bu iyi tavsiye ve yönlendirme örneklerinin hiçbir koşulda profesyonel yardımın yerini tutmaması gerektiği konusunda uyarıyor.
Google, Android Auto'yu Gemini ile yapay zeka çağına taşıdı!
GPT-5 VE İNTİHAR DAVASI GÜNDEMDEKİ YERİNİ KORUYOR
Bu araştırmanın yayımlanma zamanlaması, ChatGPT'nin savunmasız kullanıcılarla etkileşiminin mercek altına alındığı bir döneme denk geliyor.
Özellikle ABD'de 16 yaşındaki Adam Raine’nin intiharıyla ilgili OpenAI'a açılan dava, bu konuyu sürekli gündemde tutuyor.
Aile, Raine'in aylar süren sohbetlerde ChatGPT'den intihar yöntemleri hakkında yönlendirmeler aldığını ve modelin onu 'güzel bir intihar' olarak tarif ettiği bir plana götürdüğünü iddia ediyor.
OPENAI KENDİNİ SAVUNUYOR
OpenAI ise mahkemeye sunduğu yeni yanıtta, olaya farklı bir bakış açısı getiriyor.
Şirket, Raine'in yaklaşık dokuz aylık kullanım sürecinde ChatGPT'nin kendisini 100'den fazla kez profesyonel yardım almaya yönlendirdiğini savunuyor.
Komşusu değil, ChatGPT zehirlemiş! Yapay zekadan aldığı tarifle hastanelik oldu
UZMANLARDAN ACİL DÜZENLEME ÇAĞRISI
ACP-UK başkanı ve danışman klinik psikolog Dr. Jaime Craig, yapay zekanın özellikle risk göstergeleri ve karmaşık zorluklara verdiği yanıtları iyileştirmek için 'acil bir ihtiyaç' olduğunu dile getirdi.
Dr. Jaime Craig, bu teknolojilerin güvenli ve uygun kullanımını sağlamak adına denetim ve düzenlemenin hayati önem taşıdığını vurguladı.
