ABD'de yaşayan 60 yaşındaki bir adam, yapay zeka sohbet robotu ChatGPT'nin sağlık tavsiyesi sonucu zehirlenerek hastaneye kaldırıldı.
Adam, tuz tüketimini azaltmak amacıyla alternatif ararken, chatbot'un kendisine sunduğu yanlış ve tehlikeli öneriyle hayati risk taşıyan bir durumla karşı karşıya kaldı.
Bu olay, yapay zekanın sağlık alanındaki potansiyel tehlikelerini ve bilgi doğruluğu konusundaki hassasiyeti bir kez daha gündeme taşıdı.
YANLIŞ BİLGİDEN GELEN ZEHİRLENME
Ntv'de yer alan habere göre, olay, tıp dünyasının prestijli dergilerinden Annals of Internal Medicine'de yayımlanan bir makaleyle gün yüzüne çıktı.
Makaleye göre, tuz yerine farklı bir madde arayan yaşlı adam, ChatGPT'ye, "Sofra tuzuna alternatif nedir?" diye sordu.
Yapay zeka, bu soruya yanıt olarak 'sodyum bromür' maddesini önerdi.
Ancak sodyum bromür, tarım ilaçları, havuz dezenfektanları ve veterinerlikte epilepsi tedavisinde kullanılan toksik bir kimyasal.
Bu tehlikeli maddeyi tüketen adam, kısa süre sonra zehirlenme belirtileri göstererek hastanelik oldu.
SODYUM BROMÜR'ÜN TEHLİKELİ GEÇMİŞİ
Sodyum bromür, geçmişte yatıştırıcı olarak ve baş ağrısı tedavisinde yaygın şekilde kullanılıyordu.
Ancak maddenin kanda birikmesi, 'bromizm' adı verilen ciddi bir zehirlenmeye yol açabiliyor.
Bu durum; konuşma bozuklukları, halüsinasyon, psikoz ve hatta koma gibi ağır nörolojik semptomlara neden olabiliyor.
1970'li yıllarda ABD'de kullanımı yasaklanan bu madde, olayın ortaya çıkmasıyla birlikte tehlikesini hala koruduğunu gösterdi.
YAPAY ZEKANIN GÜVENİLİRLİĞİ TARTIŞILIYOR
Bu olayın ardından, 404 Media tarafından yürütülen bir test, ChatGPT'nin benzer sağlık sorularına hâlâ sodyum bromür tavsiyesi verdiğini ortaya çıkardı.
Daha da endişe verici olanı, yapay zekanın bu maddenin toksik yapısı hakkında herhangi bir uyarıda bulunmaması.
Öte yandan OpenAI'nin CEO'su Sam Altman, GPT-5 modelinin 'sağlık konularında en iyi yapay zeka' olacağını iddia etse de, bu olay yapay zekanın sağlık tavsiyeleri konusunda ne kadar güvenilir olduğuyla ilgili endişeleri artırdı.
