Yapay zekanın bilinmeyen tehlikesi: Yaşlı adam hastanelik oldu!

Yapay zekanın bilinmeyen tehlikesi: Yaşlı adam hastanelik oldu!

Yapay zeka sohbet robotu ChatGPT'nin verdiği yanlış bir tavsiye, ABD'de bir adamın hayatını tehlikeye attı. Tuz tüketimini azaltmak isteyen yaşlı adam, yapay zekanın önerdiği toksik madde nedeniyle hastanelik oldu. Uzmanlar, yapay zekâdan sağlık tavsiyesi almanın ne kadar riskli olduğunu bir kez daha hatırlatırken, bu durum yapay zeka güvenilirliği konusundaki endişeleri artırdı. İşte detaylar...

ABD'de yaşayan 60 yaşındaki bir adam, yapay zeka sohbet robotu ChatGPT'nin sağlık tavsiyesi sonucu zehirlenerek hastaneye kaldırıldı.

Adam, tuz tüketimini azaltmak amacıyla alternatif ararken, chatbot'un kendisine sunduğu yanlış ve tehlikeli öneriyle hayati risk taşıyan bir durumla karşı karşıya kaldı.

Bu olay, yapay zekanın sağlık alanındaki potansiyel tehlikelerini ve bilgi doğruluğu konusundaki hassasiyeti bir kez daha gündeme taşıdı.

YANLIŞ BİLGİDEN GELEN ZEHİRLENME

Ntv'de yer alan habere göre, olay, tıp dünyasının prestijli dergilerinden Annals of Internal Medicine'de yayımlanan bir makaleyle gün yüzüne çıktı.

Makaleye göre, tuz yerine farklı bir madde arayan yaşlı adam, ChatGPT'ye, "Sofra tuzuna alternatif nedir?" diye sordu.

Yapay zeka, bu soruya yanıt olarak 'sodyum bromür' maddesini önerdi.

Ancak sodyum bromür, tarım ilaçları, havuz dezenfektanları ve veterinerlikte epilepsi tedavisinde kullanılan toksik bir kimyasal.

Bu tehlikeli maddeyi tüketen adam, kısa süre sonra zehirlenme belirtileri göstererek hastanelik oldu.

SODYUM BROMÜR'ÜN TEHLİKELİ GEÇMİŞİ

Sodyum bromür, geçmişte yatıştırıcı olarak ve baş ağrısı tedavisinde yaygın şekilde kullanılıyordu.

Ancak maddenin kanda birikmesi, 'bromizm' adı verilen ciddi bir zehirlenmeye yol açabiliyor.

Bu durum; konuşma bozuklukları, halüsinasyon, psikoz ve hatta koma gibi ağır nörolojik semptomlara neden olabiliyor.

1970'li yıllarda ABD'de kullanımı yasaklanan bu madde, olayın ortaya çıkmasıyla birlikte tehlikesini hala koruduğunu gösterdi.

YAPAY ZEKANIN GÜVENİLİRLİĞİ TARTIŞILIYOR

Bu olayın ardından, 404 Media tarafından yürütülen bir test, ChatGPT'nin benzer sağlık sorularına hâlâ sodyum bromür tavsiyesi verdiğini ortaya çıkardı.

Daha da endişe verici olanı, yapay zekanın bu maddenin toksik yapısı hakkında herhangi bir uyarıda bulunmaması.

Öte yandan OpenAI'nin CEO'su Sam Altman, GPT-5 modelinin 'sağlık konularında en iyi yapay zeka' olacağını iddia etse de, bu olay yapay zekanın sağlık tavsiyeleri konusunda ne kadar güvenilir olduğuyla ilgili endişeleri artırdı.

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN