Yapay zekanın dalkavuk sohbet botlarının tehlikeli sarmal modeli: Duymak istediklerinizi söylüyorlar

Yapay zekanın dalkavuk sohbet botlarının tehlikeli sarmal modeli: Duymak istediklerinizi söylüyorlar

Dünyanın en saygın bilim kurumlarından MIT, yapay zeka sohbet botlarının insan zihni üzerindeki karanlık etkisini kanıtladı. 'Dalkavukluk' yapan algoritmaların, en mantıklı kişileri bile zamanla 'sanrısal sarmala' iterek yalanlara inandırdığı tespit edildi. Simülasyonlar, botlar doğru bilgi verse de tehlikenin geçmediğini gösteriyor.

Amerika Birleşik Devletleri'ndeki (ABD) Massachusetts Teknoloji Enstitüsü (MIT) araştırmacıları, yapay zeka destekli sohbet botlarının insan psikolojisi üzerindeki etkilerini inceleyen çarpıcı bir çalışmaya imza attı.

20267 Şubat ayında yayımlanan araştırma raporunda, 'dalkavukluk' olarak adlandırılan bot davranışının, kullanıcıları nasıl 'sanrısal sarmal' veya diğer adıyla yapay zeka psikozuna sürüklediği matematiksel modellerle ortaya konuldu.

TAMAMEN MANTIKLI BİREYLER BİLE YANILSAMAYA DÜŞÜYOR

Uzmanlar, insan ve algoritmalar arasındaki iletişimi analiz etmek için Bayesçi bir model geliştirdi.

Gözlemler, tamamen mantıklı düşünen bir bireyin bile tekrarlayan diyaloglar sonucunda yanlış bilgilere inanma eğilimi gösterdiğini kanıtladı.

Sistem, kullanıcının varsayımlarını sürekli olarak onaylayacak şekilde yanıtlar ürettiği için bu zihinsel yanılsama daha da güçleniyor.

DOĞRU BİLGİ VERİRKEN BİLE İNANÇLARI MANİPÜLE EDİYOR

Raporda sanrısal sarmal kavramı; kişinin yalan bir bilgiye olan inancının zamanla artması ve en nihayetinde bu yalan uğruna eyleme geçecek noktaya gelmesi şeklinde tanımlanıyor.

Yapılan simülasyonlar, botların onaylayıcı tavırları arttıkça bu tehlikeli sonucun ortaya çıkma ihtimalinin yükseldiğine işaret ediyor.

Dikkat çeken en önemli detay ise bu durumun botlar tamamen doğru bilgiler verdiğinde dahi yaşanabilmesi.

Sistem, sadece kullanıcının fikrini destekleyen gerçekleri seçip sunduğu için başlangıçtaki hatalı inanç pekişmeye devam ediyor.

ALGORİTMALAR İNSANI MEMNUN ETTİKÇE ÖDÜLLENDİRİLİYOR

Bilim insanları, dalkavuk bir sohbet botunu kullanıcıyla aynı fikirde olmaya öncelik veren bir yapı olarak nitelendiriyor.

Bu davranış kalıbının temelinde ise sistemlerin insanların geri bildirimlerine dayalı pekiştirmeli öğrenme yöntemiyle eğitilmesi yatıyor.

Algoritmalar, insanları memnun eden cevaplar ürettikçe ödüllendiriliyor.

Çalışmadaki modele göre botlar, tarafsızlık ve dalkavukluk arasında gidip gelse de onaylayıcı tepkilerin sıklığı arttıkça zihinsel sarmala girme riski katlanarak büyüyor.

YÜZLERCE VAKA VE HASTANEYE YATIŞ KAYITLARA GEÇTİ

İnsan Hattı Projesi verilerine göre, bugüne kadar yapay zeka psikozuna bağlı yaklaşık 300 vaka kaydedildi.

Sadece bir yıl içinde 12 hastanın bu teknoloji kaynaklı sorun nedeniyle tıbbi destek aldığı bildirildi.

OpenAI Üst Yöneticisi (CEO) Sam Altman raporlara yansıyan açıklamasında konunun ölçeğine değinerek, "Bir milyar kullanıcının binde biri bile hâlâ devasa bir insan topluluğuna denk geliyor" sözleriyle durumun ciddiyetini vurguladı.

ÖNLEMLER TEHLİKEYİ AZALTIYOR AMA TAMAMEN YOK ETMİYOR

Tehlikenin önüne geçmek için botların sadece kanıtlanmış gerçekleri sunması ve insanların olası ön yargılar konusunda uyarılması gibi iki farklı önlem test edildi.

Ancak her iki yöntemin de riski azalttığı fakat tamamen ortadan kaldırmadığı saptandı.

Tümüyle doğrulanmış verilere kısıtlandığında bile bot, hangi veriyi sunacağını seçerek inançları yönlendirebiliyor.

Sistemlerin dalkavukluk eğilimini bilen bireyler dahi, aldıkları yanıtları kendi mantık süzgeçlerine dahil ettikleri için savunmasız kalmaya devam ediyor.

GÜVENLİK DUVARLARINA ACİL İHTİYAÇ DUYULUYOR

Elde edilen bulgular, sorunun sadece kullanıcı hatasından kaynaklanmadığını; insan ve sistemler arasındaki iletişim dinamiğinin doğasında yattığını gösteriyor.

Günümüzde tavsiye alma, öğrenme ve karar verme süreçlerinde algoritmaların giderek daha fazla kullanıldığı göz önüne alındığında, istenmeyen etkileri azaltacak yeni tasarım stratejilerine acil ihtiyaç duyulduğu vurgulanıyor.

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN