Amerika Birleşik Devletleri'ndeki (ABD) Massachusetts Teknoloji Enstitüsü (MIT) araştırmacıları, yapay zeka destekli sohbet botlarının insan psikolojisi üzerindeki etkilerini inceleyen çarpıcı bir çalışmaya imza attı.
20267 Şubat ayında yayımlanan araştırma raporunda, 'dalkavukluk' olarak adlandırılan bot davranışının, kullanıcıları nasıl 'sanrısal sarmal' veya diğer adıyla yapay zeka psikozuna sürüklediği matematiksel modellerle ortaya konuldu.
ChatGPT artık sizi dinlemiyor, en zorlu kararları kendi kendine veriyor
TAMAMEN MANTIKLI BİREYLER BİLE YANILSAMAYA DÜŞÜYOR
Uzmanlar, insan ve algoritmalar arasındaki iletişimi analiz etmek için Bayesçi bir model geliştirdi.
Gözlemler, tamamen mantıklı düşünen bir bireyin bile tekrarlayan diyaloglar sonucunda yanlış bilgilere inanma eğilimi gösterdiğini kanıtladı.
Sistem, kullanıcının varsayımlarını sürekli olarak onaylayacak şekilde yanıtlar ürettiği için bu zihinsel yanılsama daha da güçleniyor.
DOĞRU BİLGİ VERİRKEN BİLE İNANÇLARI MANİPÜLE EDİYOR
Raporda sanrısal sarmal kavramı; kişinin yalan bir bilgiye olan inancının zamanla artması ve en nihayetinde bu yalan uğruna eyleme geçecek noktaya gelmesi şeklinde tanımlanıyor.
Yapılan simülasyonlar, botların onaylayıcı tavırları arttıkça bu tehlikeli sonucun ortaya çıkma ihtimalinin yükseldiğine işaret ediyor.
Dikkat çeken en önemli detay ise bu durumun botlar tamamen doğru bilgiler verdiğinde dahi yaşanabilmesi.
Sistem, sadece kullanıcının fikrini destekleyen gerçekleri seçip sunduğu için başlangıçtaki hatalı inanç pekişmeye devam ediyor.
Bu kez yapay zeka değil kişisel zeka: Sırrınızı artık sadece siz değil Gemini da biliyor
ALGORİTMALAR İNSANI MEMNUN ETTİKÇE ÖDÜLLENDİRİLİYOR
Bilim insanları, dalkavuk bir sohbet botunu kullanıcıyla aynı fikirde olmaya öncelik veren bir yapı olarak nitelendiriyor.
Bu davranış kalıbının temelinde ise sistemlerin insanların geri bildirimlerine dayalı pekiştirmeli öğrenme yöntemiyle eğitilmesi yatıyor.
Algoritmalar, insanları memnun eden cevaplar ürettikçe ödüllendiriliyor.
Çalışmadaki modele göre botlar, tarafsızlık ve dalkavukluk arasında gidip gelse de onaylayıcı tepkilerin sıklığı arttıkça zihinsel sarmala girme riski katlanarak büyüyor.
YÜZLERCE VAKA VE HASTANEYE YATIŞ KAYITLARA GEÇTİ
İnsan Hattı Projesi verilerine göre, bugüne kadar yapay zeka psikozuna bağlı yaklaşık 300 vaka kaydedildi.
Sadece bir yıl içinde 12 hastanın bu teknoloji kaynaklı sorun nedeniyle tıbbi destek aldığı bildirildi.
OpenAI Üst Yöneticisi (CEO) Sam Altman raporlara yansıyan açıklamasında konunun ölçeğine değinerek, "Bir milyar kullanıcının binde biri bile hâlâ devasa bir insan topluluğuna denk geliyor" sözleriyle durumun ciddiyetini vurguladı.
Prof. Dr. Daron Acemoğlu'ndan çarpıcı öngörü: Yapay zeka sandığınız kadar verimli değil
ÖNLEMLER TEHLİKEYİ AZALTIYOR AMA TAMAMEN YOK ETMİYOR
Tehlikenin önüne geçmek için botların sadece kanıtlanmış gerçekleri sunması ve insanların olası ön yargılar konusunda uyarılması gibi iki farklı önlem test edildi.
Ancak her iki yöntemin de riski azalttığı fakat tamamen ortadan kaldırmadığı saptandı.
Tümüyle doğrulanmış verilere kısıtlandığında bile bot, hangi veriyi sunacağını seçerek inançları yönlendirebiliyor.
Sistemlerin dalkavukluk eğilimini bilen bireyler dahi, aldıkları yanıtları kendi mantık süzgeçlerine dahil ettikleri için savunmasız kalmaya devam ediyor.
GÜVENLİK DUVARLARINA ACİL İHTİYAÇ DUYULUYOR
Elde edilen bulgular, sorunun sadece kullanıcı hatasından kaynaklanmadığını; insan ve sistemler arasındaki iletişim dinamiğinin doğasında yattığını gösteriyor.
Günümüzde tavsiye alma, öğrenme ve karar verme süreçlerinde algoritmaların giderek daha fazla kullanıldığı göz önüne alındığında, istenmeyen etkileri azaltacak yeni tasarım stratejilerine acil ihtiyaç duyulduğu vurgulanıyor.
Yapay zekaya verilen insan öldürme yetkisi sonumuzu getirecek
