Yeni bir araştırma, ChatGPT ve benzeri yapay zeka modellerinin zaman zaman “halüsinasyon” yapmasının, yani gerçek dışı bilgi üretmesinin temel nedeninin bilgi eksikliğini kabul etmek yerine tahmin yürütmeye programlanmalarından kaynaklandığını ortaya koydu. Halüsinasyon, üretken yapay zeka modellerinde ciddi bir endişe kaynağı; çünkü bu sistemler yanlış bilgileri kendilerinden çok emin bir şekilde sunabiliyor.
ChatGPT ve yapay zekanın gizli kaynağı: Reddit
OpenAI araştırmacılarının çalışmasına göre, model performansını çoğu zaman doğruluk üzerinden ölçmek, yani yalnızca doğru cevap verilen soru yüzdesine puan vermek, yapay zekayı belirsizlik karşısında “Bilmiyorum” demekten alıkoyuyor ve tahmin yürütmeye teşvik ediyor. Araştırmacılar, bunu bir öğrencinin çoktan seçmeli testte boş bırakmanın puan getirmemesi nedeniyle kafadan tahmin yapmasına benzetiyor.
MODELLER STRATEJİK TAHMİNLER YAPIYOR
Yapay zeka modelleri büyük metin bloklarında bir sonraki kelimeyi tahmin etme süreciyle öğreniyor. Eğitim verilerindeki rastgelelik ve model karmaşıklığı, halüsinasyonları tetikleyen faktörlerden biri. Özellikle bilgi eksikliği veya belirsizlik içeren sorularda, modeller stratejik tahminler yapıyor; bu tahminler zamanla doğruluklarını artırabilse de hata ve halüsinasyon oranını da yükseltiyor.
Independent Türkçe'de yer alan habere göre, araştırmacılar, bu sorunun görece basit bir şekilde çözülebileceğini belirtiyor: Modellerin belirsizliği uygun şekilde ifade etmesine puan verilmesi ve kendinden emin hataların cezalandırılması, tahmin yürütmeyi caydırabilir. Yani yanlış cevaplara eksi puan, boş bırakılan sorulara ise az da olsa puan verilmesi gibi standart test yöntemleri, yapay zekada halüsinasyonların azalmasına yardımcı olabilir.
Sonuç olarak araştırmacılar, üretken yapay zekanın doğruluk temelli değerlendirme sistemlerinin güncellenmesi ve puanlamanın tahmin yürütmeyi caydıracak şekilde tasarlanmasının, halüsinasyonları azaltabileceğini ve nüanslı dil modelleri üzerine gelecekteki çalışmalara kapı açabileceğini vurguluyor.
