Yapay zekada yanlış cevaplar: ChatGPT neden “bilmiyorum” demiyor?

Yapay zekada yanlış cevaplar: ChatGPT neden “bilmiyorum” demiyor?

Yeni araştırmalar, ChatGPT gibi yapay zekaların gerçekleri uydurmasının temel nedeninin bilgi eksikliğini kabul etmek yerine tahmin yürütmeye programlanmaları olduğunu ortaya koydu. Uzmanlar, doğruluk temelli değerlendirme sistemlerinin güncellenmesi ve belirsizlik durumunda kısmi puan verilmesinin halüsinasyonları azaltabileceğini belirtiyor.

Yeni bir araştırma, ChatGPT ve benzeri yapay zeka modellerinin zaman zaman “halüsinasyon” yapmasının, yani gerçek dışı bilgi üretmesinin temel nedeninin bilgi eksikliğini kabul etmek yerine tahmin yürütmeye programlanmalarından kaynaklandığını ortaya koydu. Halüsinasyon, üretken yapay zeka modellerinde ciddi bir endişe kaynağı; çünkü bu sistemler yanlış bilgileri kendilerinden çok emin bir şekilde sunabiliyor.

OpenAI araştırmacılarının çalışmasına göre, model performansını çoğu zaman doğruluk üzerinden ölçmek, yani yalnızca doğru cevap verilen soru yüzdesine puan vermek, yapay zekayı belirsizlik karşısında “Bilmiyorum” demekten alıkoyuyor ve tahmin yürütmeye teşvik ediyor. Araştırmacılar, bunu bir öğrencinin çoktan seçmeli testte boş bırakmanın puan getirmemesi nedeniyle kafadan tahmin yapmasına benzetiyor.

MODELLER STRATEJİK TAHMİNLER YAPIYOR

Yapay zeka modelleri büyük metin bloklarında bir sonraki kelimeyi tahmin etme süreciyle öğreniyor. Eğitim verilerindeki rastgelelik ve model karmaşıklığı, halüsinasyonları tetikleyen faktörlerden biri. Özellikle bilgi eksikliği veya belirsizlik içeren sorularda, modeller stratejik tahminler yapıyor; bu tahminler zamanla doğruluklarını artırabilse de hata ve halüsinasyon oranını da yükseltiyor.

Independent Türkçe'de yer alan habere göre, araştırmacılar, bu sorunun görece basit bir şekilde çözülebileceğini belirtiyor: Modellerin belirsizliği uygun şekilde ifade etmesine puan verilmesi ve kendinden emin hataların cezalandırılması, tahmin yürütmeyi caydırabilir. Yani yanlış cevaplara eksi puan, boş bırakılan sorulara ise az da olsa puan verilmesi gibi standart test yöntemleri, yapay zekada halüsinasyonların azalmasına yardımcı olabilir.

Sonuç olarak araştırmacılar, üretken yapay zekanın doğruluk temelli değerlendirme sistemlerinin güncellenmesi ve puanlamanın tahmin yürütmeyi caydıracak şekilde tasarlanmasının, halüsinasyonları azaltabileceğini ve nüanslı dil modelleri üzerine gelecekteki çalışmalara kapı açabileceğini vurguluyor.

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN