Yapay zeka sistemleri geliştikçe güven kaybı artıyor! Yeni modeller eskiye göre daha fazla yanlış bilgi üretmeye başladı.
Son yayımlanan teknik analizlere göre, OpenAI’ın yakın zamanda duyurduğu o3 ve o4-mini modelleri, testlerde sırasıyla %33 ve %48 oranında halüsinasyon verisi üretti. Bu oranlar, önceki nesil dil modellerine göre neredeyse iki kat daha fazla hatalı içerik oluşturulduğunu ortaya koyuyor. Yani modeller daha akıllı hale geldikçe, yanlış bilgi verme eğilimleri de artış gösteriyor.
YALNIZCA OPENAI DEĞİL, DİĞER DEVLER DE AYNI SORUNU YAŞIYOR
Sadece OpenAI değil; Google, DeepSeek ve benzeri yapay zeka şirketlerinin geliştirdiği sistemlerde de aynı problem gözlemleniyor. Bu sorunun temelinde, modellerin yapay zekaya özgü işleyiş biçiminin hala tam olarak kavranamamış olması yatıyor. Ayrıca eğitilen verinin kalitesi ve niteliği, hatalı sonuçların ortaya çıkmasında büyük rol oynuyor.
SENTETİK VERİ SORUNU BÜYÜYOR
Uzmanlara göre, modellerin halüsinasyon üretmesinin en önemli sebeplerinden biri, eğitim sürecinde kullanılan sentetik veriler. Gerçek dünyadan elde edilen verilerin yetersiz kaldığı durumlarda, firmalar yapay zekaların ürettiği verilerle modelleri eğitmeye başladı. Ancak bu durum, mevcut hataların tekrar tekrar öğrenilerek kalıcı hale gelmesine yol açabiliyor.
UZMANLAR UYARIYOR: HALÜSİNASYON KAÇINILMAZ OLABİLİR
Vectara CEO’su Amr Awadallah, halüsinasyon probleminin tamamen ortadan kaldırılmasının mümkün olmadığını dile getiriyor. Ona göre yapay zekaların zaman zaman uydurma bilgi üretmesi doğal bir sonuç. Ancak bu durum, hem kullanıcı güveni hem de teknolojiyi ticari olarak kullanan kurumlar açısından ciddi riskler taşıyor.
YANLIŞ BİLGİLER CİDDİ SONUÇLAR DOĞURABİLİR
Halüsinasyonlar yalnızca bireysel kullanıcılar için değil, aynı zamanda şirketler ve karar vericiler için de tehlike oluşturuyor. Gerçek dışı bilgiler, kritik karar süreçlerini etkileyebilir ve hatalı yönlendirmelere neden olabilir. Bu nedenle uzmanlar, yapay zekaya tamamen güvenilmemesi gerektiği konusunda uyarılarda bulunuyor.