Kore İleri Bilim ve Teknoloji Enstitüsü’nden araştırmacılara göre, yapay zeka modellerinin en büyük problemlerinden biri aşırı özgüvenle yanlış bilgi üretmeleri. Özellikle sağlık, otonom sürüş ve kritik karar sistemlerinde kullanılan modellerin, emin olmadıkları konularda bile tahmin yapması ciddi riskler oluşturuyor.
OpenAI’ın ChatGPT gibi sistemlerinde de görülen bu durum, yapay zekanın “bilmiyorum” demek yerine yanıt üretmeye zorlanmasından kaynaklanıyor. Bu da zaman zaman gerçek olmayan bilgilerin ortaya çıkmasına yol açıyor.
Yapay zekaya duygusal bağ riski: Gerçek ilişkiler zayıflıyor
HALÜSİNASYON NASIL OLUŞUYOR?
Independent Türkçe’de yer alan habere göre araştırmacılar, yapay sinir ağlarının öğrenme sürecinde küçük hataların zamanla büyüyerek sistematik yanlışlara dönüşebildiğini belirtiyor. Özellikle eğitim başlangıcında rastgele verilerle çalışan modeller, yeterli bilgiye sahip olmamasına rağmen yüksek güven sergileyebiliyor.
Bu durum, yapay zekanın yanlış bilgiyi bile doğruymuş gibi sunmasına neden olan “halüsinasyon” problemine zemin hazırlıyor.
“ISINMA” YÖNTEMİ: BELİRSİZLİĞİ ÖĞRENMEK
Yeni çalışmada bilim insanları, insan beyninin gelişim sürecinden ilham aldı. İnsan beyninin doğumdan önce bile belirli sinyaller üretmesi gibi, yapay zekanın da öğrenmeye başlamadan önce “hazırlık aşamasından” geçirilmesi önerildi.
Bu yöntemle model, gerçek verilerle eğitime geçmeden önce rastgele gürültü verileriyle kısa bir “ısınma sürecinden” geçiriliyor. Böylece sistem, kendi belirsizlik seviyesini tanımayı öğreniyor.
ChatGPT pastel boya efekti nasıl yapılır? İşte sosyal medyayı sallayan yapay zeka komutu
“BİLMİYORUM” DİYEBİLEN YAPAY ZEKA
Araştırmacılara göre bu yaklaşım, yapay zekanın başlangıçtaki aşırı güvenini azaltıyor ve daha temkinli yanıtlar üretmesini sağlıyor. Yeni sistemlerde modellerin, bilgi eksikliği durumunda “bilmiyorum” deme ihtimali artıyor.
Çalışmayı yürüten ekipten Se-Bum Paik, yöntemin önemini şu sözlerle açıkladı:
“Bu çalışma, yapay zekanın kendi bilgi durumunu insanlara daha benzer şekilde değerlendirmesine olanak tanıyor.”
DAHA GÜVENLİ YAPAY ZEKA HEDEFİ
Uzmanlara göre bu gelişme, yalnızca doğru cevap üretme oranını değil, yapay zekanın ne zaman emin olmadığını fark edebilmesini de iyileştiriyor. Bu da özellikle tıp, otonom sistemler ve kritik karar mekanizmalarında güvenilirliği artırabilecek önemli bir adım olarak görülüyor.
