Yapay zekada yeni dönem: “Bilmiyorum” deme becerisi geliştirildi

Yapay zekada yeni dönem: “Bilmiyorum” deme becerisi geliştirildi

Yapay zeka sistemlerinde uzun süredir tartışılan en önemli sorunlardan biri olan “halüsinasyon”, yani yanlış bilgi üretme problemi için dikkat çekici bir çözüm önerisi geliştirildi. Güney Kore’de yapılan yeni bir araştırma, yapay zekanın tıpkı insanlar gibi “bilmediğini kabul etme” becerisi kazanabileceğini ortaya koydu.

Kore İleri Bilim ve Teknoloji Enstitüsü’nden araştırmacılara göre, yapay zeka modellerinin en büyük problemlerinden biri aşırı özgüvenle yanlış bilgi üretmeleri. Özellikle sağlık, otonom sürüş ve kritik karar sistemlerinde kullanılan modellerin, emin olmadıkları konularda bile tahmin yapması ciddi riskler oluşturuyor.

OpenAI’ın ChatGPT gibi sistemlerinde de görülen bu durum, yapay zekanın “bilmiyorum” demek yerine yanıt üretmeye zorlanmasından kaynaklanıyor. Bu da zaman zaman gerçek olmayan bilgilerin ortaya çıkmasına yol açıyor.

HALÜSİNASYON NASIL OLUŞUYOR?

Independent Türkçe’de yer alan habere göre araştırmacılar, yapay sinir ağlarının öğrenme sürecinde küçük hataların zamanla büyüyerek sistematik yanlışlara dönüşebildiğini belirtiyor. Özellikle eğitim başlangıcında rastgele verilerle çalışan modeller, yeterli bilgiye sahip olmamasına rağmen yüksek güven sergileyebiliyor.

Bu durum, yapay zekanın yanlış bilgiyi bile doğruymuş gibi sunmasına neden olan “halüsinasyon” problemine zemin hazırlıyor.

“ISINMA” YÖNTEMİ: BELİRSİZLİĞİ ÖĞRENMEK

Yeni çalışmada bilim insanları, insan beyninin gelişim sürecinden ilham aldı. İnsan beyninin doğumdan önce bile belirli sinyaller üretmesi gibi, yapay zekanın da öğrenmeye başlamadan önce “hazırlık aşamasından” geçirilmesi önerildi.

Bu yöntemle model, gerçek verilerle eğitime geçmeden önce rastgele gürültü verileriyle kısa bir “ısınma sürecinden” geçiriliyor. Böylece sistem, kendi belirsizlik seviyesini tanımayı öğreniyor.

“BİLMİYORUM” DİYEBİLEN YAPAY ZEKA

Araştırmacılara göre bu yaklaşım, yapay zekanın başlangıçtaki aşırı güvenini azaltıyor ve daha temkinli yanıtlar üretmesini sağlıyor. Yeni sistemlerde modellerin, bilgi eksikliği durumunda “bilmiyorum” deme ihtimali artıyor.

Çalışmayı yürüten ekipten Se-Bum Paik, yöntemin önemini şu sözlerle açıkladı:

“Bu çalışma, yapay zekanın kendi bilgi durumunu insanlara daha benzer şekilde değerlendirmesine olanak tanıyor.”

DAHA GÜVENLİ YAPAY ZEKA HEDEFİ

Uzmanlara göre bu gelişme, yalnızca doğru cevap üretme oranını değil, yapay zekanın ne zaman emin olmadığını fark edebilmesini de iyileştiriyor. Bu da özellikle tıp, otonom sistemler ve kritik karar mekanizmalarında güvenilirliği artırabilecek önemli bir adım olarak görülüyor.

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN