Güvenlik açığı alarmı: Dev yapay zeka firmaları sınıfta kaldı

Güvenlik açığı alarmı: Dev yapay zeka firmaları sınıfta kaldı

Yeni bir analiz, önde gelen yapay zeka şirketlerinin gelişmiş sistemlerin doğurduğu ciddi riskleri kontrol altına almakta yetersiz kaldığını gösterdi. İncelemeye göre hiçbir şirket felaket niteliğindeki kötüye kullanım ya da kontrol kaybını önleyecek güvenilir bir strateji sunamıyor.

Future of Life Institute tarafından yapılan yeni bir değerlendirme, önde gelen yapay zeka şirketlerinin büyük bölümünün gelişmiş sistemlerin gerektirdiği güvenlik, bağımsız denetim ve uzun vadeli risk yönetimi konularında ciddi eksiklikler taşıdığını ortaya koydu. Kuruluşun hazırladığı Yapay Zeka Güvenlik Endeksi’ne göre, incelenen 8 büyük şirketin hiçbiri varoluşsal risk kategorisinde “D” seviyesinin üzerine çıkamadı.

Endekste en yüksek puanları ABD merkezli şirketler alırken, zirvede Anthropic yer aldı; OpenAI ve Google DeepMind ise onun ardından geldi. Çin merkezli şirketlerin performansı genel olarak düşük kaldı ve Alibaba Cloud, DeepSeek’in hemen gerisinde sıralandı. Varoluşsal risk değerlendirmesinde Alibaba Cloud, DeepSeek, Meta, xAI ve Z.ai, en düşük seviye olan “F” notuyla değerlendirildi.

yapay-zeka.jpg

“DAHA ETKİLİ ÖNLEMLER ALINSIN” ÇAĞRISI

Independent Türkçe'de yer alan habere göre, raporda, sektörün genel olarak hızla güçlenen yapay genel zeka ve süper zeka hedeflerine odaklanırken, bu sistemlerin kontrol kaybı veya kötüye kullanım gibi potansiyel felaket senaryolarına karşı güvenilir bir strateji sunamadığı vurgulandı. Araştırmacılar, şirketleri güvenlik süreçleri konusunda daha şeffaf olmaya ve kullanıcıları daha acil zarar türlerinden (örneğin yapay zeka psikozu) korumak için daha etkili önlemler almaya çağırdı.

UC Berkeley profesörü Stuart Russell, şirketlerin insanüstü yapay zeka geliştirme konusunda iddialı olduklarını ancak bu sistemlerin kontrolden çıkmasını nasıl engelleyeceklerine dair ikna edici bir plan sunamadıklarını belirterek, “Bu durumda insanlığın geleceğini garanti altına almak bizim elimizde değil” dedi. Russell, nükleer reaktör güvenlik seviyesine eşdeğer bir kontrol kaybı riski beklediğini ancak şirketlerin çok daha yüksek oranları kabul ettiğini ifade etti.

OpenAI ve Google, güvenlik protokollerini geliştirmek için bağımsız uzmanlarla çalıştıklarını ve risk azaltma süreçlerini güçlendirdiklerini belirtirken; diğer şirketlerden yorum alınamadı.

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN