OpenAI'den korkutan uyarı: Yeni modellerimiz yüksek siber güvenlik riski taşıyor

OpenAI'den korkutan uyarı: Yeni modellerimiz yüksek siber güvenlik riski taşıyor

OpenAI, geliştirdiği yeni modellerin siber saldırı kapasitesinin hızla arttığını ve yakında “yüksek risk” seviyesine ulaşabileceğini belirtti. GPT-5 ve bir üst sürümünün siber güvenlik testlerinde gösterdiği yüksek performans, yapay zekânın saldırı amaçlı kullanım potansiyeline ilişkin endişeleri büyüttü.

Yapay zekâ alanındaki en büyük şirketlerden OpenAI, geliştirdiği ileri düzey modellerin siber güvenlik açısından giderek daha riskli hâle geldiği uyarısında bulundu. Axios’a özel olarak paylaşılan yeni raporda şirket, yakın zamanda çıkacak modellerin “yüksek” düzeyde siber saldırı kapasitesine sahip olabileceğini açıkladı.

OpenAI’nin değerlendirmesine göre, modellerin giderek daha uzun süre otonom çalışabilmesi ve karmaşık görevleri insana yakın bir verimlilikle yerine getirebilmesi, siber saldırı yapabilen kişi sayısını önemli ölçüde artırabilir. Şirket, son sürümlerde bu yeteneklerin hızla geliştiğini vurgularken, bunun özellikle “brute force” (deneme yanılma) saldırıları açısından ciddi risk oluşturduğunu belirtiyor.

YENİ MODELLER YÜKSEK RİSK TAŞIYOR

Şirket içi testlerde GPT-5’in geçtiğimiz ağustos ayında yapılan bir “capture-the-flag” siber güvenlik alıştırmasında yüzde 27 başarı sağladığı, daha gelişmiş olan GPT-5.1-Codex-Max’in ise geçen ay aynı testte yüzde 76’ya ulaştığı kaydedildi. OpenAI raporunda, “Yaklaşan modellerin bu doğrultuda gelişmeye devam edeceğini öngörüyoruz. Bu nedenle her yeni modeli, ‘yüksek’ risk potansiyeli taşıyormuş gibi değerlendirerek hazırlık yapıyoruz” ifadelerine yer verildi.

HANGİ MODELLER RİSK OLUŞTURUYOR?

“Yüksek” risk seviyesi, şirketin güvenlik çerçevesinde tanımlanan en tehlikeli ikinci kategori. Bir üst seviye olan “kritik” risk düzeyine ulaşan modellerin ise kamuya açık şekilde sunulması güvenli kabul edilmiyor. OpenAI, hangi modellerin ne zaman bu risk seviyesine ulaşabileceği konusunda ise bilgi vermedi.

OpenAI Güvenlik Ekibi’nden Fouad Matin, Axios’a yaptığı açıklamada asıl belirleyici unsurun modellerin “uzun süre kesintisiz çalışabilme yeteneği” olduğunu söyledi. Matin, bu tür zaman alan saldırıların çoğu savunmalı sistem tarafından tespit edilebileceğini ancak kötü amaçlı kullanım riskinin ciddiyetini koruduğunu belirtti.

Şirketin bu uyarısı, Haziran ayında biyolojik tehditlere ilişkin benzer bir risk raporu yayımlamasının ardından geldi. OpenAI daha sonra ChatGPT Agent ürününü piyasaya sürmüş ve bu aracın biyolojik tehdit kategorisinde “yüksek risk” taşıdığı doğrulanmıştı.

SİBER GÜVENLİK İÇİN YENİ EKİP KURULUYOR

Siber güvenlik kapasitesi hızla artan modeller yalnızca OpenAI’nin değil, diğer büyük yapay zekâ laboratuvarlarının da dikkatini çekiyor. Bu nedenle şirket, 2023’te Google, Microsoft ve Anthropic ile kurduğu Frontier Model Forum kapsamında sektör çapında güvenlik iş birliğini genişletiyor. OpenAI, ayrıca deneyimli siber güvenlik uzmanlarından oluşacak yeni bir “Frontier Risk Council” kuracağını da duyurdu.

Şirketin üzerinde çalıştığı bir diğer araç ise Aardvark. Geliştiricilerin yazılımlarındaki güvenlik açıklarını tespit etmelerine yardımcı olmak için tasarlanan bu sistem hâlen kapalı test aşamasında. Aardvark’a erişim için başvuru yapılması gerekiyor ve OpenAI’nin açıklamasına göre araç, test edilen ürünlerde şimdiden kritik güvenlik açıkları bulmayı başardı.

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN