OpenAI, güvenlik ve veri koruması için kimlik doğrulama sistemini devreye alıyor. Gelişmiş modellere artık sadece onaylı geliştiriciler erişebilecek.
OpenAI, yapay zeka teknolojilerinde yeni bir dönemin kapısını aralıyor. Şirket, özellikle gelişmiş modellerine erişim için kimlik doğrulama sistemini zorunlu hale getirmeye hazırlanıyor. “Doğrulanmış Organizasyon” adı verilen bu yeni uygulamayla artık geliştiricilerin her modele doğrudan erişimi mümkün olmayacak.
AMAÇ GÜVENLİĞİ ARTTIRMAK
Destek sayfasında duyurulan bilgiye göre, bu adımın temel amacı kötüye kullanımı engellemek ve yapay zekânın sorumlu biçimde kullanılmasını sağlamak. Özellikle veri hırsızlığına karşı önlem almak isteyen OpenAI, bu sistemle güvenliği artırmayı ve API politikalarını daha sıkı uygulamayı hedefliyor.
SİSTEM NASIL İŞLEYECEK?
Geliştirici ekiplerin devlet tarafından sağlanan geçerli kimlik bilgileri ile doğrulama yapması gerekecek. Bu işlem her 90 günde bir tekrarlanacak. Ancak kimliğini sunan her organizasyon bu erişimi otomatik olarak kazanamayacak. Başvurular bireysel olarak incelenecek ve onay süreci titizlikle yürütülecek.
OpenAI’ın bu hamlesi, özellikle yılın başlarında ortaya çıkan ve Çin merkezli bir grubun API aracılığıyla yüksek miktarda veri çektiği iddialarının ardından geldi. Şirket, yapay zekâ modellerinin etik dışı kullanımını engellemek adına bu tür adımları gelecekte daha sık gündeme getirebilir.