Amerika Birleşik Devletleri (ABD) Savunma Bakanlığı, yapay zeka alanında dışa bağımlılığı sona erdirmek ve veri güvenliğini garanti altına almak amacıyla Anthropic teknolojilerine alternatif yerli çözümler üretme kararı aldı.
Pentagon Dijital ve Yapay Zeka Sorumlusu Cameron Stanley tarafından paylaşılan bilgilere göre, bakanlık bünyesinde Claude AI modellerinin yerini dolduracak yeni araçlar tasarlanıyor.
Bu stratejik hamle, savunma operasyonlarında tam denetim sağlama hedefinin bir parçası olarak değerlendiriliyor.
Anthropic, ABD'nin askeri taleplerini reddetti, indirme rekoru kırdı
BAKANLIK KENDİ BÜYÜK DİL MODELLERİ İÇİN MÜHENDİSLİK SÜRECİNİ BAŞLATTI
Cameron Stanley, kurumun teknolojik yol haritasına dair yaptığı resmi duyuruda, büyük dil modelleri (LLM) üzerine odaklandıklarını belirtti.
Deneyimli yönetici, şöyle konuştu:
"Bakanlık, uygun devlet ortamlarına entegre edilecek çok sayıda büyük dil modelini (LLM) aktif olarak değerlendiriyor.
Bu LLM'ler üzerinde mühendislik çalışmaları başladı ve çok yakında operasyonel kullanıma hazır hale gelmelerini bekliyoruz."
Bu çalışma, Pentagon'un hassas verilerini korumak için kapalı devre çalışan yapay zeka mimarileri oluşturma arzusunu yansıtıyor.
OTONOM SİLAH VE GÖZETİM KISITLAMALARI İLİŞKİLERİN KOPMASINA YOL AÇTI
Savunma birimleri ile teknoloji girişimi Anthropic arasındaki gerginliğin merkezinde, yapay zekanın kullanım sınırlarına dair etik anlaşmazlıklar bulunuyor.
Anthropic'in, geliştirdiği sistemlerin kitlesel iç gözetim faaliyetlerinde veya tamamen otonom silah sistemlerinde kullanılmasına izin vermemesi, Pentagon tarafında operasyonel bir engel olarak görüldü.
Bu kısıtlamalar, ABD Başkanı Donald Trump'ın tüm federal kurumlara Anthropic ürünlerini kullanmayı durdurma talimatı vermesiyle en üst seviyeye ulaştı.
ChatGPT'ye büyük şok: Silinme oranı yüzde 295 arttı
BAKAN HEGSETH'İN RİSK ETİKETİ SONRASI SÜREÇ YARGIYA TAŞINDI
Savunma Bakanı Cameron Hegseth, Anthropic'i bir tedarik zinciri tehdidi olarak tanımlama niyetini açıklayarak krizin fitilini ateşledi.
Bu gelişmenin ardından ABD Savunma Bakanlığı, Claude AI modelini kısıtladığı gerekçesiyle Anthropic'i resmen 'tedarik zinciri riski' olarak yaftaladı.
Bu tanımlamayı kabul etmeyen yapay zeka şirketi Anthropic, uğradığı ticari ve itibari zararı gerekçe göstererek ABD Savunma Bakanlığı'nı dava etti.
Hukuki süreç, devletun teknoloji tedarikçileri üzerindeki denetim gücünü yeniden tartışmaya açtı.
OPENAI VE XAI GEÇİCİ TEKNOLOJİ KÖPRÜSÜ OLARAK KONUMLANDIRILDI
Mevcut veriler, Pentagon'un Anthropic teknolojisini iş akışlarından tamamen çıkarmak için kademeli bir plan izlediğini gösteriyor.
Sektör uzmanları, taraflar arasındaki davanın uzlaşma ile sonuçlanma ihtimalini düşük görürken, hükümetin Anthropic olmadan yoluna devam edeceği kesinleşti.
Bu geçiş sürecinde teknolojik bir açık oluşmaması için Pentagon'un OpenAI ve xAI ile ayrı iş birliği anlaşmaları yaptığı öğrenildi.
Bu şirketlerin sunduğu araçlar, bakanlığın kendi yerli alternatifleri tamamlanana kadar geçici seçenekler olarak sistemde yer alacak.
Yapay zekaya verilen insan öldürme yetkisi sonumuzu getirecek
