ABD genelinde hakimler, yapay zekanın (YZ) giderek daha gerçekçi görüntü, video, belge ve ses kayıtları üretme kapasitesinin artmasıyla birlikte, mahkemelere sunulan delillerin güvenilirliği konusunda ciddi endişeler taşımaya başladı. “Deepfake” olarak bilinen yapay görüntü ve seslerin, yargı süreçlerinde gerçeğin tahrif edilmesine yol açabileceği yönünde kuvvetli uyarılar yapılıyor.
MAHKEMEDE TESPİT EDİLEN İLK DEEPFAKE DELİLİ
California’daki Alameda County Yüksek Mahkemesi’nde görülen bir konut davası, bu tehdidin ciddiyetini gözler önüne serdi. Davaya bakan Hâkim Victoria Kolakowski, sunulan bir video kaydında tanığın yüz hareketleri ile sesindeki hareketler arasındaki uyumsuzlukları fark ederek, delilin yapay zekâ ile üretildiğini tespit etti.
Belgede gerçek bir tanık gibi gösterilen bu kayıt, hâkim tarafından deepfake olarak kabul edildi ve dava bu nedenle 9 Eylül tarihinde reddedildi. Delilin yeniden değerlendirilmesi talebi ise 6 Kasım’da hâkim tarafından tekrar reddedildi. Hâkim Kolakowski’ye göre bu olay, sahte yapay zekâ görüntülerinin mahkemede delil olarak sunulduğu ilk örneklerden biri ve çok daha büyük bir tehdidin habercisi.
HÂKİMLERDEN CİDDİ UYARILAR: KARAR VERMEKTEN KORKUYORUZ
NBC News'un haberine göre; Minnesota 10. Yargı Bölgesi Hâkimi Stoney Hiljus, her geçen gün daha fazla hâkimin bu durumdan endişe duyduğunu belirtti. Hiljus, hâkimlerin yaşadığı temel korkuyu şu sözlerle ifade etti: “Hâkimler, gerçek olmayan bir delile dayanarak insanların hayatını etkileyecek bir karar vermekten korkuyor.”
Louisiana Beşinci Temyiz Mahkemesi Hâkimi Scott Schlegel ise sahte ses kayıtlarının kolayca üretilebileceği ve özellikle koruma kararı gibi kritik süreçlerde yanlış kararların çıkabileceği uyarısında bulundu. Schlegel, bir örnekle tehdidin boyutunu açıklayarak: “Eşim, 30 yıldır benim sesimin her versiyonunu elinde tutuyor. 10 saniye sesle tehdit içeren sahte bir kayıt oluşturup herhangi bir mahkemeye götürebilir. O kayıtla bir hâkim koruma kararını imzalar” dedi.
California Santa Clara Yüksek Mahkemesi Hâkimi Erica Yew ise deepfake delillerinin sanıldığından çok daha sık kullanıldığını, ancak bunların raporlandığı resmi bir kayıt sistemi bulunmadığını ekledi.
DELİL SİSTEMİNE YENİ KURALLAR GÜNDEMDE
Ulusal Eyalet Mahkemeleri Merkezi ve Thomson Reuters Enstitüsü, hâkimlerin deepfake delillerle mücadelemelerine yardımcı olmak amacıyla bir rehber yayımladı. Rehber, hâkimlere delil doğrulama sürecinde şu temel soruları sormalarını öneriyor:
Delilin kaynağı nedir?
Kimler delile erişti?
Dosyada değişiklik yapıldı mı?
Ek doğrulayıcı kanıt var mı?
Bazı hukuk uzmanları, mevcut delil doğrulama kurallarının yetersiz olduğunu ve yapay zekâ kaynaklı delillere yönelik özel düzenlemelerin getirilmesi gerektiğini savunuyor. Ancak ABD Yargı Konferansı, mayıs ayında sunulan bu önerileri kabul etmedi ve mevcut kuralların yeterli olduğu görüşünü benimsedi.
YENİ DÖNEM: GÜVENME VE DOĞRULA
Uzmanlar, yapay zekâ sahteciliğinin avukatları da daha fazla sorumluluk almaya zorlayacağını belirtiyor. Louisiana’da bu yıl yürürlüğe giren bir yasa, avukatlara müvekkillerinin sunduğu delillerin üretildiği yöntemi araştırma yükümlülüğü getiriyor.
Dijital delil uzmanı Daniel Garrie, yalnızca teknik araçların bu tehdit karşısında yeterli olmayacağını, insan uzmanlığının da gerekli olduğunu vurguladı. Uzmanlara göre yakın gelecekte, metadata bilgileri, dosyanın üretim tarihi, cihaz modeli ve düzenleme geçmişi gibi gözle görünmeyen veri katmanları, en önemli doğrulama araçlarından biri haline gelecek.
Bilgisayar Bilimi uzmanı Maura Grossman, yapay zekanın yargı sisteminin temel dayanağını sarsabileceği uyarısında bulunarak, yeni dönemin mantığını şöyle özetledi: “Herkesin elinde sahte delil üretmek için gerekli teknoloji var. Bu yeni dönemde ‘güven ama doğrula’ değil, ‘güvenme ve doğrula’ mantığıyla hareket edilmeli.”
