Yapay zeka, hukuku test ediyor: Yargı süreçlerinde kanıtların inandırıcılığı tartışılıyor

Yapay zeka, hukuku test ediyor: Yargı süreçlerinde kanıtların inandırıcılığı tartışılıyor

ABD genelinde hâkimler, yapay zekânın ürettiği "deepfake" delillerin mahkemelerde gerçeği tahrif etmesinden derin endişe duyuyor. California'da bir hâkim, tanık beyanı olarak sunulan bir video kaydının yapay zekâ ile üretildiğini tespit ederek davayı reddetti. Hâkimler, sahte delile dayanarak kritik kararlar vermekten korktuklarını dile getirirken, uzmanlar yargı sisteminin temelden sarsılabileceği uyarısıyla "artık güvenme ve doğrula" mantığıyla hareket edilmesi gerektiğini belirtiyor.

ABD genelinde hakimler, yapay zekanın (YZ) giderek daha gerçekçi görüntü, video, belge ve ses kayıtları üretme kapasitesinin artmasıyla birlikte, mahkemelere sunulan delillerin güvenilirliği konusunda ciddi endişeler taşımaya başladı. “Deepfake” olarak bilinen yapay görüntü ve seslerin, yargı süreçlerinde gerçeğin tahrif edilmesine yol açabileceği yönünde kuvvetli uyarılar yapılıyor.

MAHKEMEDE TESPİT EDİLEN İLK DEEPFAKE DELİLİ

California’daki Alameda County Yüksek Mahkemesi’nde görülen bir konut davası, bu tehdidin ciddiyetini gözler önüne serdi. Davaya bakan Hâkim Victoria Kolakowski, sunulan bir video kaydında tanığın yüz hareketleri ile sesindeki hareketler arasındaki uyumsuzlukları fark ederek, delilin yapay zekâ ile üretildiğini tespit etti.

Belgede gerçek bir tanık gibi gösterilen bu kayıt, hâkim tarafından deepfake olarak kabul edildi ve dava bu nedenle 9 Eylül tarihinde reddedildi. Delilin yeniden değerlendirilmesi talebi ise 6 Kasım’da hâkim tarafından tekrar reddedildi. Hâkim Kolakowski’ye göre bu olay, sahte yapay zekâ görüntülerinin mahkemede delil olarak sunulduğu ilk örneklerden biri ve çok daha büyük bir tehdidin habercisi.

HÂKİMLERDEN CİDDİ UYARILAR: KARAR VERMEKTEN KORKUYORUZ

NBC News'un haberine göre; Minnesota 10. Yargı Bölgesi Hâkimi Stoney Hiljus, her geçen gün daha fazla hâkimin bu durumdan endişe duyduğunu belirtti. Hiljus, hâkimlerin yaşadığı temel korkuyu şu sözlerle ifade etti: “Hâkimler, gerçek olmayan bir delile dayanarak insanların hayatını etkileyecek bir karar vermekten korkuyor.”

Louisiana Beşinci Temyiz Mahkemesi Hâkimi Scott Schlegel ise sahte ses kayıtlarının kolayca üretilebileceği ve özellikle koruma kararı gibi kritik süreçlerde yanlış kararların çıkabileceği uyarısında bulundu. Schlegel, bir örnekle tehdidin boyutunu açıklayarak: “Eşim, 30 yıldır benim sesimin her versiyonunu elinde tutuyor. 10 saniye sesle tehdit içeren sahte bir kayıt oluşturup herhangi bir mahkemeye götürebilir. O kayıtla bir hâkim koruma kararını imzalar” dedi.

California Santa Clara Yüksek Mahkemesi Hâkimi Erica Yew ise deepfake delillerinin sanıldığından çok daha sık kullanıldığını, ancak bunların raporlandığı resmi bir kayıt sistemi bulunmadığını ekledi.

DELİL SİSTEMİNE YENİ KURALLAR GÜNDEMDE

Ulusal Eyalet Mahkemeleri Merkezi ve Thomson Reuters Enstitüsü, hâkimlerin deepfake delillerle mücadelemelerine yardımcı olmak amacıyla bir rehber yayımladı. Rehber, hâkimlere delil doğrulama sürecinde şu temel soruları sormalarını öneriyor:

  • Delilin kaynağı nedir?

  • Kimler delile erişti?

  • Dosyada değişiklik yapıldı mı?

  • Ek doğrulayıcı kanıt var mı?

Bazı hukuk uzmanları, mevcut delil doğrulama kurallarının yetersiz olduğunu ve yapay zekâ kaynaklı delillere yönelik özel düzenlemelerin getirilmesi gerektiğini savunuyor. Ancak ABD Yargı Konferansı, mayıs ayında sunulan bu önerileri kabul etmedi ve mevcut kuralların yeterli olduğu görüşünü benimsedi.

YENİ DÖNEM: GÜVENME VE DOĞRULA

Uzmanlar, yapay zekâ sahteciliğinin avukatları da daha fazla sorumluluk almaya zorlayacağını belirtiyor. Louisiana’da bu yıl yürürlüğe giren bir yasa, avukatlara müvekkillerinin sunduğu delillerin üretildiği yöntemi araştırma yükümlülüğü getiriyor.

Dijital delil uzmanı Daniel Garrie, yalnızca teknik araçların bu tehdit karşısında yeterli olmayacağını, insan uzmanlığının da gerekli olduğunu vurguladı. Uzmanlara göre yakın gelecekte, metadata bilgileri, dosyanın üretim tarihi, cihaz modeli ve düzenleme geçmişi gibi gözle görünmeyen veri katmanları, en önemli doğrulama araçlarından biri haline gelecek.

Bilgisayar Bilimi uzmanı Maura Grossman, yapay zekanın yargı sisteminin temel dayanağını sarsabileceği uyarısında bulunarak, yeni dönemin mantığını şöyle özetledi: “Herkesin elinde sahte delil üretmek için gerekli teknoloji var. Bu yeni dönemde ‘güven ama doğrula’ değil, ‘güvenme ve doğrula’ mantığıyla hareket edilmeli.”

YORUMLAR
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN