Uluslararası Af Örgütü, yapay zekâ ve algoritmaların yol açtığı hak ihlallerini ortaya çıkarmak için kapsamlı bir “Algoritmik Sorumluluk” kılavuzu yayımladı. Gazetecilerden sivil toplum örgütlerine, akademisyenlerden hak savunucularına kadar geniş bir kesimin kullanabileceği rehber, yapay zekâ temelli karar mekanizmalarının toplumsal eşitsizlikleri derinleştirdiğine dikkat çekiyor.
Yeni kılavuz, sosyal güvenlikten kolluk faaliyetlerine, eğitimden sağlık hizmetlerine kadar birçok alanda kullanılan algoritmik sistemlerin bireyler üzerindeki etkilerini araştırmak için yöntemler, adımlar ve analiz araçları sunuyor. Uluslararası işbirlikleriyle yürütülen üç yıllık çalışmanın ürünü olan rehberde, teknik inceleme yöntemlerinin yanı sıra kampanya, savunuculuk ve stratejik dava açma taktikleri de yer alıyor.
“VERİMLİLİK” SÖYLEMİYLE MEŞRULAŞTIRILIYOR, ANCAK SONUÇLAR AĞIR”
Uluslararası Af Örgütü Teknoloji Birimi Program Direktörü Damini Satija, yapay zekânın tarafsızmış gibi sunulduğunu ancak gerçekte ayrımcılığı besleyen ve kitlesel gözetimi kolaylaştıran bir mekanizma hâline geldiğini söyledi. Satija, teknolojilerin protesto hakkını, eşitlik ilkesini ve sosyal koruma hakkını zayıflattığını vurgulayarak kılavuzun temel amacının “bilgiyi herkes için erişilebilir kılmak” olduğunu belirtti.
DOKUZ ÜLKEDEN ÖRNEKLER, SİSTEMİK SORUNLARI AÇIĞA ÇIKARIYOR
Rehber, örgütün Danimarka, İsveç, Sırbistan, Fransa, Birleşik Krallık, Hindistan, İşgal Altındaki Filistin Toprağı, ABD ve Hollanda’da yürüttüğü araştırmalardan elde edilen bulgulara dayanıyor. Danimarka’daki yapay zekâ destekli sosyal yardım sistemi üzerine yapılan incelemede engelli bireyler, mülteciler ve düşük gelirli grupların ayrımcılığa açık hâle geldiği tespit edildi.
Örgütün “Ban the Scan” kampanyası ise yüz tanıma teknolojilerinin yasaklanması çağrısını güçlendiriyor. Filistin, New York ve Haydarabad’da yapılan araştırmalar, denetimsiz yüz tanıma kullanımının temel hak ve özgürlükler açısından ciddi tehdit oluşturduğunu ortaya koyuyor.
