Prof. Dr. Hakan Temiztürk, kullanımı her geçen gün yaygınlaşan yapay zekanın insanlar üzerindeki etkisini ABD'de yaşanan cinayet ve intiharlar üzerinden yazdı. Haftalık yüzbinlerce psikoz, mani veya intihar düşünceleri sergileyen kişinin yapay zeka kullandığını belirtti. Tabloya bakıldığında gelişen teknolojinin insanlık için yeni bir tehdit/tehlike unsuru olduğunu söyledi.
Yapay zekâ uygulamalarının en yaygını olduğu değerlendirilen ChatGPT’nin sahibi OpenAI geçtiğimiz günlerde uygulamayı kullananlar arasında psikoz, mani veya intihar düşünceleri sergileyenlerin bulunduğunu ama bunun “son derece nadir” olduğunu açıkladı. BBC’nin konuyla ilgili sorularını yanıtlayan OpenAI, haftalık aktif kullanıcıların yaklaşık yüzde 0,07’sinin bu tür belirtiler gösterdiğini kabul etti. Oran küçük gibi gözükse de haftada 800 milyon aktif kullanıcının yüzde 0,07’sinin yüzbinlerce kişiye tekabül ediyor olması ciddi bir endişe kaynağı olmaya yetiyor. Bu kadar da değil! Açıklamalara göre, kullanıcıların yüzde 0,15’i sohbetlerinde “intihar planı veya niyeti” olduğuna dair açık işaretler de veriyor.
Adı geçen şirket ChatGPT’nin kullanıcılarla etkileşim biçimi konusunda artan hukuki incelemelerle karşı karşıya bulunuyor. ABD’nin California eyaletinde bir çift, 16 yaşındaki oğullarının ChatGPT ile yaptığı konuşmalar sonrası intihar ettiğini öne sürerek OpenAI’ye “haksız ölüm” davası açtı. Connecticut’ta bir cinayet-intihar vakasının şüphelisinin de olaydan önce ChatGPT ile yaptığı sohbetleri paylaştığı ve bu konuşmaların sanrılı düşüncelerini beslediği öne sürüldü. Bu sıkıntılı durum üzerine California Üniversitesi’nden Prof. Jason Nagata, “Yapay zekâ bazı açılardan ruh sağlığı desteğine erişimi artırabilir, ancak sınırlarının farkında olmalıyız” derken aynı üniversiteden Prof. Robin Feldman, “Yapay zekâ sohbetleri, gerçeğin güçlü bir illüzyonunu yaratabiliyor. Bu da bazı kullanıcıları tehlikeye atabiliyor. Zihinsel olarak risk altındaki kişiler ekrandaki uyarıları fark edemeyebilir” uyarısında bulundu.
Yapay zekâ bu tablodan da anlaşılacağı üzere insanlık için yeni bir tehdit/tehlike unsuru oldu.
“Yapay zekâ insan hayatının odağında yer alıyor artık. Bundan uzak durmak, görmezden gelmek mümkün değil!” söylemi bile çok demode hale geldi. Bu aşamalar geride kaldı. Şimdi yapay zekânın sakıncalarını konuşmak, bunlara karşı tedbirler ve politikalar belirlemek ve onu fayda odaklı hale getirmek için kafa yormak gerekiyor. Eğer bunda geç kalınırsa diğer teknolojik rahatsızlıklardan daha büyük sorunlar yaşanacaktır.
İLETİŞİM TEKNOLOJİLERİNDE LİDER
Dijital/teknolojik okur yazarlığın dijital/teknoloji bağımlılığının çok gerisinde kaldığı Türkiye’de durum daha sıkıntılı bir tabloya dönüşebilir. Bilindiği üzere, Türkler iletişim teknolojileri ve araçlarını kullanmada Avrupa’da da dünyada da ön sıralarda bulunuyor. Yapay zekânın derlemesine göre, Türkiye’de kullanıcılar günde ortalama 7 saat 13 dakika internete bağlanıyor; internet kullanım süresinin yaklaşık yüzde 56,3’ü mobil cihazlar üzerinden gerçekleştiriliyor; günde yaklaşık 3 saat 9 dakika bilgisayar ve tablet kullanımı söz konusu… Mobil telefon görüşme süresi ise 2025’in ikinci çeyreği itibariyle aylık ortalama 493 dakika…
Türkiye, iletişim teknolojilerine ‘yatkınlığı’nı yapay zekâyı kullanırken de gösterdi! Son aylarda sağlıktan spora, finanstan eğitime kadar birçok alanda ilk başvuru kaynağı artık yapay zekâ uygulamaları oldu. Doktora gitmek yerine ChatGPT’ye tahlillerin yorumlatmak, birikimini nerede nasıl değerlendireceğini yapay zekâya sormak, ödevlerini saatler boyunca uğraşacağına ‘yapay zekâ desteği’ ile ‘hazırlamak’ ve birbirine çok benzer haberleri yapay zekâya yazdırmak artık rutin hale geldi. Bütün bunlar hayatı kolaylaştıran, zamandan ve paradan tasarruf sağlayan (ve tabii teknoloji gurusu statüsü veren!) yönüyle takdire şayan… Yapay zekâyı bu işler için kullanmak değil kullanmamak eksiklik sayılıyor artık.
Ancak yapay zekâyı kullananların yazının girişinde aktarılan sakıncaların yanı sıra zekâlarını yapaylaştırmaları tehlikesi/tehdidi ile karşı karşıya bulunduğu da bir gerçek. İnsanlığı bekleyen yeni ve ciddi tehlike bu: Yakın zamanda düşünmeyi, zihinsel eforu, çalışmayı bırakan, dahası bunu gereksiz gören yeni bir nesil hükmedecek hayatın birçok alanına. Zorluklarla karşılaştığında, sorulara muhatap olduğunda ya da çok sıradan bir bilgiye ihtiyaç duyduğunda hemen telefonuna sarılacak, internete bağlanacak, sorgu ekranına yazdığı ‘prompt’ ile aydınlanacak ve öğrendiğiyle çevresini aydınlatacak bir nesil.
(Bu tabloyu hicveden skeçlere rastlanıyor televizyonlarda zaman zaman: Her şeyi bildiğini savunan ‘gelecek’ten gelmiş bir kişi, yüzyıllar öncesinin insanlarının sorularını yanıtlamak isterken hemen cep telefonuna müracaat ediyor! Ama telefonunun şarjının bitik olduğunu fark ediyor! Dolayısıyla bütün sorular yanıtsız kalıyor; her şeyi bildiği iddiasındayken bütün sorulara ‘Bilmiyorum!’ yanıtı vermek zorunda kalıyor!)
YAPAY ZEKÂ KARŞITI ÇAĞRILAR
Telefonun şarjı bittiğinde ya da -daha popüler yaklaşımla- birisi yapay zekânın veya Google’ın veya internetin fişini çektiğinde ne olacak? Bütün düzeni makineler, dijital altyapılar, algoritmalar üzerine kurmuş olanlar ne yapacak?
Bu ihtimal, siyasetçisinden akademisyenine, gazetecisinden finans uzmanına birçok kişiyi, kurum ve kuruluşu düşündürüyor. Ve son yıllarda yapay zekânın durdurulması çağrıları yapılıyor durmadan. Yapay zekâya ilişkin düzenleme, durdurma veya güçlü denetim çağrıları yapan çeşitli örgütler, hükümetler ve sivil aktörler birisi Future of Life Institute. Adı geçen enstitü, “Pause Giant AI Experiments: An Open Letter” başlıklı açık mektubunda “GPT-4’ten daha güçlü sistemlerin eğitiminin en az 6 ay durdurulmasını” çağrısında bulunuyor. Mektupta insan düzeyinde ya da üstünde zekâya sahip olabilecek sistemlerin “öngörülemez” ve “kontrol edilemez” olması, bilgi akışını bozması, iş gücünü sarsması gibi konular yer alıyor.
Vatikan’ın da “etik çağrısı” bulunuyor. Çağrıda, yapay zekânın ‘kötülüğün gölgesi’ni taşıdığı”, yanlış bilgi yayma riski bulunduğu ve toplumsal istikrarı bozabileceği vurgulanıyor.
Bu kapsamda hükümetlerden (Mesela Japonya Başbakanı Fumio Kishida, bir konuşmasında, yapay zekâ için küresel bir düzenleme çerçevesi açıkladı ve Hiroşima AI Süreci adı verilen bu ‘çerçeve’ye 49 ülke destek verdi), işçi örgütlerinden (ABD’deki AFL CIO adlı işçi sendikaları federasyonu “Çalışan Öncelikli YZ” yaklaşımı ile yapay zekânın işyeri üzerindeki etkilerine yönelik düzenleme ve şeffaflık taleplerini dile getirdi) ve farklı kurumlardan gelen uyarı ve çağrıları da kaydetmekte fayda var.
AVRUPA TEHDİDİN FARKINDA
Bu arada, Financial Times’ın haberine göre, Avrupa Parlamentosu milletvekilleri de yapay zekâ kurallarını zayıflatmaya yönelik ‘tehlikeli’ adımlara karşı uyarılarda bulundular: AB’nin çığır açan yapay zekâ yasasının mimarları, Brüksel’i, OpenAI ve Google gibi büyük ABD teknoloji gruplarını yasanın temel unsurlarından muaf tutacak kuralları sulandırmaya yönelik ‘tehlikeli’ adımları durdurmaya çağırdı. Söz konusu yasada, yapay zekâ şirketlerini, son teknoloji modellerinin şiddet içeren ve yanlış içerik üretmemesini veya seçimlere müdahalede kullanılmamasını sağlamaya zorlamak için tasarlanmış hükümler bulunuyor. Yapay zekâ düzenlemesi konusunda çalışan Avrupa Parlamentosu’nun önde gelen üyelerinden bazıları, komisyonun dijital şefi Henna Virkkunen’e yazdığı mektupta, ABD kökenli yapay zekâ çalışmalarının “tehlikeli, gayri demokratik ve hukuki belirsizlik yarattığı” belirtildi.
Financial Times’ın haberinde, AB çevrelerinin halihazırda Google’ın Gemini, Meta’nın Llama ve OpenAI’nin GPT-4 gibi güçlü yapay zekâ modellerini ilgilendiren söz konusu yasanın nasıl uygulanacağını tartıştığı, yapay zekâ şirketlerine rehberlik edecek bir “uygulama kuralları” taslağının gündemde olduğu belirtiliyor. AB yönetimi, Yapay Zekâ Yasası konusunda yoğun bir lobi faaliyetiyle karşı karşıya anlaşılan. Meta, Google, Spotify ve Ericsson gibi şirketler AB’nin yapay zekâ düzenlemelerini eleştiriyor. AB komisyonu yetkilisi Virkkunen, uygulama kurallarının “endüstrilere, paydaşlara ve KOBİ’lere gerçekten yardımcı olması, rehberlik etmesi ve daha fazla engel veya raporlama yükümlülüğü getirmemesi”nin önemli olduğunu söylüyor ve “Dijital dünyada da Avrupa’nın adil, güvenli ve demokratik bir ortama sahip olmasını sağlamak istiyoruz” diyor.
Avrupa’da yapay zekâ tartışmaları yapılırken ilgili şirketlerin sistemlerinin kapasiteleri, sınırlılıkları, riskleri konusunda kamuya daha fazla bilgi vermesi; devletlerin, bağımsız denetim mekanizmaları geliştirmesi gibi hususlar üzerinde duruluyor. Bazı uzmanlar, “Yapay zekâ insan zekâsını aşar ve kontrolümüz dışına çıkar” gibi senaryoların göz ardı edilemeyecek düzeyde olduğunu söylüyor. Ekonomik, sosyal ve demokratik zararları bulunduğu dile getiriliyor. Etik ve insan hakları ihlallerine sebep olacağı konuşuluyor: Yanıltıcı içerikler (deepfake, sahte ses, sahte video) üretebilmesi; kamuoyunu manipüle etmesi; yazının başında dile getirildiği gibi zihinsel sağlığı tehdit etmesi (sohbet botlarına güvenmenin özellikle hassas bireyler için risk yaratabileceği, yalnızlık, bağımlılık, yanlış yönlendirme gibi sorunlara yol açabileceği); veri kullanımı ve mahremiyeti ihlal gibi ciddi sorunlar, yapay zekâ devriminin diğer yüzündeki hususları oluşturuyor.
TÜRKİYE GEÇ KALMAMALI
Özellikle dijital teknoloji alanına tabiri caiz ise bodoslama dalmış bulunan Türkiye’de konu an itibariyle Avrupa’daki kadar ciddiyetle ele alınmış değil henüz. Zaten oldukça eksik/sorunlu olan medya okuryazarlığının dijital ve yapay zekâ alanlarında daha da yetersiz olması, sıkıntıyı daha da büyütebilir.
Türkiye’de de yapay zekâ kullanımının artışıyla birlikte yukarıdaki risklerle birlikte iş gücü piyasası, eğitim, sağlık, kamu hizmetleri gibi alanlarda da ortaya çıkması mümkün. Buna karşılık yasal düzenlemeler ve kurallar henüz bazı ülkelerde olduğu kadar gelişmemiş olması da önemli.
Toplumun yapay zekâya karşı ilgisine paralel olarak farkındalığının da artırılması, yapay zekâ aracılığıyla üretilen sahte içeriklere, dezenformasyona, algılara karşı uyanık olması ve uyarılması gerekir. Geleneksel medyanın içeriklerini okuma, anlama, anlamlandırma bakımından ciddi sorunlar yaşayan bir toplumun daha sofistike, daha karmaşık, daha aldatıcı yapay zekâ ürünlerini dikkatli, özenli ve titiz bir şekilde ‘tüketmesi’ sağlanmalıdır.
Yapay zekânın zekâları yapaylaştırmasına, insan zekâsının ihmal edilmesine, dışlanmasına, gereksizleştirilmesine müsaade edilmemelidir. Özellikle çok kolay adapte olduğumuz ve çok fazla ve yaygın bir şekilde kullandığımız iletişim teknolojilerinin genç kuşakları kolaycılığa itmesine, zekâlarını köreltmesine ve yeni tehlikelere sürüklemesine karşı tedbirler geliştirilmelidir.
Önce insanî zekâ, sonra yapay zekâ...
