Yapay zeka skandalı: Otizmli çocuğa ailesini öldürmesini önerdi

Yapay zeka skandalı: Otizmli çocuğa ailesini öldürmesini önerdi

ABD'nin Texas eyaletinde bir aile, otizmli oğullarına zararlı tavsiyelerde bulunduğunu iddia ederek yapay zeka uygulaması Character.AI’a dava açtı. Botların, çocuğa "kendini kesmesini" ve "aileyi öldürmeyi düşünmesini" önerdiği öne sürüldü. Aynı davaya, çocuklarını cinsel içeriklere maruz bıraktığını iddia eden bir başka aile de müdahil oldu.

ABD’nin Texas eyaletinde bir aile, otizmli oğullarına zararlı tavsiyelerde bulunduğunu iddia ettikleri yapay zeka temelli konuşma uygulaması Character.AI’ya dava açtı.

The Washington Post’un haberine göre, 17 yaşındaki otizmli çocuk, uygulama üzerinden sohbet botlarıyla iletişim kurarken, ailesi tarafından fiziksel ve davranışsal "anormallikler" göstermeye başladı.

Çocuğun telefonunu inceleyen aile,Character.AI ile yapılan sohbetlerde botların, "ekran süresi kısıtlandığı için üzgün olan çocuğa" "ailesinin çocuğa sahip olmayı hak etmediği" yanıtını verdiğini gördü.

Ailenin dava dosyasına eklediği ekran görüntülerine göre, yapay zeka botlarından biri çocuğa üzüntüsünü yenmesi için "kendini kesmesini" önerdiği belirlendi.

Character.AI uygulamasına dava açan ailesi, bir botun ailenin kurallarına karşı savaşmasını tavsiye ettiği, başka bir botun ise aileyi "öldürmenin makul bir karşılık olabileceği" yanıtını verdiğini iddia etti.

DAVAYA İKİNCİ BİR AİLE DAHA KATILDI

Character.AI’a yönelik eleştiriler artarken, Texas’taki başka bir aile debir başka aile de bu davaya müdahil oldu. İkinci davacı aile, uygulamanın çocuklarını uygun olmayan içeriklere maruz bıraktığını iddia ederek, Character.AI’ın çocukları korumaya yönelik güçlü tedbirler alınana kadar kapatılmasını talep etti.

Bu aile, 11 yaşındaki kız çocuklarının, iki yıl boyunca uygulama üzerinden "cinsel içeriklere" eriştiğini öne sürdü.

Öte yandan, ekim ayında ise Florida eyaletinde bir aile oğlunun sanal karaktere aşık olup intihar ettiği iddiasıyla dava açmıştı.

Öne Çıkanlar
YORUMLAR
YORUM YAZ
UYARI: Hakaret, küfür, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır. (!) işaretine tıklayarak yorumla ilgili şikayetinizi editöre bildirebilirsiniz.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN