Telegram'da sahte çıplak fotoğraf tehlikesi! 100 binden fazlası yayıldı

Mesajlaşma servisi Telegram'da sadece birkaç tıklama ile normal fotoğrafları çıplak fotoğraflara dönüştürebilen bir yazılım kullanıldığı keşfedildi. Şimdiye kadar 100 binden fazla sahte çıplak fotoğrafın yayıldığı belirtiliyor.

Telegram'da sahte çıplak fotoğraf tehlikesi! 100 binden fazlası yayıldı

Bilgisayar uzmanları, mesajlaşma servisi Telegram'da sadece birkaç tıklama ile normal fotoğrafları çıplak fotoğraflara dönüştürebilen bir yazılım kullanıldığını keşfetti. "Deepfake", yani "derin sahte" olarak adlandırılan bu fotoğrafların dönüştürülmesinde bir tür yapay zeka teknolojisinin kullanıldığı belirtiliyor.

100 BİNDEN FAZLA SAHTE ÇIPLAK FOTOĞRAF YAYILDI

Bilişim şirketi Sensity uzmanlarının hazırladığı rapora göre, Temmuz 2020'ye kadar bu yazılım kullanılarak 104 bin 852 sahte çıplak fotoğraf, çok sayıdaki Telegram kanalında yayıldı.

Raporda yer alan bilgilere göre, fail çıplak fotoğraf üretmek için seçtiği fotoğrafı Telegram üzerinden bir programa gönderiyor ve kullanılan bu yazılım, kısa bir süre içinde orijinal fotoğrafı manipüle edip çıplak bir fotoğrafa dönüştürerek faile geri gönderiyor.

YAPAY ZEKA TEKNOLOJİSİ KULLANILDI

Sensity'nin uzmanları, geliştirilen yazılımda bir tür yapay zeka olan Generative Adversarial Networks (GAN) adlı teknolojinin kullanıldığını tespit ettiklerine dikkat çekti. Uzmanlar, yazılımın giyinmiş kadın bedenlerini tanımayı, soymayı, fotoğraftaki kişinin anatomisini tespit etmeyi ve fotoğraftan çıplak bir beden oluşturmayı öğrenecek şekilde programlandığını belirtiyor.

GAN teknolojisiyle kadın bedenlerini tanıyıp manipüle edecek şekilde programlanan yazılımın ürettiği fotoğrafların kalitesi ise farklılık gösteriyor. Teknoloji dergisi The Verge'ün yaptığı araştırmaya göre, bazı fotoğrafların manipüle edildikleri açıkça görünürken, bazıları ise yanıltıcı bir şekilde gerçek gibi görünüyor.

YAZILIM SOHBET PENCERESİ ÜZERİNDEN KOLAYCA ENTEGRE EDİLİYOR

Bu programın Telegram'daki "Bot" adlı uygulama üzerinden aktive edildiğini belirten uzmanlar, yazılımı kullanmak isteyenlerin sohbet penceresi üzerinden kolayca entegre edebildiğini ifade ediyor. 

Uzmanlar bu yazılımın kim tarafından geliştirildiğini ise bilmiyor, ancak bu programın sadece İngilizce ve Rusca olduğuna dikkat çekiyor. Sensity'nin uzmanları, yazılımın daha çok eski Sovyet ülkelerinde kullanıldığını tespit ettiklerini belirtiyor.

Hazırladıkları raporda söz konusu yazılımın 2017 yılından beri kullanıldığını belirten uzmanlar, bu sahte fotoğrafların şantaj gibi kötü amaçlarla kullanılabileceği konusunda da uyarıyor.

DEEPFAKE NEDİR?

Deepfake teknolojisi adını 2000’li yılların en gözde dijital platformlarından reddit.com’daki "Deepfakes" lakaplı bir kullanıcıdan alıyor. Bu kullanıcı, yapay zeka teknolojisinin makine öğrenmesini içeren, genel kullanıma açılmış bir faceswap (yüz değiştirme) uygulamasını geliştirmeye odaklanınca, bu yepyeni teknolojinin de fitilini ateşlemiş oldu.

Deepfake sözcüğü, "deep learning" ("derin öğrenme") ve "fake" ("sahte") kavramlarından türetilmiştir. Yapay zeka terminolojisi dahilinde, "derin öğrenme" tekniği kullanarak oluşturulan sahte videolar “Deepfake” olarak adlandırılmaktadır. Bugün yapay zeka teknolojisi yardımıyla, dijital bir görüntüyü, birkaç tıkla değiştirip, yüzü, sesi, mimikleri ve konuşması ile kişilerin kendisinden ayırt edilemeyecek kadar inandırıcı, gerçek dışı videolarını üretmek mümkün.

Deepfake video oluşturmak isteyen bir kişi, yüzünü başka bir hedef videoya yapıştırmak istediği kişiye ait pek çok görüntüye sahip olması gerekiyor. Kaynak görüntüdeki yüz, derin öğrenme teknolojisiyle eğitilerek hedef videodaki kişinin yüzüne yapıştırılıyor. Bu sayede, hedef videoda konuşan kişinin söylediği şeyleri, kaynak videodaki kişi söylüyormuş algısı oluşturuluyor. Ne kadar çok kaynak görüntüye sahip olunursa ve bu görüntüler aracı programlarla ne kadar çok eğitilirse, o kadar iyi sonuç alınıyor. İlk Deepfake videolarında Hollywood yıldızlarının yüzlerinin kullanılması da, internette bu ünlülerin pek çok fotoğraf ve videolarına kolayca ulaşabiliyor olmasından kaynaklanıyor. 

YORUMLAR
YORUM YAZ
UYARI: Hakaret, küfür, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır. (!) işaretine tıklayarak yorumla ilgili şikayetinizi editöre bildirebilirsiniz.
Diğer Haberler
Son Dakika Haberleri
KARAR.COM’DAN