Dijital dünyanın güvenliği ve çocukların ruh sağlığı üzerindeki etkileri tartışılmaya devam ederken, Instagram’ın çatı şirketi Meta’dan kritik bir "erken uyarı" hamlesi geldi. Şirket, platformdaki "Genç Hesabı" (Teen Account) kullanıcılarının hassas aramalarını mercek altına alan yeni bir güvenlik katmanını yürürlüğe koyduğunu duyurdu.
ALGORİTMALAR "SESSİZ ÇIĞLIĞI" TESPİT EDECEK
Yeni sisteme göre, Instagram’ın yapay zeka algoritmaları, belirli bir zaman dilimi içerisinde intihar, kendine zarar verme veya ağır depresif içeriklerle ilgili tekrarlı arama yapan genç kullanıcıları tespit edecek. Bu tür aramaların bir "yardım çağrısı" olabileceği varsayımıyla, sistem otomatik olarak ebeveyn denetim mekanizmasını tetikleyecek.
Instagram’ın ebeveyn denetim araçlarını kullanan aileler; çocuklarının desteğe ihtiyacı olabileceğine dair şu kanallar üzerinden anlık bildirim alacak:
E-posta ve Kısa Mesaj (SMS)
WhatsApp Bildirimleri
Uygulama İçi Uyarı Mesajları
SADECE UYARI DEĞİL, "REHBERLİK" DESTEĞİ DE SUNULACAK
Meta, ebeveynlere sadece uyarı göndermekle kalmayıp, bu zorlu süreci yönetebilmeleri için profesyonel destek de sağlayacak. Bildirimle birlikte ebeveynlere; çocuklarıyla bu hassas konuları nasıl konuşmaları gerektiğine dair uzmanlar tarafından hazırlanan rehber içerikler ve psikolojik destek materyalleri de sunulacak.
YASAL BASKILAR ALTINDA GELEN GÜVENLİK GÜNCELLEMESİ
Bu yeni tedbir paketinin zamanlaması oldukça dikkat çekici. Meta, uzun bir süredir ABD’de "çocukların ruh sağlığına zarar verdiği ve platform bağımlılığını körüklediği" iddiasıyla açılan çok sayıda dava ile mücadele ediyor. Uzmanlar, bu adımı Meta’nın hem yasal baskıları hafifletme hem de sarsılan güveni yeniden inşa etme çabası olarak yorumluyor.
