- Un studiu arată că 30 din 47 de instrumente de siguranță pentru adolescenți pe Instagram nu funcționează sau au fost eliminate
- Adolescenții pot fi expuși la conținut despre suicid, auto-vătămare și sexualizare
- Meta neagă acuzațiile, spunând că raportul interpretează greșit funcțiile existente
- Online Safety Act din Marea Britanie impune obligații stricte platformelor digitale
- Cazul Molly Russell rămâne un semnal de alarmă asupra impactului real al conținutului online
În 2024, Meta lansa conturile „Teen” pe Instagram, cu scopul declarat de a face platforma mai sigură pentru minori. Doar că, potrivit unui nou raport realizat de Cybersecurity for Democracy și organizații precum Molly Rose Foundation, realitatea arată altfel.
Din 47 de instrumente de siguranță analizate, 30 s-au dovedit ineficiente sau inexistente, 9 funcționează cu limitări, iar doar 8 sunt cu adevărat eficiente.
Cu alte cuvinte, adolescenții rămân expuși la postări despre suicid, auto-vătămare și tulburări mentale, exact ceea ce ar fi trebuit să fie filtrat.
Cum funcționează (sau nu) „protecțiile”
Cercetătorii au creat conturi false de adolescenți și au testat platforma.
Rezultatul? Au descoperit sugestii de căutare pentru termeni asociați cu suicidul, conținut sexualizat comentat de adulți și chiar posibilitatea ca adolescenții să primească mesaje misogine fără ca sistemele de protecție să intervină.
Andy Burrows, directorul Molly Rose Foundation, a fost tranșant: aceste „proteții” par mai degrabă o cascadorie de PR decât un mecanism real de siguranță.
Cum răspunde Meta
Compania respinge concluziile raportului. Un purtător de cuvânt a declarat pentru BBC că cercetarea „denaturează” modul de funcționare al instrumentelor și ignoră faptul că unele funcții, precum „Take a Break”, au fost integrate în alte opțiuni.
Meta susține că adolescenții din conturi speciale „văd mai puțin conținut sensibil, primesc mai puține contacte nedorite și petrec mai puțin timp online noaptea”. Pe scurt, compania insistă că lucrurile merg în direcția bună.