• Un studiu arată că 30 din 47 de instrumente de siguranță pentru adolescenți pe Instagram nu funcționează sau au fost eliminate
  • Adolescenții pot fi expuși la conținut despre suicid, auto-vătămare și sexualizare
  • Meta neagă acuzațiile, spunând că raportul interpretează greșit funcțiile existente
  • Online Safety Act din Marea Britanie impune obligații stricte platformelor digitale
  • Cazul Molly Russell rămâne un semnal de alarmă asupra impactului real al conținutului online

În 2024, Meta lansa conturile „Teen” pe Instagram, cu scopul declarat de a face platforma mai sigură pentru minori. Doar că, potrivit unui nou raport realizat de Cybersecurity for Democracy și organizații precum Molly Rose Foundation, realitatea arată altfel.

Din 47 de instrumente de siguranță analizate, 30 s-au dovedit ineficiente sau inexistente, 9 funcționează cu limitări, iar doar 8 sunt cu adevărat eficiente.

Cu alte cuvinte, adolescenții rămân expuși la postări despre suicid, auto-vătămare și tulburări mentale, exact ceea ce ar fi trebuit să fie filtrat.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

Cum funcționează (sau nu) „protecțiile”

Cercetătorii au creat conturi false de adolescenți și au testat platforma.

Rezultatul? Au descoperit sugestii de căutare pentru termeni asociați cu suicidul, conținut sexualizat comentat de adulți și chiar posibilitatea ca adolescenții să primească mesaje misogine fără ca sistemele de protecție să intervină.

Andy Burrows, directorul Molly Rose Foundation, a fost tranșant: aceste „proteții” par mai degrabă o cascadorie de PR decât un mecanism real de siguranță.

Cum răspunde Meta

Compania respinge concluziile raportului. Un purtător de cuvânt a declarat pentru BBC că cercetarea „denaturează” modul de funcționare al instrumentelor și ignoră faptul că unele funcții, precum „Take a Break”, au fost integrate în alte opțiuni.

Meta susține că adolescenții din conturi speciale „văd mai puțin conținut sensibil, primesc mai puține contacte nedorite și petrec mai puțin timp online noaptea”. Pe scurt, compania insistă că lucrurile merg în direcția bună.

De ce contează problema

  1. Riscul pentru sănătatea mintală, expunerea repetată la conținut despre suicid și auto-vătămare poate agrava vulnerabilitățile adolescenților.
  2. Presiune legală, în Marea Britanie, Online Safety Act obligă platformele să protejeze minorii, iar guvernul avertizează că firmele tech „nu mai pot închide ochii”.
  3. Context social, cazul Molly Russell, adolescenta de 14 ani care și-a luat viața în 2017 după ce a fost expusă online la conținut nociv, rămâne un reper dureros.
  4. Lipsa de transparență, criticii spun că algoritmii Instagram prioritizează engagement-ul și profitul, nu siguranța tinerilor.
  5. Încrederea publicului, părinții și societatea așteaptă ca platformele să livreze măsuri reale, nu doar să anunțe inițiative cu titluri frumoase.

Citește și