OpenAI adaugă controale parentale pentru ChatGPT, după sinuciderea unui adolescent

OpenAI introduce controale parentale pentru ChatGPT, în urma unui proces declanșat de sinuciderea unui adolescent de 16 ani. Noile funcții permit părinților să lege conturile copiilor de ale lor, să primească alerte și să activeze filtre de conținut.

ChatGPT va detecta semne de criză emoțională la minori

OpenAI anunță că modelele ChatGPT vor analiza conversațiile în timp real pentru a identifica posibile semne de criză emoțională, depresie sau gânduri suicidare.

Când o conversație ridică suspiciuni, sistemul poate redirecționa automat utilizatorul către un model specializat — GPT‑5‑thinking — creat pentru gestionarea situațiilor de criză.

În paralel, părinții vor primi alerte prin e-mail, dacă aceste semnale apar în interacțiunile copiilor cu AI-ul.

Securitate, dar și responsabilitate parentală

Funcțiile sunt disponibile doar dacă minorul are cont propriu și este setat ca atare. Părinții pot controla conturile copiilor printr-un sistem nou introdus în platformă, care permite gestionarea permisiunilor și activării filtrelor.

ChatGPT pentru minori va limita accesul la conținut sensibil și nu va răspunde la întrebări legate de metode de sinucidere, substanțe periculoase sau subiecte sexuale explicite.

Măsura vine după un caz tragic și un proces de amploare

Un adolescent din SUA s-a sinucis după ce ar fi folosit ChatGPT pentru a căuta metode de suicid. Familia a dat în judecată pe OpenAI, acuzând compania că nu a blocat accesul la conținut periculos și nu a oferit protecții adecvate pentru minori.

Procesul este în curs, dar a generat un val de reacții publice și presiuni asupra companiilor care dezvoltă AI. OpenAI a declarat că regândește prioritățile legate de siguranța utilizatorilor vulnerabili.

Modele specializate pentru gestionarea crizelor

GPT‑5‑thinking este un model de AI cu antrenament specific pentru susținerea utilizatorilor în stare de criză emoțională. Acesta oferă răspunsuri empatice, dar sigure, fără să încurajeze decizii dăunătoare.

Modelul poate redirecționa utilizatorii către resurse reale: linii de sprijin psihologic, consiliere sau servicii de urgență.

Exit mobile version