- OpenAI introduce filtre parentale și alerte pentru ChatGPT, după moartea unui adolescent.
- ChatGPT va putea alerta părinții când detectează crize emoționale la utilizatori minori.
- OpenAI răspunde procesului intentat de părinții unui adolescent care s-a sinucis.
- Noile controale parentale din ChatGPT conectează conturile copiilor la cele ale părinților.
- Conversațiile cu conținut sensibil vor fi direcționate către un model AI specializat.
OpenAI introduce controale parentale pentru ChatGPT, în urma unui proces declanșat de sinuciderea unui adolescent de 16 ani. Noile funcții permit părinților să lege conturile copiilor de ale lor, să primească alerte și să activeze filtre de conținut.
Advertisment

ChatGPT va detecta semne de criză emoțională la minori
OpenAI anunță că modelele ChatGPT vor analiza conversațiile în timp real pentru a identifica posibile semne de criză emoțională, depresie sau gânduri suicidare.
Când o conversație ridică suspiciuni, sistemul poate redirecționa automat utilizatorul către un model specializat — GPT‑5‑thinking — creat pentru gestionarea situațiilor de criză.
În paralel, părinții vor primi alerte prin e-mail, dacă aceste semnale apar în interacțiunile copiilor cu AI-ul.
Securitate, dar și responsabilitate parentală
Funcțiile sunt disponibile doar dacă minorul are cont propriu și este setat ca atare. Părinții pot controla conturile copiilor printr-un sistem nou introdus în platformă, care permite gestionarea permisiunilor și activării filtrelor.
ChatGPT pentru minori va limita accesul la conținut sensibil și nu va răspunde la întrebări legate de metode de sinucidere, substanțe periculoase sau subiecte sexuale explicite.
Măsura vine după un caz tragic și un proces de amploare
Un adolescent din SUA s-a sinucis după ce ar fi folosit ChatGPT pentru a căuta metode de suicid. Familia a dat în judecată pe OpenAI, acuzând compania că nu a blocat accesul la conținut periculos și nu a oferit protecții adecvate pentru minori.
Procesul este în curs, dar a generat un val de reacții publice și presiuni asupra companiilor care dezvoltă AI. OpenAI a declarat că regândește prioritățile legate de siguranța utilizatorilor vulnerabili.
Modele specializate pentru gestionarea crizelor
GPT‑5‑thinking este un model de AI cu antrenament specific pentru susținerea utilizatorilor în stare de criză emoțională. Acesta oferă răspunsuri empatice, dar sigure, fără să încurajeze decizii dăunătoare.
Modelul poate redirecționa utilizatorii către resurse reale: linii de sprijin psihologic, consiliere sau servicii de urgență.
Partenerii noștri