• OpenAI introduce filtre parentale și alerte pentru ChatGPT, după moartea unui adolescent.
  • ChatGPT va putea alerta părinții când detectează crize emoționale la utilizatori minori.
  • OpenAI răspunde procesului intentat de părinții unui adolescent care s-a sinucis.
  • Noile controale parentale din ChatGPT conectează conturile copiilor la cele ale părinților.
  • Conversațiile cu conținut sensibil vor fi direcționate către un model AI specializat.

OpenAI introduce controale parentale pentru ChatGPT, în urma unui proces declanșat de sinuciderea unui adolescent de 16 ani. Noile funcții permit părinților să lege conturile copiilor de ale lor, să primească alerte și să activeze filtre de conținut.

Parental Controls Added to ChatGPT: The Death of a 16-Year-Old and AI  Homework - Examining OpenAI's Promised "Next Safety Measures" | ukiyo  journal - 日本と世界をつなぐ新しいニュースメディア

ChatGPT va detecta semne de criză emoțională la minori

OpenAI anunță că modelele ChatGPT vor analiza conversațiile în timp real pentru a identifica posibile semne de criză emoțională, depresie sau gânduri suicidare.

Când o conversație ridică suspiciuni, sistemul poate redirecționa automat utilizatorul către un model specializat — GPT‑5‑thinking — creat pentru gestionarea situațiilor de criză.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

În paralel, părinții vor primi alerte prin e-mail, dacă aceste semnale apar în interacțiunile copiilor cu AI-ul.

Securitate, dar și responsabilitate parentală

Funcțiile sunt disponibile doar dacă minorul are cont propriu și este setat ca atare. Părinții pot controla conturile copiilor printr-un sistem nou introdus în platformă, care permite gestionarea permisiunilor și activării filtrelor.

ChatGPT pentru minori va limita accesul la conținut sensibil și nu va răspunde la întrebări legate de metode de sinucidere, substanțe periculoase sau subiecte sexuale explicite.

ChatGPT for Kids: Safe AI Activities & Parental Controls Guide

Măsura vine după un caz tragic și un proces de amploare

Un adolescent din SUA s-a sinucis după ce ar fi folosit ChatGPT pentru a căuta metode de suicid. Familia a dat în judecată pe OpenAI, acuzând compania că nu a blocat accesul la conținut periculos și nu a oferit protecții adecvate pentru minori.

Procesul este în curs, dar a generat un val de reacții publice și presiuni asupra companiilor care dezvoltă AI. OpenAI a declarat că regândește prioritățile legate de siguranța utilizatorilor vulnerabili.

Modele specializate pentru gestionarea crizelor

GPT‑5‑thinking este un model de AI cu antrenament specific pentru susținerea utilizatorilor în stare de criză emoțională. Acesta oferă răspunsuri empatice, dar sigure, fără să încurajeze decizii dăunătoare.

Modelul poate redirecționa utilizatorii către resurse reale: linii de sprijin psihologic, consiliere sau servicii de urgență.