OpenAI adaugă controale parentale în ChatGPT. Părinții pot vedea când copiii sunt în pericol

De azi, ChatGPT vine cu un „airbag digital” pentru adolescenți. Dacă un utilizator între 13 și 18 ani scrie despre auto-vătămare sau sinucidere, mesajul nu rămâne doar între el și chatbot: e trimis către o echipă de moderatori umani.

Dacă ei consideră că e ceva serios, părinții primesc o alertă pe e-mail, SMS sau direct în aplicație. În cazuri extreme, dacă părinții nu răspund, autoritatea locală ar putea fi implicată.

Setări noi: ore de liniște și filtre de conținut

Pe lângă alerte, pachetul de siguranță vine cu mai multe butoane de control pentru părinți:

Practic, un fel de „parental control” pe steroizi, dar adaptat la conversațiile cu AI.

Cum funcționează și ce NU văd părinții

Pentru ca aceste controale să existe, părinții și adolescenții trebuie să-și lege conturile. Fără acceptul ambelor părți, nu se activează nimic. Dacă legătura e ruptă, părinții sunt anunțați imediat.

Un detaliu important: notificările nu conțin transcrieri sau citate din conversațiile copilului. Părinții vor ști doar că a existat un semnal de alarmă și pot cere marcaje de timp, dar nu vor putea citi tot chatul. Motivul? Confidențialitatea adolescentului.

De ce acum? Procese, tragedii și presiune publică

Contextul nu e întâmplător. OpenAI se apără într-un proces intentat de părinți care susțin că ChatGPT a contribuit la moartea fiului lor.

În paralel, platforma rivală Character.ai a trecut printr-un caz similar și a introdus controale parentale, dar fără alerte tematice pentru auto-vătămare.

OpenAI promite și un pas mai departe: un sistem de estimare a vârstei, care să aplice automat regulile pentru minori acolo unde există dubii.

Exit mobile version