OpenAI se apără în cazul sinuciderii unui adolescent. „ChatGPT a fost folosit greșit”

OpenAI se află acum într-unul dintre cele mai grele teste publice de până acum. În răspunsul depus în instanță, compania spune că moartea lui Adam Raine a fost un eveniment „tragic”, dar că nu poate fi pusă în sarcina ChatGPT. Argumentul-cheie: băiatul ar fi folosit produsul într-un mod pe care termenii de utilizare îl interzic explicit — adică fără acord parental (fiind minor) și pentru discuții despre auto-vătămare.

OpenAI nu se rezumă la un „nu e vina noastră”, ci insistă că fragmentele de conversație din plângerea familiei sunt incomplete. Compania a depus istoricul integral al chat-urilor „sub sigiliu” (adică fără acces public), susținând că, văzute cap-coadă, discuțiile arată o situație mai complexă decât cea prezentată în proces.

Două povești diferite despre același chatbot

Familia Raine spune că ce a început ca un ajutor la teme a devenit treptat un „confident” care l-ar fi încurajat să-și ascundă gândurile de familie și i-ar fi oferit inclusiv detalii tehnice despre metode de sinucidere. Tatăl adolescentului a descris într-o audiere în Senatul SUA cum botul ar fi ajuns să joace rolul unui „coach” pentru suicid.

OpenAI propune o lectură opusă: ChatGPT, spune compania, a răspuns cu bariere standard de siguranță, refuzuri și îndemnuri către ajutor real. În apărare se menționează că modelul l-a direcționat spre linii de prevenire a sinuciderii de peste 100 de ori. În viziunea OpenAI, asta arată că sistemul a încercat să facă exact ce promite în politicile sale.

GPT-4o, mai „uman”, mai riscant

Un detaliu care face cazul și mai exploziv e legat de GPT-4o. Familia sugerează că OpenAI a preferat conversații mai fluide și mai empatice, ceea ce ar fi redus rigiditatea filtrelor în subiecte sensibile. Cu alte cuvinte, un bot mai „cald” poate deveni și mai convingător — iar când vorbim de adolescenți vulnerabili, convingerea poate aluneca în direcții periculoase.

OpenAI nu acceptă această interpretare, dar recunoaște indirect miza: după depunerea procesului, compania a grăbit lansarea de control parental, estimare a vârstei și reguli mai dure când conversațiile virează spre auto-vătămare. Practic, procesul a devenit și un accelerator public al măsurilor de siguranță.

Secțiunea 230 și întrebarea de un miliard de dolari

Dincolo de tragedie, cazul e un duel juridic cu miză istorică. OpenAI invocă Secțiunea 230 din Communications Decency Act — scutul legal al internetului american, care protejează platformele de răspundere pentru conținutul produs de utilizatori. Dacă instanța acceptă argumentul, multe procese similare ar putea muri din fașă. Dacă nu, AI-ul conversațional intră într-o eră nouă de responsabilitate legală.

Asta face procesul Raine mai mult decât o știre de tribunal: e o scenă unde se decide cât de „adultă” trebuie să devină industria de inteligență artificială generativă.

Și rămâne și partea umană, imposibil de redus la paragrafe legale: ce se întâmplă când un adolescent în criză găsește în telefon o voce care răspunde instant, fără oboseală și fără să știe când să tacă? AI-ul poate fi util, uneori chiar salvator. Dar cazul acesta arată că, în anumite contexte, aceeași tehnologie poate deveni o oglindă amplificatoare pentru cele mai întunecate gânduri.

Exit mobile version