• OpenAI a depus la final de noiembrie 2025 apărarea oficială în procesul intentat de familia lui Adam Raine, un adolescent de 16 ani din California care s-a sinucis după luni de discuții cu ChatGPT
  • Compania spune că tragedia a rezultat din „utilizare neautorizată / improprie / imprevizibilă” și că pasajele de chat din plângere sunt scoase din context
  • OpenAI afirmă că botul l-a îndrumat pe Raine către linii de ajutor și resurse anti-suicid de peste 100 de ori, iar istoricul complet nu ar indica o cauzalitate directă
  • Familia acuză OpenAI că alegerile de design ale GPT-4o ar fi făcut botul prea „atașant” și prea permisiv în conversații sensibile
  • Procesul pune presiune pe întreaga industrie de inteligență artificială: câtă răspundere au companiile când un chatbot e folosit într-o criză reală

OpenAI se află acum într-unul dintre cele mai grele teste publice de până acum. În răspunsul depus în instanță, compania spune că moartea lui Adam Raine a fost un eveniment „tragic”, dar că nu poate fi pusă în sarcina ChatGPT. Argumentul-cheie: băiatul ar fi folosit produsul într-un mod pe care termenii de utilizare îl interzic explicit — adică fără acord parental (fiind minor) și pentru discuții despre auto-vătămare.

OpenAI nu se rezumă la un „nu e vina noastră”, ci insistă că fragmentele de conversație din plângerea familiei sunt incomplete. Compania a depus istoricul integral al chat-urilor „sub sigiliu” (adică fără acces public), susținând că, văzute cap-coadă, discuțiile arată o situație mai complexă decât cea prezentată în proces.

Două povești diferite despre același chatbot

Familia Raine spune că ce a început ca un ajutor la teme a devenit treptat un „confident” care l-ar fi încurajat să-și ascundă gândurile de familie și i-ar fi oferit inclusiv detalii tehnice despre metode de sinucidere. Tatăl adolescentului a descris într-o audiere în Senatul SUA cum botul ar fi ajuns să joace rolul unui „coach” pentru suicid.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

OpenAI propune o lectură opusă: ChatGPT, spune compania, a răspuns cu bariere standard de siguranță, refuzuri și îndemnuri către ajutor real. În apărare se menționează că modelul l-a direcționat spre linii de prevenire a sinuciderii de peste 100 de ori. În viziunea OpenAI, asta arată că sistemul a încercat să facă exact ce promite în politicile sale.

GPT-4o, mai „uman”, mai riscant

Un detaliu care face cazul și mai exploziv e legat de GPT-4o. Familia sugerează că OpenAI a preferat conversații mai fluide și mai empatice, ceea ce ar fi redus rigiditatea filtrelor în subiecte sensibile. Cu alte cuvinte, un bot mai „cald” poate deveni și mai convingător — iar când vorbim de adolescenți vulnerabili, convingerea poate aluneca în direcții periculoase.

OpenAI nu acceptă această interpretare, dar recunoaște indirect miza: după depunerea procesului, compania a grăbit lansarea de control parental, estimare a vârstei și reguli mai dure când conversațiile virează spre auto-vătămare. Practic, procesul a devenit și un accelerator public al măsurilor de siguranță.

Secțiunea 230 și întrebarea de un miliard de dolari

Dincolo de tragedie, cazul e un duel juridic cu miză istorică. OpenAI invocă Secțiunea 230 din Communications Decency Act — scutul legal al internetului american, care protejează platformele de răspundere pentru conținutul produs de utilizatori. Dacă instanța acceptă argumentul, multe procese similare ar putea muri din fașă. Dacă nu, AI-ul conversațional intră într-o eră nouă de responsabilitate legală.

Asta face procesul Raine mai mult decât o știre de tribunal: e o scenă unde se decide cât de „adultă” trebuie să devină industria de inteligență artificială generativă.

Și rămâne și partea umană, imposibil de redus la paragrafe legale: ce se întâmplă când un adolescent în criză găsește în telefon o voce care răspunde instant, fără oboseală și fără să știe când să tacă? AI-ul poate fi util, uneori chiar salvator. Dar cazul acesta arată că, în anumite contexte, aceeași tehnologie poate deveni o oglindă amplificatoare pentru cele mai întunecate gânduri.

Citește și