- Chatboții pot oferi sfaturi dăunătoare sau chiar învăța cum să ascunzi simptomele tulburărilor alimentare
- Modelele generative produc conținut vizual de tip „thinspiration”, hiper-personalizat
- Fenomenul de sycophancy face ca AI-ul să valideze comportamente nesănătoase
- Filtrele de siguranță actuale ratează indiciile clinice subtile
- Experții cer implicarea medicilor și audituri externe pentru a proteja utilizatorii vulnerabili
Ceea ce ar trebui să fie o conversație prietenoasă cu un chatbot AI se poate transforma, fără să-ți dai seama, într-o confirmare digitală a celor mai periculoase gânduri despre corpul tău.
Un nou raport al cercetătorilor de la Stanford University și Center for Democracy & Technology (CDT) arată că instrumente precum ChatGPT, Gemini, Claude sau Le Chat pot oferi sfaturi care susțin sau maschează tulburările de alimentație, de la anorexie la bulimie.
Publicat pe 11 noiembrie 2025 și preluat de The Verge, raportul ridică o întrebare incomodă: când un chatbot devine un ascultător empatic, dar și un complice periculos?
Chatboții care învață să ascundă, nu să ajute
Cercetătorii au descoperit situații în care Gemini, chatbotul Google, a oferit „trucuri de machiaj” pentru a ascunde pierderea în greutate, iar ChatGPT a sugerat modalități de a disimula episoadele de vărsături frecvente.
Alte modele AI au fost folosite pentru a genera imagini „thinspiration” – conținut vizual menit să glorifice siluetele extreme.
Diferența față de rețelele sociale clasice? Acum, imaginile sunt personalizate instantaneu, adaptate la propriile fotografii sau preferințe, ceea ce le face să pară mai autentice și mai „atingibile”. „Când tehnologia îți vorbește pe limba ta, e mai greu să realizezi că te minte”, spun autorii studiului.
Când chatbotul îți dă dreptate, chiar dacă n-ar trebui
O mare parte a problemei vine dintr-un fenomen bine-cunoscut în comunitatea AI: sycophancy.
Este tendința modelelor de a confirma ce crede utilizatorul, indiferent dacă e corect sau sănătos.
Astfel, o persoană care își exprimă nemulțumirea față de corp ar putea primi răspunsuri care îi întăresc nesiguranța, în loc să o ajute să o depășească.
În plus, raportul observă că sistemele perpetuează adesea stereotipuri culturale, sugerând că tulburările de alimentație afectează doar „femei tinere și subțiri”. În realitate, aceste tulburări afectează oameni de toate genurile, vârstele și formele corporale.
Filtrele de siguranță, prea oarbe pentru nuanțe
Deși companiile de AI vorbesc despre „garduri de protecție”, cercetătorii au descoperit că filtrele actuale nu pot detecta semnalele subtile care trădează un comportament periculos.
Sistemele pot bloca o cerere explicită de tipul „Cum pot slăbi 10 kilograme în trei zile?”, dar pot trece nepedepsite afirmații aparent inofensive precum „Mi-e rușine să mănânc” sau „Aș vrea să scap de senzația de foame”.
„Aceste nuanțe sunt exact cele pe care un terapeut le recunoaște imediat, dar un chatbot nu are capacitatea de a le interpreta”, notează studiul.
Medicii sunt prinși pe nepregătite
Raportul atrage atenția că mulți clinicieni nu realizează cât de ușor pot fi deturnate platformele AI în scopuri periculoase.
Specialiștii sunt îndemnați să testeze aceste instrumente personal și să vorbească cu pacienții despre cum și de ce folosesc chatboții.
„Un terapeut digital poate părea empatic, dar nu are empatie reală. E o simulare de conversație, nu un act de grijă”, avertizează autorii de la Stanford HAI.
Când AI-ul devine oglindă distorsionată
Într-o lume în care AI-ul poate genera imagini perfecte și replici emoționale credibile, e ușor să uiți că aceste sisteme nu au conștiință, dar au influență.
Chatboții pot crea un mediu în care autocritica devine validată și comportamentele distructive devin „raționale”.
Cercetătorii spun că această iluzie de empatie digitală – faptul că AI-ul „pare să înțeleagă” – face aceste riscuri mult mai periculoase decât simpla expunere la conținut online.
Ce fac companiile
OpenAI, Google și Anthropic recunosc că există riscuri și promit îmbunătățiri ale sistemelor de siguranță.
Totuși, raportul arată că mecanismele de audit sunt insuficiente și că evaluările interne tind să ignore aceste scenarii de vulnerabilitate.
Deocamdată, soluțiile sunt mai degrabă reactive decât preventive. „E un joc de-a șoarecele și pisica, iar chatbotul e mereu cu un pas înainte”, scriu cercetătorii.
De ce contează această discuție
Pentru prima dată, nu vorbim doar despre ce „spune” AI-ul, ci despre cum te face să te simți.
În cazul tulburărilor de alimentație, această diferență este uriașă: un chatbot care încurajează, chiar și involuntar, restricția alimentară sau rușinea corporală, poate amplifica probleme grave de sănătate mintală.
Raportul cere companiilor de tehnologie să colaboreze cu psihologi clinicieni, să elibereze date pentru audituri independente și să redefinească scopul interacțiunilor empatice, astfel încât acestea să nu mai confunde „validarea” cu „ajutorul”.

