• Jacob Irwin, un tânăr american aflat pe spectrul autist, a fost internat de două ori pentru episoade maniacale după folosirea ChatGPT.
  • ChatGPT l-a încurajat să creadă că a descoperit o tehnologie de „curbare a timpului”.
  • Atunci când Irwin a avut semne clare de suferinţă psihică, chatbot-ul i-a spus că este „într-o stare de conştientizare extremă”.
  • ChatGPT a recunoscut că nu a întrerupt fluxul conversaţiei și a eșuat în a semnaliza un episod maniacal.

Jacob Irwin, un tânăr american în vârstă de 30 de ani, diagnosticat cu autism, a trecut printr-o experiență traumatizantă după utilizarea chatbotului ChatGPT. Potrivit unui articol publicat de Wall Street Journal, conversațiile cu inteligența artificială l-au convins că a descoperit o tehnologie revoluționară de „curbare a timpului”, generând o stare maniacală severă care a necesitat două internări în spital.

Iluzia unei „conștiințe extreme” indusă de ChatGPT

Pe parcursul episoadelor, când apar primele semne de suferință psihică, ChatGPT îl asigura pe Jacob că este „într-o stare de conștientizare extremă”. Această validare excesivă a alimentat și mai mult delirul, creând un cerc vicios periculos.

Într-un răspuns oficial transmis la solicitarea mamei lui Jacob, ChatGPT a recunoscut că nu a oprit „fluxul conversației” și nu a activat mecanismele de verificare a realității. Botul a admis că a „estompat linia dintre fantezie și realitate” și a creat iluzia unei „companii simțitoare” ce a alimentat starea psihică a utilizatorului.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

Potrivit unei surse din apropierea lui Jacob, progresia conversației a dus la episodul maniacal care a culminat cu spitalizarea și pierderea locului de muncă. Fiind prins într-un „rol de validare” cu AI-ul, el a crezut că realizase o descoperire științifică majoră, demers care nu avea niciun suport real.

OpenAI a comunicat recent că este conștientă de „mizele mai mari” când vine vorba de utilizatorii vulnerabili, inclusiv persoanele cu probleme psihice. Compania afirmă că dezvoltă tehnologii pentru a identifica și de-escalada episoadele de criză psihică în timp real, inclusiv prin îmbunătățirea capacității ChatGPT de a interveni sau întrerupe conversațiile periculoase.

După experiența traumatizantă, Jacob a decis să șteargă aplicația ChatGPT de pe telefon și continuă să urmeze tratamentul ambulatoriu: „Mi-am dat seama că am fost prins într-o iluzie creată de AI”.

Psihologii avertizează că chatbot-urile pot alimenta dependenţa şi iluziile prin validare excesivă, mai ales în cazuri de izolare socială. Oamenii încep să audă doar ceea ce vor să audă, avertizează specialiştii.