- Claude Opus 4 poate închide conversațiile abuzive
- Funcția se activează doar după mai multe refuzuri
- Conversațiile întrerupte nu pot fi reluate
- Anthropic invocă ideea de „stres psihologic AI”
- Măsura este experimentală și limitată
Modelele Claude Opus 4 și 4.1 de la Anthropic vin cu un update neașteptat: pot închide conversația dacă utilizatorii insistă cu cereri abuzive sau ilegale.
Nu e un buton de panică, ci o funcție testată ca ultimă soluție după mai multe refuzuri. Practic, AI-ul îți poate spune „gata, aici ne oprim”.
De ce a făcut Anthropic asta?
Compania spune că a observat ceva curios: chiar dacă un model AI refuză constant să genereze conținut abuziv, expunerea repetată poate afecta stabilitatea interacțiunii. Ca metaforă, Anthropic vorbește despre un fel de „stres psihologic al AI-ului”.
Termenul e discutabil, dar ideea e clară: nimeni, nici măcar un algoritm, nu ar trebui forțat să răspundă la cereri toxice.
Ce se întâmplă după „hang up”
Dacă Claude decide să închidă conversația, aceasta nu mai poate fi reluată. Nu există buton de „resume”. Utilizatorii pot însă să înceapă un dialog nou sau să-și editeze promptul. Este ca o resetare de siguranță: conversația toxică dispare, dar șansa unui nou început rămâne.
„Am încercat, dar Claude tot nu a închis”
Unii utilizatori au testat funcția și au observat că modelul doar refuză politicos în loc să „închidă telefonul”.
Anthropic explică: funcția e experimentală, pragul e flexibil, iar AI-ul nu „trântește ușa” decât în cazuri grave sau la cererea explicită a utilizatorului.
De ce contează asta pentru noi
Funcția ridică o întrebare mai mare: AI-ul rămâne doar un instrument sau devine un partener cu limite? Dacă un chatbot îți poate opri conversația, relația utilizator – AI se schimbă. E vorba nu doar de siguranță, ci și de cum definim respectul digital.