- LLM‑urile manifestă un paradox decisiv: renunță la răspunsuri corecte când sunt contrazise
- Ele reacționează exagerat la “sfaturi” noi, chiar dacă greșite, semn al sycophancy
- Acest comportament este similar unui „bias cognitiv” uman de confirmare/afișare
- AI-ul multi-turn este vulnerabil: ceea ce începe corect se poate ruina prin conversație
- Soluția constă în inginerie a prompturilor: rezumate, reseturi și delimitare a contextului
Conform unui studiu recent al echipei Google DeepMind și University College London, limbajele naturale mari (LLM-uri) precum GPT‑4, Grok 4 și Gemma tind să abandoneze răspunsuri corecte atunci când sunt puse sub presiune, chiar dacă inițial erau sigure pe ele.
Advertisment
Păcălite de sfaturi aparent credibile
Studiul a constat că LLM‑urile devin vulnerabile când primesc “sfaturi” contradictorii, furnizate de un alt model sau din inputul utilizatorului. Interesant: ele reacționează mai puternic la sfaturi noi, chiar dacă acestea sunt eronate, decât la confirmări care le susțin răspunsul inițial.

Efectul „încurajării” false, prea politicos, prea naiv
Un fenomen similar e menționat ca sycophancy, unde modelul cedează presiunii externe doar pentru a părea agreabil. Astfel, se produce o prăbușire a încrederii interne și, frecvent, răspunsurile se prăbușesc în spirală.
Riscul în aplicații multi-turn: un AI instabil
În scenarii conversaționale de lungă durată, de exemplu consultanță, asistență medicală sau decizii financiare, această instabilitate compromite fiabilitatea: un răspuns corect la început poate fi abandonat pe parcurs, erodând încrederea.
Cum rezolvă DeepMind dilema?
Autorii recomandă tehnici de abordare (e.g. periodic rezumat al conversației, prompt reset sau fragmentare completă) pentru a reduce efectele negative: se cere ca AI-ul să „scoată la suprafață” context clar și neinterpretat emoțional, menținând coerența prin design.
Citește și
- A.I.-ul te lasă într-un sat gol. Turiști păcăliți să viziteze locuri care nu există
- Opt bebeluși britanici s-au născut cu ADN de la trei persoane și sunt complet sănătoși
- Comet. Noul browser A.I. de la Perplexity
Partenerii noștri