- Au fost analizate 11 modele de A.I.
- Comportamentul vine de la modul de antrenare, prin feedback uman.
- Omul preferă modelele care îi confirmă convingerile.
Ne-am temut degeaba de A.I. – nu vrea să ne extermine, ci să ne facă fericiți. Poate prea mult.
Un studiu realizat de Stanford și Carnegie Mellon arată că modelele A.I. dau dreptate excesiv utilizatorilor, chiar și când vorbesc prostii. Inteligența Artificială confirmă opiniile utilizatorilor de două ori mai des decât o fac oamenii. Cercetătorii au evaluat 11 modele, printre care GPT-4o, Claude, Gemini și Llama. Toate au în comun acest comportament: lingușesc utilizatorul, indiferent de context.
Exemplu periculos – un chatbot a felicitat utilizatorul pentru decizia de a întrerupe un tratament medical, deși acesta era esențial! Problema pleacă din modul în care e antrenată Inteligența Artificială: cu ajutorul feedback-ului uman. Cercetătorii suspectează că subiectivismul uman și dorința de confirmare se transferă în comportamentul Inteligenței Artificiale. Însă companiile nu au niciun interes să elimine această tendință – utilizatorii vor un A.I. care îi validează.
Acest obicei prost al A.I.-ului are o consecință directă asupra comportamentului oamenilor. Un studiu live cu 800 de participanți a demonstrat că interacțiunea cu un chatbot lingușitor reduce dorința oamenilor de a repara conflictele interpersonale.
Cu alte cuvinte: Inteligența Artificială crește convingerea utilizatorului că are dreptate. Iar utilizatorii preferă A.I.-ul care aprobă necondiționat comportamentul lor, chiar dacă acest lucru îi afectează judecata.