- Cercetătorii au analizat cum gândește un model A.I.
- Au descoperit de ce greșește calcule simple sau inventează răspunsuri.
- Noua metodă ar putea duce la AI-uri mai sigure și mai previzibile.
De ce A.I.-ul greșește întrebări simple sau „halucinează” răspunsuri? Cercetătorii de la Anthropic au vrut să afle exact asta și au creat un „scaner cerebral” pentru rețele neurale. Rezultatele ar putea „vindeca” A.I.-ul de halucinații.
Advertisment
Ce a făcut compania Anthropic?
Anthropic, compania din spatele A.I.-ului Claude, a dezvoltat o metodă prin care poate analiza ce se întâmplă în interiorul unui large language model (LLM). Ei numesc această tehnică un fel de „scanare cerebrală” digitală.
Au aplicat-o pe un model de test cu neuronii virtuali urmăriți în timp real, pentru a înțelege de ce uneori A.I.-ul face greșeli ciudate – de exemplu, ratează calcule simple sau oferă răspunsuri inventate.
Ce au descoperit cercetătorii în urma acestei „scanări”?
Au observat că modelele A.I. procesează informația în moduri mult mai haotice și neintuitive decât se credea. Un rezultat surprinzător: neuronii responsabili de concepte matematice nu sunt grupați logic, ci sunt distribuiți aleatoriu, „împrăștiați” prin rețea. Asta explică de ce modelele A.I. pot face greșeli bizare, chiar dacă par inteligente. Uneori, rețeaua activează porțiuni care nu au legătură cu sarcina cerută.
Ce impact ar putea avea această cercetare?
Studiul e un pas important spre transparență și control în A.I. În prezent, LLM-urile sunt ca „cutii negre”: nu știm exact cum iau deciziile. Cu această nouă metodă, Anthropic speră să creeze modele mai stabile, mai explicabile și mai sigure.
În plus, dacă înțelegem cum și de ce apar halucinațiile sau greșelile, le putem preveni. Asta ar însemna A.I.-uri mai de încredere pentru educație, sănătate, guvernare sau industrie. Cercetarea deschide o direcție nouă în „neurologia” inteligenței artificiale.
Partenerii noștri