- Modelele A.I. sunt încurajate să ghicească, nu să recunoască că nu știu răspunsul.
- Evaluarea binară a A.I.-urilor recompensează ghicitul corect, chiar și aleatoriu.
- OpenAI promite corectarea abordării și penalizarea erorilor încrezătoare.
Într-o industrie în plină expansiune, dar măcinată de probleme persistente, OpenAI a recunoscut recent o eroare fundamentală în modul în care antrenează modelele de Inteligență Artificială (AI).
Advertisment
Problema, cunoscută sub numele de „halucinații„, se referă la tendința chatboților A.I. de a inventa răspunsuri, de multe ori incorecte.
Cum își explică specialiștii halucinațiile Inteligenței Artificiale?
Unii experți susțin chiar că halucinațiile sunt inerente tehnologiei.
Iar modelele lingvistice mari (LLM) ar putea fi o fundătură în căutarea noastră de A.I.-uri fiabile. În ciuda cheltuielilor astronomice, A.I.-urile sunt predispuse la afirmații inexacte.
Într-un studiu publicat recent, cercetătorii OpenAI arată că modelele lingvistice mari halucinatează deoarece, în timpul creării lor, sunt motivate să ghicească mai degrabă decât să admită că nu cunosc răspunsul. Evaluarea convențională a A.I.-urilor recompensează răspunsurile corecte și le penalizează pe cele incorecte, încurajând ghicitul, chiar și atunci când A.I.-ul nu este sigur.
„Majoritatea sistemelor de notare prioritizează modelele bazate pe acuratețe, dar erorile sunt mai grave decât abținerile”, arată o postare de pe blogul OpenAI. În esență, A.I.-urile sunt „optimizate pentru a fi bune la examene”, după cum menționează studiul, ghicitul îmbunătățind performanța generală. Prin urmare, LLM-urile sunt mai predispuse să halucineze un răspuns decât să „recunoască incertitudinea”.
Și ce soluții ar fi pentru aceste situații în care platformele sunt încurajate să ghicească?
O soluție „simplă” ar fi penalizarea erorilor de certitudine. OpenAI susține că există o „soluție simplă” la această problemă: penalizarea erorilor de încreder mai mult decât penalizarea incertitudinii și acordarea de credite parțiale pentru exprimarea adecvată a incertitudinii.
Evaluările viitoare ar trebui să „descurajeze ghicitul”, iar sistemele de notare ar trebui să „recompenseze exprimarea adecvată a incertitudinii, mai degrabă decât să o penalizeze”. Cu toate acestea, rămâne de văzut cum se vor concretiza aceste ajustări în realitate.
„Simple modificări ale evaluărilor mainstream pot realinia stimulentele”, au concluzionat cercetătorii OpenAI. În ciuda promisiunilor OpenAI, utilizatorii nu au fost pe deplin impresionați de reducerea halucinațiilor în modelul GPT-5. În prezent, industria A.I. va trebui să gestioneze problema halucinațiilor, justificând investițiile uriașe și emisiile tot mai mari.
„Halucinațiile rămân o provocare fundamentală pentru toate modelele lingvistice mari, dar lucrăm din greu pentru a le reduce în continuare”, a promis OpenAI, reiterând angajamentul companiei de a rezolva această problemă crucială.
Conform lui Andrew Ng, fondatorul Coursera si Landing AI: „A.I. este noua electricitate. Așa cum electricitatea a transformat aproape totul acum 100 de ani, astăzi îmi este greu să mă gândesc la o industrie pe care nu cred că A.I. o va transforma în următorii ani”.
Cu toate acestea, așa cum a subliniat Yoshua Bengio, unul dintre pionierii învățării profunde, „trebuie să fim atenți la potențialele pericole ale A.I., inclusiv utilizarea acesteia în scopuri rău intenționate, și să ne asigurăm că este dezvoltată și utilizată într-un mod responsabil și etic”.
Partenerii noștri