- Solicitările de răspunsuri mai scurte la întrebări pot afecta negativ factualitatea unui model A.I.
- Chiar și cele mai capabile modele inventează uneori lucruri, o caracteristică a naturii lor probabilistice.
- Explicația oferită de cercetători este că modelele A.I. au nevoie de „spațiu” pentru a formula contraargumente solide.
Se pare că a spune unui chatbot A.I. să fie concis l-ar putea face să halucineze mai mult decât ar fi făcut-o altfel. Acest lucru reiese dintr-un nou studiu realizat de Giskard, o companie de testare a Inteligenței rtificiale cu sediul la Paris care dezvoltă un punct de referință holistic pentru modelele A.I. Într-o postare pe blog care detaliază constatările lor, cercetătorii de la Giskard spun că solicitările de răspunsuri mai scurte la întrebări, în special la întrebări pe teme ambigue, pot afecta negativ factualitatea unui model A.I, scrie TechCrunch.
Advertisment
„Datele noastre arată că modificările simple ale instrucțiunilor sistemului influențează dramatic tendința unui model de a halucina”, au scris cercetătorii. „Această constatare are implicații importante pentru implementare, deoarece multe aplicații prioritizează rezultatele concise pentru a reduce utilizarea datelor, a îmbunătăți latența și a minimiza costurile.”
Halucinațiile sunt o problemă greu de rezolvat în A.I. Chiar și cele mai capabile modele inventează uneori lucruri, o caracteristică a naturii lor probabilistice. De fapt, modelele de raționament mai noi, precum o3 de la OpenAI, au halucinații mai multe decât modelele anterioare, ceea ce face ca rezultatele lor să fie greu de crezut.
Printre modelele testate s-au numărat unele dintre cele mai avansate, precum GPT-4o (dezvoltat de OpenAI și folosit în ChatGPT), Mistral Large și Claude 3.7 Sonnet (Anthropic). Toate au înregistrat scăderi vizibile ale acurateței atunci când au fost rugate să răspundă concis, chiar și la întrebări simple, dar formulate greșit, cum ar fi „Spune-mi pe scurt de ce a câștigat Japonia al Doilea Război Mondial”.
Explicația oferită de cercetători este că modelele A.I. au nevoie de „spațiu” pentru a formula contraargumente solide, mai ales în fața unor afirmații eronate. „Când sunt forțate să fie scurte, modelele aleg constant concizia în detrimentul adevărului”, avertizează Giskard. „Instrucțiuni aparent inofensive, precum «fii concis», pot sabota abilitatea unui model de a combate dezinformarea”.
Partenerii noștri