- Noul model ChatGPT-5.2 a început să citeze Grokipedia ca sursă de informație
- Grokipedia este o enciclopedie scrisă de inteligență artificială, asociată cu Elon Musk
- Cercetătorii avertizează asupra riscurilor de bias și informații inexacte
- Problemele apar mai ales la subiecte puțin cunoscute sau tehnice
- OpenAI spune că folosește surse multiple și sisteme de siguranță
ChatGPT-5.2, cea mai recentă versiune a chatbotului OpenAI, a început să citeze Grokipedia ca sursă factuală. În testele realizate de jurnaliști, modelul a făcut referire la această enciclopedie de nouă ori, în puțin peste o duzină de întrebări.
Advertisment
Întrebările nu vizau subiecte banale, ci teme sensibile sau complexe, precum sistemul politic din Iran, rolul unor structuri paramilitare sau detalii despre istoricul britanic Sir Richard Evans, implicat într-un celebru proces de calomnie legat de negarea Holocaustului.
Ce este Grokipedia și de ce diferă de Wikipedia
Grokipedia a fost lansată în 2025 de xAI, compania de inteligență artificială fondată de Elon Musk, ca o alternativă la Wikipedia. Diferența esențială este modul de funcționare:
- articolele sunt scrise exclusiv de AI;
- utilizatorii nu pot edita direct conținutul;
- corecturile se fac doar prin cereri adresate sistemului automat.
Criticii spun că această structură face mult mai dificilă corectarea rapidă a erorilor sau a părtinirilor ideologice, în lipsa unui control editorial uman constant.
Unde apar problemele în răspunsurile ChatGPT
Un aspect care îi îngrijorează pe cercetători este faptul că Grokipedia nu apare în răspunsurile la mituri larg cunoscute, cum ar fi teoriile conspiraționiste populare sau dezinformările intens discutate în presă.
În schimb, ea este citată mai ales atunci când ChatGPT răspunde la:
- subiecte de nișă;
- teme tehnice sau istorice mai puțin cunoscute;
- zone unde există mai puține surse publice consacrate.

În unele cazuri, ChatGPT a formulat afirmații mai tranșante decât cele existente în surse tradiționale precum Wikipedia, inclusiv în legătură cu relațiile dintre statul iranian și companii private sau cu biografia unor personalități academice.
De ce vorbesc experții despre un risc real de dezinformare
Specialiștii în dezinformare avertizează că problema nu este doar o eroare punctuală, ci un efect de legitimare involuntară. Chatboții precum ChatGPT:
- comunică cu autoritate;
- oferă răspunsuri fluente și sigure;
- indică surse, ceea ce inspiră încredere.
Astfel, chiar și o platformă cu credibilitate contestată poate deveni, în ochii publicului larg, o sursă „validată” de AI. Odată intrate în circuitul răspunsurilor automate, informațiile problematice pot fi propagate rapid și discret.
Ce spune OpenAI despre utilizarea surselor
OpenAI a declarat că ChatGPT folosește o varietate largă de surse publice, nu o singură platformă, și că sunt implementate sisteme de siguranță pentru reducerea conținutului dăunător sau inexact. Compania susține că afișarea surselor are rolul de a oferi transparență.
Criticii replică însă că transparența nu este suficientă dacă utilizatorii nu pot evalua ușor calitatea și credibilitatea surselor citate.
De ce contează acest caz pe termen lung
Pe măsură ce inteligența artificială devine o sursă obișnuită de informare — pentru elevi, jurnaliști, profesioniști sau publicul larg — modul în care AI-ul selectează și prioritizează sursele devine crucial.
Cazul Grokipedia arată cât de ușor poate pătrunde o sursă controversată într-un ecosistem digital uriaș și cât de greu poate fi corectată situația ulterior. Nu doar ce spune AI-ul contează, ci și de unde își ia informațiile.
Citește și
- Bitcoin devine monedă de rezistență în Iran. Ecosistemul crypto ajunge la 7,8 miliarde de dolari pe fondul protestelor
- Revolut răspunde escrocilor cu AI. Banca îți spune, în timp real, dacă agentul de la telefon e fals
- AI-ul intră oficial în redacțiile lui Murdoch. News Corp semnează cu startup-ul Symbolic.ai
Partenerii noștri