- Un studiu internațional al EBU și BBC a constatat că 45% dintre răspunsurile AI despre știri conțin erori semnificative
- Analiza a implicat 3.000 de întrebări testate pe ChatGPT, Copilot, Gemini și Perplexity, în 14 limbi
- Gemini a fost sistemul cu cele mai multe probleme — 76% dintre răspunsuri au avut erori majore
- EBU și VRT cer reguli clare, auditare și transparență privind modul în care AI gestionează conținutul jurnalistic
- Radiodifuzorii publici investesc în educație media și alfabetizare digitală, pentru a ajuta publicul să recunoască erorile AI
Dacă ai întrebat vreodată un chatbot ce se întâmplă în lume și ai simțit că răspunsul sună… ciudat, nu e doar o impresie.
Un nou studiu internațional realizat de European Broadcasting Union (EBU) și BBC, cu sprijinul a 22 de radiodifuzori publici din 18 țări, arată că asistenții AI greșesc aproape jumătate din timp atunci când redau informații de știri.
Vorba aceea: dacă AI-ul nu minte, măcar exagerează.
„Modul în care chatboturile AI gestionează știrile nu este suficient de fiabil”, a spus Griet De Craen, directoare de informare la VRT, radiodifuzorul public flamand. „Faptul că am limitat accesul la conținutul nostru este un semnal către marile companii tech: informațiile verificate contează.”
Cum s-a desfășurat cercetarea
Jurnaliști din redacțiile publice ale Europei au pus la treabă asistenții AI cei mai folosiți: ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) și Perplexity.
Li s-au adresat peste 3.000 de întrebări despre actualitate — în 14 limbi diferite, de la olandeză la română.
Rezultatele?
- 45% dintre răspunsuri conțineau cel puțin o eroare semnificativă;
- 31% au ratat complet sursa sau au oferit una falsă;
- 20% conțineau informații fabricate, distorsionate sau învechite.
Iar campionul negativ a fost… Gemini, care a avut probleme serioase în 76% din răspunsuri.
Acuratețea a fost testată pe patru criterii-cheie: corectitudinea faptelor, citarea surselor, claritatea între opinie și fapt și contextul informațional.
Când algoritmul devine redactor
Problema e că, potrivit Reuters Institute Digital News Report 2025, 7% dintre consumatorii de știri online se informează deja exclusiv prin asistenți AI, procent care urcă la 15% în rândul tinerilor sub 25 de ani.
Adică generația care își ia noutățile de la ChatGPT în loc de BBC.
EBU avertizează că acest trend ar putea submina încrederea publicului în știrile reale.
Pentru că atunci când un chatbot amestecă faptele cu ficțiunea, diferența e greu de sesizat — mai ales pentru utilizatorii care nu verifică sursele.
„Asistenții AI devin noul Google al generației Z, dar fără redacție în spate,” a comentat un membru al echipei de cercetare.
Reacția industriei media
În loc să stea deoparte, radiodifuzorii europeni propun acțiune.
EBU și partenerii săi cer reglementări mai clare privind modul în care asistenții AI pot prelua, cita și reformula conținut jurnalistic.
Organizațiile solicită autorităților europene și naționale să aplice legile privind serviciile digitale și pluralismul media, dar și să impună reguli de transparență și auditare a datelor AI.
În paralel, a fost lansat un ghid practic – „News Integrity in AI Assistants Toolkit” – menit să ajute redacțiile și companiile tech să reducă erorile de informare generate de AI și să crească educația media în rândul publicului.
Educație și responsabilitate digitală
Radiodifuzorul belgian VRT, unul dintre participanții la studiu, spune că soluția nu e interzicerea AI-ului, ci înțelegerea lui.
Compania investește deja în programe pentru tineri, menite să explice cum pot fi detectate informațiile false și cum funcționează modelele de inteligență artificială.
„Folosim AI-ul strategic, nu ca pe un trend, ci ca pe o unealtă care trebuie să servească încrederea publicului”, a declarat Lieven Vermaele, director de parteneriate și AI la VRT.
Scopul? Formarea unei generații care nu doar „folosește” AI-ul, ci îl citește critic — exact cum ar face cu o sursă umană.
De ce contează acest studiu
Rezultatele nu sunt doar un diagnostic pentru chatboturi. Ele ridică întrebarea: ce se întâmplă când inteligența artificială devine principalul filtru al realității?
Când un algoritm interpretează lumea în locul tău, orice mică eroare statistică poate deveni o mare distorsiune a adevărului.
Iar dacă nici măcar știrile nu mai sunt sigure, „adevărul” devine un produs de marketing.
EBU cere acum monitorizare constantă și audit independent al sistemelor AI – exact cum se verifică audiențele TV sau reclamele electorale.