Sundar Pichai avertizează: „Nu credeți orbește ce spune AI-ul” – Google recunoaște limitele propriei tehnologii

Într-un interviu acordat BBC, Sundar Pichai transmite un mesaj pe cât de sincer, pe atât de necesar: nu luați de bune toate răspunsurile date de AI.

Motivul? Modelele actuale, inclusiv cele mai avansate, fac greșeli – și încă destul de des.

„Sunt instrumente puternice, dar trebuie folosite cu discernământ. AI-ul este predispus la erori”, spune șeful Google.

Cu alte cuvinte: foarte bun la creativitate, brainstorming sau cod, foarte riscant ca sursă de adevăr absolut.

Pichai insistă pe ideea unui „ecosistem bogat de informații”:

folosește AI-ul, dar verifică și prin căutări clasice, surse de presă, site-uri oficiale.

Un mesaj… surprinzător, venind de la compania care vrea să integreze AI în aproape toate produsele sale.

De la glumă la problemă: când AI Overviews a luat-o razna

Dacă avertismentul lui Pichai sună prudent, istoria recentă a produselor Google îi dă dreptate.

AI Overviews – funcția care rezumă rezultatele din Google Search – a devenit celebră prin câteva momente monumentale de „creativitate”:

Deși Google a promis corecții și filtrarea glumelor de pe Reddit, gafa a rămas în memoria colectivă, devenind „meme oficial” în competiția AI.

BBC confirmă: chatboții dau rateuri serioase la știri

Un studiu realizat de BBC a testat patru dintre cei mai folosiți chatboți – Gemini, ChatGPT, Copilot și Perplexity – dându-le articole reale de pe site-ul BBC.

Rezultatele sunt îngrijorătoare:

Asta nu înseamnă că AI-ul nu poate rezuma știri, ci că nu poate fi lăsat singur în cameră să facă asta fără verificare umană.

„Verificați voi ce spune AI-ul”? Experții nu sunt deloc convinși

Gina Neff, profesor de responsible AI, spune lucrurilor pe nume:

„Aceste sisteme inventează răspunsuri ca să ne mulțumească. Asta e periculos când vorbim despre sănătate, știință sau actualitate.”

Mai mult:

Neff acuză companiile Big Tech că aruncă responsabilitatea în cârca utilizatorilor:

„Nu poți să ceri oamenilor să verifice fiecare propoziție. Asta e responsabilitatea constructorului, nu a consumatorului.”

Mesajul e clar: AI-ul poate fi util, dar companiile nu se pot ascunde în spatele etichetelor „poate greși”.

Google își face temele: Gemini 3 și promisiuni de securitate

În paralel cu avertismentele, Pichai promovează lansarea Gemini 3, model conceput pentru:

Google spune că investește în:

Totuși, Pichai admite că inovația se mișcă mai rapid decât protecția – iar asta e o problemă sistemică în industrie.

Cum folosim AI-ul fără să picăm în capcană

Dacă ar fi să extragem câteva „reguli de bun-simț” din poziția lui Pichai și avertismentele experților:

  1. AI-ul e excelent la generat idei – nu la verdict final.
  2. Orice informație critică trebuie verificată prin surse solide.
  3. Un ton încrezător nu garantează acuratețea.
  4. Nu folosi AI-ul pentru decizii medicale, financiare sau juridice.
  5. Când ai dubii, mergi la sursa originală.

Pe scurt: AI-ul poate fi genial… dar nu e un bibliotecar omniscient.

Exit mobile version