Când un chatbot nimerește data unui război. Cazul Grok, Israel–SUA și atacul asupra Iranului

Pe 28 februarie 2026, Israelul a anunțat că a lansat o lovitură preventivă împotriva Iranului, într-o operațiune coordonată cu SUA. Explozii au fost raportate la Teheran, sirenele au sunat în Israel, iar presa internațională a citat oficiali iranieni care au confirmat mutarea liderului suprem într-o locație securizată.

Potrivit Reuters, un oficial israelian din domeniul apărării a declarat că operațiunea fusese planificată de mai multe luni și că data lansării fusese stabilită cu săptămâni înainte. Cu alte cuvinte: decizia a fost strategică, militară și politică — nu algoritmică.

Și totuși, în paralel cu explozia militară, s-a produs și o explozie digitală: pe rețelele sociale a început să circule ideea că un chatbot ar fi „prezis” exact ziua atacului.

Exercițiul Jerusalem Post: patru AI-uri, o întrebare incomodă

Pe 25 februarie, cu trei zile înainte de atac, The Jerusalem Post a publicat un experiment jurnalistic: a cerut mai multor platforme de inteligență artificială să facă ceva ce, în mod normal, evită — să aleagă o zi exactă pentru un ipotetic atac american asupra Iranului.

Au fost testate patru modele: Claude (Anthropic), Gemini (Google), ChatGPT (OpenAI) și Grok, dezvoltat de compania xAI, fondată de Elon Musk.

Rezultatele au fost diferite:

Trei zile mai târziu, exact în acea zi, a început ofensiva.

Grok „a câștigat”? De ce coincidența nu înseamnă clarviziune

Pe „tabla de marcaj” a internetului, povestea a fost simplă: Grok a nimerit data. A „câștigat”.

Dar realitatea este mai puțin spectaculoasă și mai instructivă.

Modelele de inteligență artificială nu au acces la informații clasificate și nu pot „vedea” planuri militare secrete. Ele funcționează prin analizarea unor volume uriașe de date publice și identificarea unor tipare probabile. Într-un context de tensiuni ridicate, negocieri diplomatice în impas și mișcări militare vizibile, fereastra posibilă pentru un atac se restrânge.

Dacă există, de exemplu, o perioadă de 7–10 zile considerată „critică”, alegerea unei singure date devine, statistic, un pariu cu șanse rezonabile. Unul dintre modele avea să nimerească — iar în acest caz, a fost Grok.

Așa cum sublinia chiar analiza inițială din Jerusalem Post, pe măsură ce utilizatorii presează modelele pentru un răspuns ferm, acestea tind să devină mai specifice, chiar dacă realitatea rămâne incertă.

Efectul Elon Musk și viteza rețelei X

Faptul că „predicția” a venit de la Grok nu este un detaliu minor. Platforma este dezvoltată de xAI, compania lui Elon Musk, și este integrată direct în rețeaua X (fosta Twitter), deținută tot de Musk.

Asta înseamnă că:

În câteva minute, „Grok a prezis războiul” a devenit o narațiune globală.

Ironia este că partea tehnologică a poveștii a devenit aproape la fel de discutată ca loviturile militare în sine.

Ce s-a întâmplat de fapt pe teren

Dincolo de coincidența digitală, operațiunea militară a avut o logică proprie. Potrivit relatărilor Reuters și declarațiilor oficialilor israelieni, atacul a fost coordonat cu SUA, pregătit de luni de zile și sincronizat în funcție de evaluări strategice.

Au fost raportate explozii în capitala iraniană și în alte locații considerate sensibile. Iranul a reacționat cu tiruri de rachete și drone, crescând riscul unei escaladări regionale.

Momentul a fost ales în contextul unor negocieri tensionate și al unor evaluări privind capacitățile militare iraniene. Nu există indicii că un model AI ar fi influențat în vreun fel decizia.

Lecția din spatele coincidenței

Povestea este mai puțin despre profeție și mai mult despre percepție.

Cazul arată:

Modelele AI sunt instrumente statistice sofisticate, nu oracole. Ele pot analiza tipare, dar nu pot accesa secrete de stat și nu pot anticipa decizii politice luate în camere închise.

Într-o lume în care conflictele reale se desfășoară simultan cu războaie informaționale, coincidențele devin combustibil pentru mituri. Iar miturile, odată viralizate, pot părea mai puternice decât faptele.

Pe 28 februarie 2026, lumea a asistat la un episod militar major între SUA, Israel și Iran. În paralel, a asistat și la un experiment involuntar despre cum interpretăm — și uneori supra-interpretăm — capacitățile inteligenței artificiale.

Exit mobile version