- Pe 28 februarie 2026, SUA și Israel au lovit Iranul într-o operațiune coordonată
- Chatbotul Grok indicase anterior exact aceeași dată, într-un exercițiu media
- Coincidență sau „super-putere” AI? Ce arată de fapt analiza
- Rolul rețelei X în viralizarea poveștii
- Ce ne spune episodul despre limitele inteligenței artificiale
Pe 28 februarie 2026, Israelul a anunțat că a lansat o lovitură preventivă împotriva Iranului, într-o operațiune coordonată cu SUA. Explozii au fost raportate la Teheran, sirenele au sunat în Israel, iar presa internațională a citat oficiali iranieni care au confirmat mutarea liderului suprem într-o locație securizată.
Advertisment
Potrivit Reuters, un oficial israelian din domeniul apărării a declarat că operațiunea fusese planificată de mai multe luni și că data lansării fusese stabilită cu săptămâni înainte. Cu alte cuvinte: decizia a fost strategică, militară și politică — nu algoritmică.
Și totuși, în paralel cu explozia militară, s-a produs și o explozie digitală: pe rețelele sociale a început să circule ideea că un chatbot ar fi „prezis” exact ziua atacului.
Exercițiul Jerusalem Post: patru AI-uri, o întrebare incomodă
Pe 25 februarie, cu trei zile înainte de atac, The Jerusalem Post a publicat un experiment jurnalistic: a cerut mai multor platforme de inteligență artificială să facă ceva ce, în mod normal, evită — să aleagă o zi exactă pentru un ipotetic atac american asupra Iranului.

Au fost testate patru modele: Claude (Anthropic), Gemini (Google), ChatGPT (OpenAI) și Grok, dezvoltat de compania xAI, fondată de Elon Musk.
Rezultatele au fost diferite:
- Claude a refuzat inițial să ofere o dată, invocând incertitudinea, apoi a sugerat un weekend din 7–8 martie.
- Gemini a lucrat cu „ferestre operaționale” și a indicat intervalul 4–6 martie, mai ales pe timp de noapte.
- ChatGPT a menționat inițial 1 martie, apoi a ajustat la 3 martie, menținând un interval de risc până pe 6 martie.
- Grok a oferit cel mai clar răspuns: 28 februarie — legând ipoteza de evoluția unor discuții diplomatice la Geneva.
Trei zile mai târziu, exact în acea zi, a început ofensiva.
Grok „a câștigat”? De ce coincidența nu înseamnă clarviziune
Pe „tabla de marcaj” a internetului, povestea a fost simplă: Grok a nimerit data. A „câștigat”.
Dar realitatea este mai puțin spectaculoasă și mai instructivă.

Modelele de inteligență artificială nu au acces la informații clasificate și nu pot „vedea” planuri militare secrete. Ele funcționează prin analizarea unor volume uriașe de date publice și identificarea unor tipare probabile. Într-un context de tensiuni ridicate, negocieri diplomatice în impas și mișcări militare vizibile, fereastra posibilă pentru un atac se restrânge.
Dacă există, de exemplu, o perioadă de 7–10 zile considerată „critică”, alegerea unei singure date devine, statistic, un pariu cu șanse rezonabile. Unul dintre modele avea să nimerească — iar în acest caz, a fost Grok.
Așa cum sublinia chiar analiza inițială din Jerusalem Post, pe măsură ce utilizatorii presează modelele pentru un răspuns ferm, acestea tind să devină mai specifice, chiar dacă realitatea rămâne incertă.
Efectul Elon Musk și viteza rețelei X
Faptul că „predicția” a venit de la Grok nu este un detaliu minor. Platforma este dezvoltată de xAI, compania lui Elon Musk, și este integrată direct în rețeaua X (fosta Twitter), deținută tot de Musk.

Asta înseamnă că:
- utilizatorii pot genera și distribui rapid capturi de ecran cu răspunsurile AI;
- comunitatea deja obișnuită cu breaking news, speculații și dezbateri geopolitice amplifică imediat subiectul;
- algoritmul platformei favorizează conținutul viral și controversat.
În câteva minute, „Grok a prezis războiul” a devenit o narațiune globală.
Ironia este că partea tehnologică a poveștii a devenit aproape la fel de discutată ca loviturile militare în sine.
Ce s-a întâmplat de fapt pe teren
Dincolo de coincidența digitală, operațiunea militară a avut o logică proprie. Potrivit relatărilor Reuters și declarațiilor oficialilor israelieni, atacul a fost coordonat cu SUA, pregătit de luni de zile și sincronizat în funcție de evaluări strategice.
Au fost raportate explozii în capitala iraniană și în alte locații considerate sensibile. Iranul a reacționat cu tiruri de rachete și drone, crescând riscul unei escaladări regionale.
Momentul a fost ales în contextul unor negocieri tensionate și al unor evaluări privind capacitățile militare iraniene. Nu există indicii că un model AI ar fi influențat în vreun fel decizia.
Lecția din spatele coincidenței
Povestea este mai puțin despre profeție și mai mult despre percepție.
Cazul arată:
- cât de ușor poate fi transformată o estimare probabilistică într-o „predicție miraculoasă”;
- cât de rapid circulă o narațiune într-un ecosistem digital concentrat;
- cât de important este contextul atunci când vorbim despre inteligență artificială și geopolitică.
Modelele AI sunt instrumente statistice sofisticate, nu oracole. Ele pot analiza tipare, dar nu pot accesa secrete de stat și nu pot anticipa decizii politice luate în camere închise.
Într-o lume în care conflictele reale se desfășoară simultan cu războaie informaționale, coincidențele devin combustibil pentru mituri. Iar miturile, odată viralizate, pot părea mai puternice decât faptele.
Pe 28 februarie 2026, lumea a asistat la un episod militar major între SUA, Israel și Iran. În paralel, a asistat și la un experiment involuntar despre cum interpretăm — și uneori supra-interpretăm — capacitățile inteligenței artificiale.
Citește și
- Elon Musk poluează atmosfera cu litium după ce Falcon 9 al SpaceX s-a prăbușit în 2025
- Bill Gates își anulează discursul la India AI Impact Summit în ultimul moment după noile dezvăluiri din Cazul Jeffrey Epstein
- NASA anunță cel mai îndepărtat zbor uman din istorie și primul zbor uman în jurul Lunii după 50 de ani. Când va decola Artemis II
Partenerii noștri