- Departamentul Apărării al SUA va putea folosi Grok, modelul de inteligență artificială dezvoltat de xAI, compania lui Elon Musk, în rețele clasificate
- Până acum, doar modelul Claude (Anthropic) era autorizat pentru cele mai sensibile operațiuni militare
- Disputa dintre Pentagon și Anthropic a vizat utilizarea AI pentru supraveghere în masă și arme autonome
- xAI a acceptat condiția ca tehnologia sa să poată fi folosită pentru „toate scopurile legale”.
- Decizia marchează o etapă nouă în cursa pentru integrarea AI în infrastructura militară a SUA
Departamentul Apărării al Statelor Unite a ajuns la un acord care permite integrarea modelului Grok AI, dezvoltat de compania xAI a lui Elon Musk, în sisteme militare clasificate. Informația a fost relatată inițial de publicația Axios, pe fondul unor tensiuni tot mai vizibile între Pentagon și alți furnizori de inteligență artificială.
Până în prezent, doar modelul Claude, dezvoltat de compania americană Anthropic, avea acces la cele mai sensibile infrastructuri digitale ale armatei SUA. Acestea includ aplicații pentru analiză de informații, sprijin în planificarea operațiunilor și, potrivit relatărilor din presa americană, chiar componente legate de dezvoltarea de sisteme militare avansate.
De la Claude la Grok: o schimbare strategică în AI militar
Schimbarea nu este doar tehnologică, ci și strategică. Pentagonul încearcă să evite dependența de un singur furnizor de AI într-un moment în care competiția globală – în special cu China – se mută tot mai mult în zona algoritmilor, procesării de date și automatizării deciziilor.
Grok, lansat inițial ca un chatbot integrat în platforma X (fostul Twitter), este poziționat de xAI drept un model capabil să ofere răspunsuri rapide, cu acces la fluxuri de informații în timp real. Versiunea destinată agențiilor guvernamentale a fost anunțată în 2025, iar acum pare să fi trecut pragul cel mai sensibil: utilizarea în rețele clasificate.
Totuși, potrivit unor oficiali citați de presa americană, Grok nu este considerat, cel puțin în acest moment, la fel de avansat sau stabil ca modelul Claude. Integrarea sa în sisteme critice ar putea presupune ajustări tehnice și procedurale importante.
Disputa etică ce a deschis ușa pentru Xai
Mutarea vine pe fondul unei divergențe între Pentagon și Anthropic. Departamentul Apărării ar fi cerut ca modelul Claude să fie disponibil pentru „toate scopurile legale”, formulare care ar include, potrivit surselor citate, aplicații precum supravegherea în masă sau dezvoltarea de arme autonome.
Anthropic a refuzat să ofere tehnologia în astfel de condiții, invocând propriile politici de siguranță și limitele impuse de companie privind utilizarea AI în sisteme letale sau de control extins al populației. Chiar și cu așa-numite „safety stack”-uri – straturi suplimentare de protecție și filtrare – compania nu ar fi acceptat extinderea utilizării fără restricții.
În contrast, xAI ar fi acceptat condiția Pentagonului privind utilizarea pentru orice scop considerat „legal”. Diferența de abordare reflectă o divizare tot mai clară în industria AI: unii dezvoltatori pun accent pe limitări etice stricte, în timp ce alții oferă statelor un cadru mai flexibil, atâta timp cât activitatea se încadrează în legislația națională.
Ce înseamnă pentru securitatea națională și industria tech
Decizia Pentagonului este relevantă din cel puțin trei motive.
În primul rând, confirmă că inteligența artificială militară nu mai este un experiment, ci o componentă integrată a infrastructurii de securitate. Modelele AI sunt deja folosite pentru analiză de date masive, identificarea tiparelor în informații clasificate și sprijin în luarea deciziilor operaționale.
În al doilea rând, mutarea accentuează tensiunea dintre obiectivele de securitate națională și principiile de etică tehnologică promovate de o parte a industriei. Refuzul Anthropic arată că nu toate companiile sunt dispuse să ofere tehnologia lor pentru orice aplicație militară, chiar dacă aceasta este „legală”.
În al treilea rând, competiția rămâne deschisă. Pentagonul ar purta discuții și cu alți jucători majori, precum OpenAI și Google (cu modelul Gemini), pentru extinderea utilizării AI în rețele clasificate și neclasificate. Diversificarea furnizorilor este, din perspectiva Washingtonului, o măsură de reziliență strategică.
Integrarea Grok în sisteme clasificate vine și cu o notă de ironie: cu doar câteva luni înainte, chatbotul xAI fusese criticat public pentru răspunsuri controversate și episoade de discurs extremist generate automat. Pentru Pentagon, însă, criteriul central pare să fie disponibilitatea tehnologiei și capacitatea de adaptare la cerințele instituționale.
Într-o perioadă în care AI în apărare devine un pilon al strategiei globale, acordul cu xAI arată că linia dintre Silicon Valley și complexul militar-industrial este tot mai subțire — iar deciziile luate acum vor influența modul în care tehnologia este folosită pe câmpul de luptă și în spațiul informațional în următorul deceniu.

