- Anthropic a reluat negocierile cu Departamentul Apărării al SUA după ce a refuzat o clauză contractuală legată de analiza datelor în masă
- Pentagonul a amenințat compania cu eticheta „supply chain risk”, o sancțiune rar aplicată unei firme americane
- Disputa reflectă tensiunea dintre industria de inteligență artificială și armata SUA privind limitele etice ale tehnologiei
- În paralel, rivalul OpenAI a încheiat propriul acord militar, amplificând competiția dintre companiile AI
- Conflictul ridică o întrebare esențială: cine stabilește regulile când AI devine infrastructură strategică pentru securitatea națională
Relația dintre companiile de inteligență artificială și armata americană devine tot mai complicată. Startup-ul Anthropic, unul dintre cei mai importanți rivali ai OpenAI, a reluat negocierile cu Departamentul Apărării al SUA (DoD) pentru a salva un contract militar care risca să se transforme într-un conflict politic și industrial major.
Potrivit relatărilor publicate de Financial Times și Bloomberg, CEO-ul companiei, Dario Amodei, discută din nou cu Emil Michael, subsecretar al Apărării pentru cercetare și inginerie, pentru a găsi o formulă acceptabilă pentru ambele părți.
Cum a început conflictul
Anthropic semnase în 2025 un contract de aproximativ 200 de milioane de dolari cu Pentagonul pentru utilizarea modelelor sale de inteligență artificială în aplicații de securitate națională.
Problemele au apărut în momentul renegocierii termenilor contractuali. Compania a insistat să introducă formulări care să limiteze utilizarea tehnologiei sale în anumite scenarii sensibile, în special:
- supraveghere în masă,
- sisteme militare complet autonome.
Blocajul s-a produs în jurul unei singure expresii din contract: „analysis of bulk acquired data”, adică analiza unor volume foarte mari de date colectate.
Într-un memo intern citat de Financial Times, Amodei le-a spus angajaților că aceasta era exact situația pe care compania o considera cea mai riscantă – posibilitatea ca AI să fie folosit pentru analizarea unor baze de date uriașe despre populație.
Reacția dură a Pentagonului
Refuzul companiei a provocat o reacție dură din partea guvernului american.
Potrivit mai multor publicații, Departamentul Apărării a amenințat că va desemna Anthropic drept „supply chain risk” – o etichetă de securitate care poate bloca o companie din contractele guvernamentale și din ecosistemul militar.
În mod normal, această clasificare este rezervată companiilor străine considerate riscante pentru securitatea națională, în special firme din China. Aplicarea ei unei companii americane de inteligență artificială ar fi un precedent rar.
Situația s-a complicat și mai mult după ce administrația Donald Trump a ordonat agențiilor federale să înceapă eliminarea tehnologiei Anthropic, oferind totuși o perioadă de tranziție de șase luni pentru renunțarea completă la sistemele companiei.
AI militară devine un teren de competiție între giganții tech
Criza a avut și un efect imediat asupra competiției dintre companiile din domeniul inteligenței artificiale.
În timp ce Anthropic negocia cu Pentagonul, rivalul său direct, OpenAI, a anunțat că a semnat propriul acord cu Departamentul Apărării pentru utilizarea tehnologiei sale în sisteme guvernamentale sensibile.
CEO-ul OpenAI, Sam Altman, a declarat ulterior că firmele de tehnologie nu controlează modul în care armata folosește sistemele după semnarea contractelor. Într-o întâlnire internă cu angajații, el ar fi spus că astfel de decizii sunt „operaționale” și aparțin exclusiv guvernului.
Declarațiile au stârnit reacții în industrie. Într-un mesaj către angajați, Amodei a sugerat că unele afirmații venite din partea rivalilor ar fi „pur și simplu false”, potrivit relatărilor din presă.
De ce este important acest conflict
Disputa dintre Anthropic, OpenAI și Departamentul Apărării al SUA reflectă o transformare majoră: inteligența artificială devine infrastructură strategică pentru securitatea națională.
Guvernele vor acces la cele mai performante modele AI pentru:
- analiză de informații,
- planificare militară,
- sisteme autonome.
În același timp, companiile de tehnologie încearcă să introducă limitări etice și contractuale, pentru a evita scenarii precum supravegherea populației sau armele complet autonome.
Reluarea negocierilor dintre Anthropic și Pentagon arată că niciuna dintre părți nu își permite o ruptură totală. Armata are nevoie de tehnologie, iar companiile au nevoie de contracte guvernamentale.

