- OpenAI a încheiat recent un acord cu Departamentul Apărării al SUA pentru utilizarea modelelor sale de inteligență artificială în infrastructura militară
- CEO-ul Sam Altman a recunoscut ulterior că anunțul contractului a fost făcut „prea în grabă”, iar comunicarea a părut „sloppy”
- După reacțiile publice, compania a modificat termenii acordului, interzicând explicit utilizarea AI pentru supravegherea cetățenilor americani
- Episodul a alimentat rivalitatea cu Anthropic, compania din spatele modelului Claude, care refuzase anterior un acord similar cu Pentagonul
- Controversa readuce în prim-plan întrebarea esențială: câtă încredere pot avea utilizatorii și guvernele în companiile care dezvoltă tehnologie AI
La finalul lunii februarie 2026, compania OpenAI, cunoscută pentru dezvoltarea ChatGPT, a confirmat că a ajuns la un acord cu Departamentul Apărării al Statelor Unite. Scopul contractului este integrarea unor modele de inteligență artificială în infrastructura tehnologică a armatei americane.
Advertisment
Potrivit informațiilor apărute în presă, sistemele AI ar putea fi folosite pentru analiză de date, procesarea unor volume mari de informații sau sprijin în operațiuni de securitate cibernetică. Astfel de tehnologii pot identifica rapid tipare în baze de date uriașe sau pot accelera procesele de analiză strategică.
În teorie, acestea sunt roluri „de suport”, nu decizii de luptă. Totuși, faptul că un model AI ar putea ajunge într-un ecosistem militar a fost suficient pentru a declanșa o dezbatere intensă în industrie.
Sam Altman admite: anunțul a fost făcut prea repede
Controversa nu a fost provocată doar de acordul în sine, ci și de modul în care a fost comunicat.

După reacțiile puternice din spațiul public, CEO-ul OpenAI Sam Altman a recunoscut că firma s-a grăbit atunci când a făcut public contractul. Într-un mesaj public, acesta a scris că anunțul de vineri seară „nu ar fi trebuit să fie făcut atât de repede” și că subiectul este mult mai complex decât părea inițial.
Altman a mai spus că echipa încerca să evite o situație „mult mai problematică”, însă rezultatul a fost perceput drept oportunist și neglijent.
Ca urmare, compania a clarificat rapid termenii acordului. Una dintre modificările importante este interdicția explicită privind utilizarea modelelor OpenAI pentru supravegherea cetățenilor americani.
Această precizare a fost menită să reducă temerile că tehnologia ar putea fi folosită pentru monitorizarea populației sau pentru programe de supraveghere internă.
Rivalitatea dintre OpenAI și Anthropic complică peisajul AI
În culise, povestea are și o dimensiune competitivă.
Înainte ca OpenAI să semneze contractul, Pentagonul ar fi negociat cu Anthropic, compania care dezvoltă modelul AI Claude. Potrivit relatărilor din presă, Anthropic ar fi refuzat anumite cerințe legate de utilizarea militară a tehnologiei sale.

După blocarea negocierilor, OpenAI a devenit partenerul ales pentru implementarea AI în infrastructura militară.
Această situație a alimentat rivalitatea dintre cele două companii, într-un moment în care industria inteligenței artificiale se află deja într-o competiție intensă pentru contracte guvernamentale și proiecte strategice.
În contextul geopolitic actual, guvernele sunt tot mai interesate de AI pentru aplicații de securitate și analiză militară. Contractele de acest tip pot deveni extrem de valoroase și pot influența direcția tehnologică a întregii industrii.
De ce episodul ridică întrebări despre încrederea în tehnologia AI
Dincolo de detaliile contractuale, episodul scoate la iveală o problemă mai largă: încrederea.

Utilizatorii obișnuiți folosesc zilnic instrumente bazate pe inteligență artificială pentru muncă, educație sau comunicare. În acest proces, ei oferă sistemelor AI acces la informații personale, profesionale și uneori sensibile.
De aceea, modul în care companiile gestionează acorduri sensibile – cum ar fi colaborarea cu armata – devine un test de credibilitate.
Criticii spun că deciziile luate în grabă pot submina încrederea publicului. Susținătorii colaborării cu guvernele argumentează însă că ignorarea AI în domeniul securității ar putea lăsa statele democratice în urmă într-o competiție globală pentru tehnologie.
Realitatea este probabil undeva la mijloc.
Tehnologia AI devine rapid infrastructură critică, iar deciziile despre modul în care este folosită nu mai sunt doar tehnice. Ele sunt politice, etice și strategice.
Episodul OpenAI–Pentagon arată exact acest lucru: într-o lume în care inteligența artificială devine din ce în ce mai puternică, fiecare contract poate declanșa o dezbatere globală.
Citește și
- Indiana mizează pe bitcoin pentru pensii, dar scoate din priză ATM-urile crypto
- OpenAI pariază pe Londra. Cel mai mare hub de cercetare din afara SUA prinde contur
- Când un chatbot nimerește data unui război. Cazul Grok, Israel–SUA și atacul asupra Iranului
Partenerii noștri