Sam Altman vrea mai mult control de stat asupra AI după scandalul Pentagon: „Nu companiile trebuie să decidă”

Sam Altman, CEO-ul OpenAI, schimbă tonul într-un moment sensibil pentru industrie. Într-un interviu acordat pe 2 aprilie 2026 podcastului „Mostly Human”, citat de Business Insider, acesta a recunoscut că a „miscalibrat” nivelul de neîncredere al publicului față de colaborările dintre companiile de inteligență artificială și guverne.

Pe scurt, reacția a fost mai dură decât se aștepta. Criticile nu au venit doar din zona activiștilor sau a societății civile, ci și din interiorul industriei tech și chiar din rândul utilizatorilor.

Afirmația lui Altman marchează o schimbare de poziție: de la optimismul tipic Silicon Valley la o abordare mai precaută, influențată de realitatea politică și socială.

De ce vrea ca statul, nu companiile, să controleze inteligența artificială

În mod surprinzător pentru un lider din Big Tech, Altman susține că deciziile majore legate de inteligența artificială nu ar trebui lăsate în mâinile companiilor private.

El argumentează că tehnologia a ajuns la un nivel de impact comparabil cu proiecte istorice precum programul nuclear sau cel spațial — domenii în care statul a avut control direct.

Ideea centrală: dacă AI influențează securitatea națională, economia și chiar informația publică, atunci trebuie să existe o legitimitate democratică în deciziile-cheie.

Această poziție vine într-un moment în care companiile tech sunt adesea criticate tocmai pentru lipsa de transparență și influența disproporționată asupra societății.

Cum a declanșat acordul cu Pentagonul o reacție publică puternică

Totul pornește de la un acord semnat în februarie 2026 între OpenAI și Departamentul Apărării al SUA, prin care compania furnizează modele AI pentru rețele clasificate.

Potrivit relatărilor din Business Insider și alte publicații, acordul permite utilizarea tehnologiei în „scopuri legale”, o formulare considerată prea largă de critici.

Reacția nu a întârziat:

În paralel, Altman a recunoscut că OpenAI nu controlează modul exact în care tehnologia este folosită după livrare — un detaliu care a amplificat îngrijorările.

De ce miza reală depășește OpenAI și redefinește regulile jocului

Cazul OpenAI este doar un simptom al unei dezbateri mai mari: cine ar trebui să controleze inteligența artificială într-o lume în care tehnologia devine infrastructură strategică?

Există două direcții majore:

Conflictul dintre OpenAI și Anthropic arată că nici industria nu are un consens. În timp ce unii acceptă colaborări militare, alții le resping din motive etice.

În acest context, apelul lui Altman nu este doar o poziție defensivă după un scandal. Este o încercare de a repoziționa dezbaterea: de la „cine dezvoltă AI” la „cine decide cum este folosită”.

Iar răspunsul la această întrebare va influența nu doar viitorul tehnologiei, ci și echilibrul de putere dintre state, companii și societate.

Exit mobile version