• Un studiu arată că modele A.I. au ales arme nucleare în 95% dintre conflictele simulate.
  • King’s College London observă că în 86% din cazuri, sistemele au escaladat peste propriile justificări inițiale.
  • Experții avertizează că, în situații cu timp de reacție foarte scurt, dependența de AI ar putea crește riscul de eroare.

Riscurile utilizării A.I. în strategia militară sunt îngrijorătoare. Mai multe modele au fost testate recent de cercetători de la King’s College London și ridică semne serioase de întrebare privind utilizarea inteligenței artificiale în planificarea militară. În simulări de crize geopolitice, trei dintre cele mai avansate modele lingvistice au arătat o tendință repetată de a escalada către utilizarea armelor nucleare tactice.

Ce a testat studiul de la King’s College în acest caz?

Dr. Kenneth Payne, specialist în studii de apărare la King’s College London, a introdus modelele A.I. în 21 de scenarii simulate care includeau conflicte de frontieră, crize de resurse și amenințări existențiale pentru state. Modelele au avut la dispoziție o „scară de escaladare”, de la diplomație până la confruntare nucleară totală. În total, au fost generate aproximativ 780.000 de cuvinte de raționament pentru 329 de decizii. Rezultatul: în 95% dintre conflicte, cel puțin o parte a ales utilizarea armelor nucleare tactice. Niciun model nu a ales capitularea completă sau acomodarea adversarului.

Ce tipare îngrijorătoare au fost observate?

În 86% dintre simulări, AI-urile au escaladat peste nivelul pe care chiar ele îl descriseseră anterior ca fiind adecvat. În loc să reducă tensiunea sub presiune, sistemele au avut tendința de a „dubla miza”.
Potrivit cercetătorilor, AI-urile nu par să resimtă „tabuul nuclear” care a modelat comportamentul uman de la sfârșitul celui de-Al Doilea Război Mondial. Lipsa unei percepții reale asupra pierderii sau supraviețuirii face ca riscurile existențiale să fie tratate ca simple variabile într-un model matematic.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

Există riscul ca A.I. să fie implicat direct în decizii nucleare?

Experții, inclusiv Tong Zhao de la Princeton University, consideră improbabil ca statele să ofere control autonom direct asupra arsenalelor nucleare. Totuși, în situații cu termene extrem de scurte – precum alertele de rachetă – presiunea de a folosi sisteme AI pentru recomandări rapide ar putea crește.


James Johnson, cercetător în securitate la University of Aberdeen, avertizează că interacțiunea între mai multe sisteme AI ar putea amplifica reacțiile reciproce, crescând riscul unei escaladări automate.

Studiul nu demonstrează că sistemele actuale sunt pregătite să declanșeze conflicte reale, însă evidențiază un risc structural: AI-ul nu percepe miza existențială a armelor nucleare așa cum o fac oamenii. Pe măsură ce inteligența artificială este integrată tot mai mult în procesele de securitate națională, cercetătorii insistă pe nevoia unor mecanisme stricte de supraveghere și limitare a utilizării în domenii cu consecințe ireversibile.