- Modelele noi de inteligență artificială pot automatiza atacuri informatice complexe
- Anthropic avertizează asupra unui sistem intern numit „Claude Mythos”
- Primele atacuri coordonate în mare parte de AI au fost deja raportate
- „Shadow AI” transformă angajații în verigi slabe fără să știe
- Experții spun că 2026 ar putea fi anul în care atacurile AI devin mainstream
În ultimii ani, inteligența artificială a fost prezentată mai ales ca un instrument util: scrie texte, analizează date, ajută programatori. Dar aceeași tehnologie intră acum într-o zonă mult mai sensibilă: securitatea cibernetică.
Potrivit unei analize publicate de Axios (martie 2026), oficiali guvernamentali și lideri din industrie avertizează că noile modele AI sunt „scary good” la hacking — adică extrem de eficiente în identificarea și exploatarea vulnerabilităților informatice.
Nu mai vorbim despre un hacker cu laptopul într-un subsol, ci despre sisteme care pot rula continuu, la scară masivă, fără pauză.
Cine sunt actorii: giganții tech și guvernele, în alertă discretă
În centrul discuției se află Anthropic, una dintre companiile majore din zona AI, care dezvoltă un model experimental numit „Claude Mythos”.
Informațiile despre acest sistem au apărut după ce un document intern a fost obținut de presă, inclusiv de Fortune și Indian Express. Modelul este descris ca fiind „mult înaintea altora” în capabilități de cyber.
Potrivit Axios, Anthropic ar fi avertizat în privat oficiali guvernamentali că astfel de sisteme ar putea crește semnificativ probabilitatea unor atacuri cibernetice la scară largă chiar din 2026.
Pe scurt: nu e doar o problemă tehnică, ci una de securitate națională.
Cum funcționează: agenții autonomi care nu obosesc niciodată
Diferența majoră vine din apariția „agenților AI” — programe capabile să ia decizii și să execute sarcini complexe fără intervenție constantă umană.
Imaginează-ți un „angajat digital” care:
- caută vulnerabilități într-un sistem,
- testează mii de variante de atac,
- învață din fiecare eșec,
- continuă până reușește.
Acum imaginează-ți mii sau milioane de astfel de agenți.
Aceasta este schimbarea fundamentală: atacurile nu mai sunt limitate de numărul de oameni implicați. Un singur actor, cu suficientă putere de calcul, poate orchestra operațiuni care înainte necesitau echipe întregi.
Când a devenit real: de la primele atacuri în 2025 la riscuri în 2026
Dacă pare science fiction, merită menționat că primele exemple există deja.
Anthropic a raportat, conform Axios, un caz din 2025 în care un grup susținut de stat a folosit AI pentru a ataca aproximativ 30 de ținte globale. În acel caz, AI-ul a gestionat până la 90% din operațiuni.
De atunci, modelele au evoluat rapid.
Estimările actuale indică faptul că 2026 ar putea fi anul în care astfel de atacuri devin mai frecvente și mai greu de detectat — nu excepții, ci parte din „noua normalitate” a internetului.
De ce contează: companiile sunt vulnerabile chiar din interior
Poate cel mai surprinzător risc nu vine din exterior, ci din interiorul organizațiilor.
Fenomenul numit „shadow AI” descrie situațiile în care angajații folosesc instrumente AI fără aprobarea sau controlul companiei — uneori conectându-le la sisteme interne sensibile.
Rezultatul? Se creează „uși laterale” pe care atacatorii le pot exploata.
Un sondaj citat de Dark Reading arată că 48% dintre profesioniștii în securitate consideră agenții AI principalul vector de atac pentru 2026 — mai important decât deepfake-urile sau alte amenințări.
În paralel, companiile încearcă să construiască medii controlate („sandbox” sau „playpen”) unde angajații pot experimenta cu AI fără riscuri majore.
În final, nu tehnologia în sine este problema, ci viteza cu care evoluează și modul în care este folosită.
Inteligența artificială devine simultan cel mai puternic instrument de apărare și cea mai eficientă armă de atac din spațiul digital.
Diferența o va face, probabil, cât de repede reușesc organizațiile și guvernele să țină pasul.

