• OpenAI pregătește un model avansat de inteligență artificială pentru securitate cibernetică, dar îl lansează controlat
  • Accesul va fi limitat la organizații selectate, pentru a evita abuzurile
  • Decizia vine pe fondul temerilor că AI-ul poate automatiza atacuri informatice complexe
  • Anthropic a făcut deja un pas similar cu modelul Mythos
  • Experții avertizează că aceste capabilități vor deveni inevitabil accesibile la scară largă

OpenAI finalizează un nou model de inteligență artificială cu abilități avansate în securitate cibernetică, dar, spre deosebire de lansările anterioare, nu îl va face public imediat. Potrivit unei investigații Axios, compania a ales o strategie de lansare etapizată, oferind acces doar unui grup restrâns de companii atent selectate.

Modelul este capabil nu doar să identifice vulnerabilități în cod, ci și să sugereze sau chiar să construiască metode de exploatare — un nivel de autonomie care schimbă regulile jocului în domeniu.

O competiție între giganți, cu reguli noi

OpenAI nu este singura companie care face acest pas. Anthropic, unul dintre principalii săi rivali, a anunțat recent că modelul său Mythos va fi disponibil doar pentru un grup limitat de organizații, din cauza capacităților sale avansate de hacking.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

În paralel, companii de securitate precum Palo Alto Networks sau CrowdStrike și experți din organizații precum SANS Institute avertizează că aceste tehnologii pot fi folosite atât defensiv, cât și ofensiv — iar diferența o face doar cine are acces la ele.

AI-ul care poate gândi ca un hacker

Noile modele nu mai sunt simple instrumente de analiză. Ele pot parcurge baze de cod, identifica puncte slabe și construi scenarii de atac aproape autonom.

OpenAI a testat deja astfel de capabilități prin programul „Trusted Access for Cyber”, lansat în februarie 2026, care oferă acces controlat la modele mai „permisive” pentru cercetare defensivă. Compania a alocat și 10 milioane de dolari în credite API pentru participanți, semn că miza este serioasă.

Această abordare seamănă cu practica din securitatea software numită „responsible disclosure” — adică dezvăluirea controlată a vulnerabilităților pentru a preveni exploatarea lor.

Momentul în care AI-ul trece pragul critic

Decizia vine într-un moment în care modelele AI au atins un nivel de performanță considerat de experți drept un „punct de cotitură”. Potrivit Axios, oficiali guvernamentali și lideri din industrie avertizează de luni bune că astfel de sisteme ar putea viza infrastructuri critice — de la rețele electrice până la sisteme financiare.

Mai mult, cercetări recente arată că și modelele deja disponibile public pot descoperi unele vulnerabilități, ceea ce sugerează că problema nu mai este ipotetică.

O tehnologie care nu mai poate fi oprită

Mesajul din industrie este clar: chiar dacă accesul este limitat temporar, aceste capabilități nu pot fi „dez-inventate”.

Rob T. Lee, de la SANS Institute, explică direct: abilitatea de a analiza cod și de a găsi vulnerabilități există deja și nu mai poate fi retrasă. Alți experți, precum Wendi Whitmore de la Palo Alto Networks, estimează că modele similare vor deveni disponibile pe scară largă în doar câteva luni.

Asta pune companiile într-o poziție delicată: dacă lansează prea repede, riscă abuzuri; dacă întârzie prea mult, pierd controlul asupra tehnologiei care oricum va apărea în alte forme.

Citește și