- Un grup restrâns de utilizatori a obținut acces neautorizat la modelul Claude Mythos, dezvoltat de Anthropic
- Accesul ar fi avut loc pe 7 aprilie 2026, chiar în ziua lansării limitate către companii selectate
- Breșa ar fi implicat un contractor terț și tehnici de investigare online inspirate dintr-un alt leak (Mercor)
- Anthropic investighează cazul și spune că nu există dovezi că sistemele sale interne au fost afectate
- Incidentul ridică semne de întrebare majore despre securitatea și controlul modelelor avansate de inteligență artificială
Unul dintre cele mai sensibile proiecte din zona inteligenței artificiale a ieșit, pentru scurt timp, din controlul dezvoltatorilor săi. Modelul Claude Mythos, creat de compania americană Anthropic și descris drept un instrument extrem de puternic în securitate cibernetică, a fost accesat fără autorizație de un grup restrâns de utilizatori activi pe Discord.
Cum a ajuns un model „top secret” pe Discord
Potrivit informațiilor publicate de Bloomberg și preluate de publicații precum Inc. și Cybernews, accesul neautorizat ar fi avut loc pe 7 aprilie 2026 — chiar în ziua în care Anthropic anunța lansarea limitată a modelului către câteva companii selectate.
Un grup privat, interesat de modele AI nelansate public, ar fi reușit să pătrundă în sistem folosind o combinație de acces legitim (prin intermediul unui contractor terț) și tehnici de investigare online. Practic, utilizatorii au „pus cap la cap” informații din mai multe surse și au ghicit unde și cum este găzduit modelul.
Mai mult, aceștia nu doar că au accesat Mythos, ci l-au folosit timp de aproximativ două săptămâni, oferind chiar dovezi (capturi de ecran și demonstrații live) pentru a-și susține afirmațiile în fața jurnaliștilor.
Anthropic a confirmat că investighează cazul, precizând că, până acum, nu există indicii că infrastructura sa principală ar fi fost compromisă, incidentul fiind limitat la mediul contractorului.
Ce este Claude Mythos și de ce sperie industria tech
Nu vorbim despre un chatbot obișnuit. Claude Mythos este un model de inteligență artificială conceput pentru a detecta și exploata vulnerabilități software — exact genul de activitate care, în mâini nepotrivite, poate deveni o armă digitală.
Conform datelor citate de Inc. și Economic Times, modelul este capabil:
- să identifice vulnerabilități în sisteme de operare majore și browsere
- să descopere bug-uri critice, inclusiv de tip „zero-day”
- să automatizeze procese complexe de testare a securității
Din acest motiv, Anthropic a decis să nu îl lanseze public și să limiteze accesul la un grup restrâns de parteneri — giganți tech precum Google, Amazon, Microsoft sau Apple, dar și instituții guvernamentale.
În esență, Mythos este un instrument „dual-use”: poate ajuta la securizarea sistemelor, dar și la spargerea lor.
Breșa de securitate: combinația de insider și „detectivi online”
Detaliile tehnice ale breșei sunt încă investigate, însă informațiile disponibile conturează un scenariu familiar în securitatea modernă: o combinație între factor uman și ingeniozitate tehnică.
Accesul ar fi fost posibil prin:
- utilizarea accesului oferit unui contractor extern
- analiza unor date obținute dintr-o breșă anterioară (legată de Mercor)
- aplicarea tehnicilor de tip OSINT (open-source intelligence), adică investigarea datelor publice
Cu alte cuvinte, nu a fost neapărat un hack spectaculos, ci mai degrabă o demonstrație că, uneori, sistemele complexe pot fi vulnerabile la combinații simple de informații aparent inofensive.
Interesant este că membrii grupului ar fi evitat să folosească modelul pentru activități de hacking propriu-zise, tocmai pentru a nu atrage atenția.
De ce contează incidentul pentru viitorul inteligenței artificiale
Dincolo de spectacolul unui „AI secret” ajuns pe Discord, cazul ridică întrebări serioase despre viitorul modelelor avansate de inteligență artificială.
În primul rând, evidențiază cât de dificil devine controlul accesului la tehnologii extrem de puternice, mai ales atunci când sunt implicate rețele de parteneri și contractori.
În al doilea rând, subliniază riscul ca astfel de modele să fie folosite în scopuri malițioase. Dacă Mythos poate găsi vulnerabilități mai rapid decât experții umani, atunci, în mâinile greșite, ar putea accelera atacurile cibernetice la scară largă.
Nu în ultimul rând, incidentul vine într-un moment sensibil: autoritățile americane analizează deja integrarea unor astfel de modele în agenții guvernamentale, ceea ce crește miza securității.
Deocamdată, Anthropic susține că impactul este limitat. Dar episodul ar putea deveni un punct de referință în dezbaterea despre cât de „deschise” sau „închise” ar trebui să fie modelele de inteligență artificială din generația următoare.

