- „Vibe-hacking”: Claude a fost folosit pentru extorcarea a 17 organizații, cu cereri de peste 500.000 $
- Fraude de angajare: nord-coreeni au obținut joburi la Fortune 500 cu ajutorul AI-ului
- Escrocherii romantice: Claude genera mesaje „emoționale” pentru a manipula victime
- Anthropic a blocat conturile implicate și a raportat cazurile autorităților
- Raportul arată că AI agentic transformă securitatea cibernetică: atacuri complexe devin accesibile oricui
Un nou raport Anthropic arată cât de creativi au devenit infractorii când au la dispoziție un model de tip agentic AI.
Un grup infracțional a folosit Claude Code pentru a lansa atacuri de tip „vibe-hacking”.
În doar o lună, au vizat 17 organizații, de la spitale și servicii de urgență, până la instituții religioase și guvernamentale. A.I.-ul a redactat cereri de răscumpărare „calibrate psihologic” și a calculat cât valorează datele pe dark web. Răscumpărările? Peste 500.000 de dolari.
De la Coreea de Nord la Fortune 500
Un alt capitol din raport: fraude de angajare. Lucrători IT din Coreea de Nord au folosit Claude pentru a trece interviuri tehnice și a obține joburi în companii Fortune 500. În loc să știe programare sau engleză avansată, candidații își lăsau A.I.-ul să facă treaba: de la cod până la e-mailuri profesionale.
Practic, Claude i-a ajutat să păstreze aparența de angajați competenți și să trimită bani regimului de la Phenian.
Dragoste falsă, scrisă impecabil
Raportul descrie și un bot de Telegram cu peste 10.000 de utilizatori, care promova Claude ca model „cu EQ ridicat”.
Rezultatul? Escrocherii romantice în care AI genera mesaje emoționale convingătoare, suficient de fluente pentru a câștiga încrederea victimelor din SUA, Japonia și Coreea. Cuvintele potrivite la momentul potrivit, dar în spatele lor nu era niciun suflet, ci un script.
Cum răspunde Anthropic
Compania susține că a blocat conturile implicate, a introdus clasificatori noi și a alertat agențiile guvernamentale.
Chiar și așa, recunoaște că barierele tehnice pot fi ocolite și că A.I.-ul scade drastic pragul de intrare în criminalitatea cibernetică: lucruri care odinioară necesitau echipe întregi pot fi făcute acum de o singură persoană cu acces la un model performant.
De ce contează?
Raportul nu descrie doar niște incidente izolate. El semnalează un salt în modul în care AI-ul este folosit abuziv: nu mai este doar un chatbot care oferă răspunsuri, ci un agent capabil să planifice, să execute și să mențină atacuri complexe.
Pentru companii și guverne, asta înseamnă că securitatea trebuie regândită, iar pentru utilizatori, că riscurile digitale au devenit mult mai sofisticate.