- Aceștia pot identifica vulnerabilități și lansa atacuri sofisticate pentru a fura informații sensibile
- Modele precum Claude LLM au demonstrat că pot crea atacuri cibernetice eficiente, confirmând temerile experților
- Cercetătorii folosesc „honeypots” pentru a atrage și detecta agenții AI care încearcă să acceseze servere guvernamentale și militare
Agenții AI au fost cel mai discutat subiect de la începutul anului, fiind capabili să planifice, să gândească și să execute sarcini complexe în locul nostru. Aceste lucruri, deși par benefice la început, pot fi folosite și în scopuri mai puțin etice.
Atacuri cibernetice coordonate
Premisa agenților AI, prezentată de MIT Technology, este simplă: aceștia ar putea identifica puncte vulnerabile, exploatându-le pentru a obține informații vitale sau sensibile.
În prezent, astfel de atacuri cibernetice sunt încă teoretice, dar cercetătorii au demonstrat că modelele AI pot deveni periculoase. De exemplu, Claude LLM (dezvoltat de Anthropic) a reușit să creeze un atac menit să fure informații sensibile.
„Cred că, în cele din urmă, vom trăi într-o lume în care majoritatea atacurilor cibernetice sunt efectuate de agenți”, spune Mark Stockley, expert în securitate la Malwarebytes.
LLM – un posibil hub pentru hacking?
Experții în securitate cibernetică analizează pericolul agenților AI, însă principala provocare rămâne: cum putem detecta și preveni aceste atacuri?
Palisade Research a încercat să răspundă la această întrebare dezvoltând LLM Agent Honeypot, un sistem care simulează servere guvernamentale sau militare pentru a atrage și identifica agenții AI rău intenționați.
„Intenția noastră a fost să oferim dovezi concrete pentru preocupările teoretice ale experților”, explică Dmitrii Volkov, director de cercetare la Palisade Research.