Hackerii se joaca cu mintea chatbotilor AI. Planteaza minciuni in memoria robotilor ca sa ajunga la tine

ai-cyber-attacks.png

ai-cyber-attacks.png

Modelele AI care își amintesc conversațiile anterioare devin tot mai populare, dar o nouă amenințare pune în pericol siguranța acestora: atacul MINJA (Memory Injection Attack). Cercetătorii au descoperit o metodă prin care atacatorii pot modifica memoria unui AI fără să aibă acces direct la el, doar prin interacțiuni normale.

Cum funcționează atacul MINJA?

Atacul se bazează pe injectarea de informații false în memoria AI-ului. Practic, un utilizator rău intenționat poate trimite mesaje special create, iar AI-ul le reține și le folosește ulterior, afectând răspunsurile pentru alți utilizatori.

Exemplu:
Un AI folosit pentru cumpărături online poate începe să recomande produse greșite.
Un AI dintr-un spital ar putea asocia informații despre un pacient cu altul, ceea ce ar putea duce la diagnosticări greșite.

Atacul funcționează și pe modele AI mari

Cercetătorii au testat atacul MINJA pe GPT-4 și GPT-4o de la OpenAI și au descoperit că:
95% dintre încercările de a introduce date false au avut succes.
70% dintre răspunsurile AI au fost afectate de aceste manipulări.

Atacul este periculos pentru că pare natural, deci este greu de detectat de sistemele de securitate.

Ce putem face pentru a ne proteja?

Pentru îmbunătățirea securității, modelele AI trebuie să fie mai selective în ceea ce memorează, să detecteze date false înainte de a le folosi în conversații viitoare și să limiteze accesul la memorie, evitând stocarea automată a tuturor informațiilor.

Atacul MINJA arată cât de vulnerabile sunt modelele AI cu memorie și de ce trebuie protejate mai bine. Cu AI-ul integrat în tot mai multe domenii, securitatea sa devine esențială pentru toată lumea.

Exit mobile version