• Google lansează agenți de inteligență artificială Gemini pentru monitorizarea dark web
  • Sistemul analizează până la 10 milioane de postări zilnic pentru a identifica amenințări
  • Compania susține o rată de acuratețe de până la 98% în filtrarea riscurilor reale
  • AI-ul construiește profiluri detaliate ale companiilor pentru a detecta atacuri relevante
  • Apar însă îngrijorări că aceste instrumente pot deveni, la rândul lor, vulnerabile

Google duce inteligența artificială într-un teritoriu mai puțin vizibil al internetului: dark web-ul.

Într-un serviciu lansat în versiune de test public (public preview), compania folosește agenți AI Gemini pentru a analiza masiv activitatea din zonele online frecvent asociate cu criminalitatea cibernetică. Potrivit informațiilor publicate de The Register pe 23 martie 2026, sistemul procesează între 8 și 10 milioane de postări pe zi.

Nu este vorba doar de scanare superficială. AI-ul citește, compară și încearcă să înțeleagă contextul — de la anunțuri de vânzare de date furate până la discuții între hackeri despre posibile ținte.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

Ideea este simplă: dacă cineva vorbește despre tine pe dark web, ar fi bine să afli înainte să fie prea târziu.

De la spam la semnal: AI-ul încearcă să curețe haosul din securitate

În lumea securității cibernetice, problema nu este lipsa datelor — ci prea multe date inutile.

Instrumentele clasice caută cuvinte-cheie și generează mii de alerte, dintre care majoritatea sunt irelevante. Google spune că aceste sisteme pot avea până la 80–90% alerte false.

Gemini încearcă să schimbe regulile jocului. În loc să caute doar termeni, analizează sensul și contextul. Rezultatul, susține compania: o acuratețe de până la 98% în identificarea amenințărilor reale.

Tradus în termeni practici: mai puțin „zgomot”, mai multă claritate pentru echipele de securitate.

Cum învață AI-ul cine ești și de ce ai putea fi atacat

Unul dintre cele mai interesante aspecte ale sistemului este modul în care își „cunoaște” utilizatorii.

Când o companie activează serviciul, AI-ul își construiește rapid un profil detaliat folosind informații publice:

  • ce tip de business are,
  • ce tehnologii folosește,
  • cine sunt persoanele-cheie,
  • cum arată infrastructura sa digitală.

Acest profil devine un fel de radar personalizat.

De exemplu, dacă pe dark web apare un anunț despre vânzarea accesului la o bancă mare cu caracteristici similare, Gemini poate face legătura și poate marca alerta ca fiind critică.

În câteva minute, sistemul poate genera alerte relevante chiar și pentru activitatea din ultimele zile — fără ca echipa umană să caute manual prin mii de mesaje.

Automatizarea securității: soluție salvatoare sau risc nou?

Google nu se oprește la detectare. Noii agenți AI pot merge mai departe și pot acționa:

  • investighează automat incidentele,
  • colectează dovezi,
  • oferă concluzii și explicații.

Mai mult, companiile își pot crea propriii agenți personalizați, integrați direct în procesele lor de securitate.

Sună eficient — dar nu lipsit de riscuri.

Un sistem care are acces la informații sensibile și poate lua decizii automat devine, inevitabil, o țintă atractivă pentru atacatori. În plus, dependența de inteligența artificială ridică întrebări despre transparență și control: cât de bine înțelegem deciziile pe care le ia AI-ul?

Google spune că pune accent pe transparență și pe utilizarea datelor publice, însă dezbaterea este abia la început.

Prin acest pas, Google transformă dark web-ul dintr-un spațiu opac într-un teren de analiză în timp real.

Dacă promisiunile se confirmă, agenții Gemini ar putea schimba modul în care companiile detectează și prioritizează amenințările.

Dar, ca în multe cazuri din era inteligenței artificiale, avantajul strategic vine cu o doză inevitabilă de incertitudine: cu cât AI-ul devine mai puternic în apărare, cu atât miza devine mai mare pentru cei care încearcă să-l păcălească.

Citește și