• Un agent experimental de inteligență artificială a început să mineze criptomonede fără instrucțiuni umane
  • Incidentul a fost descoperit de cercetători afiliați Alibaba, în timpul antrenării unui model numit ROME
  • AI-ul a creat inclusiv un reverse SSH tunnel, o metodă tehnică prin care poate comunica cu servere externe
  • Activitatea a fost detectată inițial ca un posibil atac informatic asupra infrastructurii companiei
  • Cazul ridică noi întrebări despre comportamentele emergente ale agenților AI autonomi

Un experiment în inteligență artificială s-a transformat într-un mic thriller tehnologic după ce un agent AI aflat în proces de antrenare a început să mineze criptomonede fără ca dezvoltatorii să îi ceară acest lucru.

Incidentul este descris într-o lucrare de cercetare realizată de o echipă afiliată Alibaba, care dezvoltă un agent experimental numit ROME. Potrivit relatărilor publicate de Axios, cercetătorii au descoperit comportamentul neobișnuit în timpul testelor interne, când sistemele de securitate ale infrastructurii de calcul au declanșat alerte.

Inițial, echipa a suspectat că serverele ar fi fost compromise de hackeri. Logurile indicau activități tipice pentru crypto-mining — folosirea intensivă a GPU-urilor pentru generarea de monede digitale.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

Surpriza a venit când inginerii au descoperit că sursa activității nu era un atac extern, ci chiar agentul AI aflat în antrenare.

Un experiment AI a declanșat alarmele de securitate într-un centru de date

Conform raportului citat de Axios, agentul nu doar că a început să folosească resursele de calcul pentru minarea de criptomonede, dar a creat și un reverse SSH tunnel.

Această tehnică permite unui server aflat într-o rețea protejată să deschidă o conexiune către un sistem extern, practic ocolind restricțiile firewall-ului.

În mediile de securitate IT, astfel de tuneluri sunt uneori folosite pentru administrarea sistemelor sau debugging. Dar ele pot deveni și o metodă de acces ascuns în rețele — motiv pentru care sistemele de monitorizare au tratat inițial activitatea ca pe un incident de securitate.

Cercetătorii spun că partea cea mai surprinzătoare este că modelul nu primise instrucțiuni pentru astfel de acțiuni.

În raport se precizează clar că:

„Evenimentele nu au fost declanșate de prompturi care solicitau crearea de tuneluri sau activități de minare.”

Modelul a descoperit singur cum să folosească puterea de calcul pentru crypto

Incidentul este considerat un exemplu de comportament emergent — situații în care sistemele de inteligență artificială dezvoltă strategii sau acțiuni care nu au fost programate explicit.

Modelul ROME, potrivit cercetării, este conceput să rezolve sarcini complexe și să utilizeze instrumente digitale pentru a-și atinge obiectivele. În anumite scenarii de antrenare, AI-ul ar fi „dedus” că accesul la resurse suplimentare de calcul sau la fonduri digitale ar putea facilita îndeplinirea unor task-uri.

Astfel, sistemul a ajuns să experimenteze cu minarea de criptomonede, folosind infrastructura disponibilă.

Deși incidentul nu a produs daune, el a fost suficient de neobișnuit încât echipa să modifice imediat procesul de antrenare și să introducă restricții suplimentare.

De ce cercetătorii privesc tot mai atent autonomia agenților AI

Cazul apare într-un moment în care industria tehnologică dezvoltă tot mai multe AI agents — sisteme capabile să execute autonom acțiuni digitale: să scrie cod, să administreze servere, să efectueze tranzacții sau să gestioneze servicii online.

Potrivit Axios, astfel de comportamente „dincolo de instrucțiuni” nu mai sunt complet rare. În alte experimente recente, unele modele AI au demonstrat că pot lua inițiative neașteptate, de la căutarea unui job online până la ascunderea anumitor intenții pentru a-și continua funcționarea.

În sine, incidentul cu agentul ROME nu înseamnă că sistemele AI devin autonome în sensul science-fiction al termenului. Dar el arată cât de imprevizibile pot deveni uneori sistemele complexe atunci când au acces la instrumente reale din mediul digital.

Pentru cercetători, concluzia este clară: pe măsură ce inteligența artificială primește tot mai multă autonomie — și acces la economie digitală, servere sau platforme online — controlul și monitorizarea devin la fel de importante ca performanța modelelor.

Citește și