- Cercetătorii de la University of Surrey au creat un nou tip de rețea neuronală, numită Topographical Sparse Mapping (TSM)
- Modelul se inspiră din modul în care creierul uman conectează neuronii doar la „vecini” relevanți
- Rezultatul: AI cu performanță comparabilă, dar consum energetic mult mai mic
- Versiunea Enhanced TSM adaugă un proces de „pruning biologic”, care optimizează rețeaua în timpul învățării
- Cercetarea ar putea deschide drumul către hardware neuromorphic și o nouă generație de AI sustenabilă
Cercetătorii de la University of Surrey au făcut un pas neașteptat, dar logic: dacă vrem ca inteligența artificială să fie mai bună, de ce nu am copia cea mai performantă mașină de învățare din univers – creierul uman?
Advertisment
Echipa condusă de Dr. Roman Bauer, specialist în informatică și neuroștiințe, a creat o nouă metodă de antrenare a rețelelor neuronale artificiale, denumită Topographical Sparse Mapping (TSM). În loc să conecteze fiecare „neuron artificial” la milioane de alții – așa cum fac modelele AI uriașe de azi, gen ChatGPT – noul model restrânge conexiunile doar la „vecini” relevanți.
Asta imită modul în care creierul organizează informația: eficient, local și inteligent. Rezultatul? Performanță comparabilă, dar cu un consum de energie mult mai mic.
„Putem construi sisteme inteligente mai eficiente, care taie drastic consumul energetic fără să piardă din performanță”, explică Dr. Bauer.
Inteligență artificială, dar cu amprentă de carbon redusă
Astăzi, antrenarea unui model AI de mari dimensiuni poate consuma peste 1 milion de kilowați-oră – suficient pentru a alimenta un cartier întreg timp de un an. Creierul nostru, în schimb, funcționează cu aproximativ 20 de wați, cât un bec.

Metoda propusă de cercetătorii britanici ar putea aduce AI-ul ceva mai aproape de acest nivel de eficiență biologică. În loc de rețele masive și costisitoare, TSM ar putea oferi AI mai rapidă, mai ușoară și mai „verde”.
„Industria AI consumă deja mai multă energie decât unele țări mici”, spune Bauer. „Dacă vrem ca AI-ul să crească, trebuie să-l facem și sustenabil.”
Când AI-ul învață să se „taie” singur
Versiunea îmbunătățită a metodei – Enhanced Topographical Sparse Mapping – merge chiar mai departe. Ea introduce un proces de „pruning biologic”, adică tăierea treptată a conexiunilor inutile în timpul învățării, exact cum face creierul nostru atunci când renunță la sinapsele care nu-i mai trebuie.
Cu fiecare „tăietură” inteligentă, rețeaua devine mai eficientă și mai specializată. Cercetătorii spun că această metodă deschide drumul spre neuromorphic computing – o direcție de cercetare care vrea să construiască hardware ce funcționează literalmente ca un creier.
„Evoluția a avut miliarde de ani să optimizeze creierul. Noi doar învățăm de la cel mai bun inginer al naturii”, a adăugat Bauer.
De ce e important acest pas pentru viitorul AI
Într-o industrie unde totul devine mai mare, mai complex și mai costisitor, cercetătorii din Surrey propun o idee contra-curent: mai puțin poate însemna mai mult.
Modele AI gigantice – cu miliarde de parametri și zeci de centre de date – sunt tot mai greu de antrenat și întreținut. Dacă rețelele inspirate de creier pot oferi aceeași performanță cu o fracțiune din resurse, impactul ar fi enorm: de la costuri reduse și emisii mai mici, până la AI-uri portabile, integrate în dispozitivele de zi cu zi.
Deocamdată, cercetarea e în fază de laborator, dar direcția e promițătoare. Într-o lume în care „inteligența artificială” cere din ce în ce mai multă energie, poate că soluția era în noi tot timpul — la propriu.
Citește și
- China interzice influencerilor fără diplomă să vorbească despre sănătate, bani și lege
- Când siguranța devine supraveghere. Cum Apple Family Sharing poate scăpa de sub control în familiile despărțite
- Bacteriile din adâncuri care „mănâncă” plastic. Natura a început singură curățenia pe planeta noastră
Partenerii noștri