- O echipă de la Universitatea Wuhan a prezentat un cadru numit RGMP, care îi ajută pe roboții umanoizi să manipuleze obiecte noi fără antrenament dedicat pentru fiecare situație
- RGMP combină un „selector de abilități” bazat pe geometrie (GSS) cu o rețea care planifică mișcarea pas cu pas (ARGN), ca să dea roboților un fel de bun-simț spațial
- În testele pe roboți reali, metoda a ajuns la circa 87% rată de succes pe sarcini complet noi – obiecte și contexte pe care robotul nu le mai văzuse
- Cercetătorii spun că sistemul e de aproximativ 5 ori mai eficient în date decât modelele diffusion-policy, adică învață mult cu foarte puține demonstrații
- Dacă rezultatele se confirmă la scară, humanoizii ar putea deveni utili în case, depozite și fabrici, unde obiectele nu sunt „ca în dataset”
Roboții umanoizi arată spectaculos în demo-uri: ridică obiecte, folosesc scule, chiar fac un fel de „hostess mode” în expoziții. Dar scoate-i din laborator și apare clasicul moment de sitcom: îi pui în față o cutie puțin diferită sau schimbi lumina din cameră și… îngheață.
Advertisment
Motivul e simplu: majoritatea învață ca la școală pe baza exemplelor. Dacă au văzut 5.000 de apucări de cană, sunt buni la cană. Dacă le dai o sticlă mai înaltă, cu alt centru de greutate, se uită la ea ca la un obiect extraterestru. Asta e marea limitare a roboților actuali: nu generalizează bine.
RGMP pe înțelesul tuturor: doi „mușchi” care lucrează împreună
Echipa din Wuhan vine cu o idee care sună ca o lecție de bun-simț: înainte să te apuci să miști mâna, uită-te la obiect și înțelege ce e.

RGMP are două componente care fac exact asta:
- GSS (Geometric-Prior Skill Selector) – „creierul de alegere a mișcării”.
Robotul își folosește camerele ca să estimeze forma, mărimea și orientarea obiectului. Apoi alege din „biblioteca lui de abilități” ce e potrivit: îl apuc cu o mână, cu două, îl împing, îl ridic de bază etc. E ca: „Ok, asta e o sticlă înaltă, mai bine o prind mai jos.” - ARGN (Adaptive Recursive Gaussian Network) – „coregraful”.
După ce GSS a decis abilitatea, ARGN calculează mișcarea efectivă pas cu pas, ca să ajungă la obiect și să îl manipuleze corect. În loc să se bazeze pe mii de demonstrații, modelul folosește o abordare statistică recursivă care învață tipare spațiale cu mult mai puține exemple.
Dacă GSS e cel care spune „ce fac?”, ARGN e cel care spune „cum fac, exact, pe traseu?”. Împreună, îi dau robotului un fel de intuiție geometrică.
Rezultatele care contează: 87% succes la sarcini neînvățate
Partea bună la astfel de idei e că nu rămân doar frumoase pe hârtie. Cercetătorii au testat RGMP pe roboți reali. Au învățat robotul cu un număr mic de demonstrații – gen „prinde o doză” – și apoi l-au pus să prindă obiecte noi, pe care nu le văzuse: alte doze, sticle, spray-uri, obiecte de forme diferite.
Rezultatul raportat: aproximativ 87% succes la sarcini complet noi. Asta e mare lucru într-un domeniu unde „am schimbat lumina și s-a stricat tot” e o glumă internă.
În plus, autorii spun că metoda e de cam 5 ori mai eficientă în date decât diffusion-policy (o familie de modele considerate „state-of-the-art”). Tradus: unde alte sisteme cer 1.000 de demonstrații, RGMP se descurcă cu 200 și tot merge bine.
De ce e important: un pas spre roboți cu adevărat adaptabili în viața reală
De ce ar trebui să-ți pese că un robot prinde mai bine o sticlă? Pentru că ăsta e pragul dintre „robot de clip promo” și „robot care chiar face treabă”.
În case, depozite sau restaurante, nimic nu e standardizat ca în laborator. Obiectele sunt îndoite, așezate aiurea, uneori alunecoase, uneori parțial ascunse. Dacă un umanoid are nevoie de retraining pentru fiecare variație, e inutil economic. Dacă poate înțelege rapid geometria și să aleagă singur mișcarea corectă, începe să fie cu adevărat „colaborator”, nu „proiect de cercetare”.
Echipa din Wuhan spune că următorul pas e și mai ambițios: să facă RGMP capabil să deducă singur traiectorii pentru obiecte complet noi, cu minimum de input uman. Adică să treacă de la „învață cu exemple” la „învață cu logică”.
Dacă reușește, ne apropiem de momentul în care un robot nu va mai avea nevoie să fie învățat fiecare lucru ca un copil mic, ci va putea să improvizeze – exact ca noi când vedem un obiect nou și ne dăm seama instinctiv cum să îl apucăm.
Citește și
- Robotul umanoid care face curățenie pe munte. Flexion arată cum RL și modele vision-language duc autonomia în aer liber
- Căștile VR intră în laboratorul criminologilor. Pot estima riscul de recidivă la adolescenți, dar nu sunt glob de cristal
- Mercedes își pune instructions overlay pe motor. Cum folosește AR ca să monteze mai rapid piesele de F1
Partenerii noștri