• Modelele A.I. încep să manifeste regresii inexplicabile
  • Se observă pierderi de performanță după antrenamente suplimentare
  • Fenomenul este numit deja colaps modelar
  • Cauzele posibile includ complexitatea excesivă și probleme de aliniere
  • Cercetătorii propun abordări noi pentru a preveni colapsul

O serie de comportamente neașteptate și regresii inexplicabile în modelele de inteligență artificială au început să alarmeze cercetătorii. Fenomenul, numit deja de unii „colaps modelar”, ar putea marca o etapă critică în dezvoltarea A.I.

Modele care nu mai învață, ci uită

Cercetătorii din domeniul A.I. au identificat anomalii în performanțele unor modele mari de limbaj, inclusiv regresii în sarcini pe care le stăpâneau anterior. În loc să devină mai bune odată cu antrenamentele repetate, aceste modele încep să se deterioreze, pierzând coerența și precizia.

Când prea multă complexitate dă înapoi

Fenomenul este atribuit de unii experți saturării arhitecturale și problemelor nerezolvate de aliniere. Pe măsură ce modelele devin mai mari și mai complexe, apar limite care nu țin de hardware sau date, ci de instabilitatea internă a învățării.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

Alarme discrete în industrie

Deși companiile tech nu discută deschis despre aceste probleme, în culise se vorbește despre rate crescute de eșec, confuzie în predicții și degradări inexplicabile ale performanței. Aceste semne timpurii sugerează că modelele A.I. actuale ar putea avea o durată de viață funcțională limitată, dacă nu sunt restructurate fundamental.

Ce urmează pentru A.I.?

Pentru a contracara aceste semnale, laboratoarele de cercetare se orientează către modele mai modulare, sisteme de supraveghere internă și testări continue. Întrebarea esențială rămâne: este colapsul un accident de parcurs sau o limită structurală a A.I. actuale?

Citește și