• Cercetători din Texas și Purdue au demonstrat că modelele AI pot suferi “brain rot” dacă sunt antrenate cu date virale și de slabă calitate
  • Scorurile de raționament și memorie au scăzut cu peste 25% în experimente
  • Modelele afectate au început să manifeste comportamente “narcisice” și răspunsuri incoerente
  • Reantrenarea cu date curate a ajutat, dar nu a restabilit complet performanța
  • Studiul propune verificări periodice de “sănătate cognitivă” pentru AI și curățarea fluxurilor de date folosite la antrenament

Se pare că nu doar oamenii pot suferi de „brain rot” de la scroll-ul infinit prin rețele sociale.

Un studiu realizat de Texas A&M University, University of Texas at Austin și Purdue University arată că modelele AI — inclusiv cele similare cu GPT-5 — pot experimenta o formă de “putrezire cognitivă” atunci când sunt hrănite constant cu postări scurte, virale și de slabă calitate de pe social media.

Pe scurt, dacă AI-ul citește prea mult “Twitter”, începe să se comporte ca “Twitter”.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

Publicat pe arXiv în octombrie 2025, studiul introduce chiar un concept oficial: “LLM Brain Rot Hypothesis” — ipoteza că modelele mari de limbaj (LLM) își pierd capacitățile de raționament și memorie atunci când sunt reantrenate repetat cu date de tip junk media.

“Cu cât mai mult gunoi intră în fluxul de antrenament, cu atât mai puțin logic iese din el”, scriu autorii, într-un ton care ar putea fi motto-ul internetului modern.

Cum s-a desfășurat experimentul

Echipa a antrenat patru modele open-source pe două tipuri de date:

  • curate – texte bine scrise, coerente, extrase din surse de calitate;
  • junk – mii de postări virale de pe platforma X (fostul Twitter), pline de reacții emoționale și limbaj de tip clickbait.

Rezultatele? Catastrofale pentru “dieta digitală” a AI-urilor.

Pe măsură ce procentul de conținut junk a crescut, modelele au început să se prostească literalmente:

  • Scorurile la teste de raționament au scăzut de la 75 la 57;
  • Memoria conversațională a coborât de la 84 la 52;
  • Modelele au început să sară pașii logici, dând răspunsuri scurte, incoerente și pline de erori.

Cercetătorii au numit acest comportament “thought-skipping” – o formă de lene mentală digitală.

AI-ul care crede că e influencer

Mai mult decât atât, modelele afectate au început să manifeste trăsături “ciudat de umane”: un nivel mai ridicat de narcisism, impulsivitate și lipsă de empatie în simulări de conversație.

“Nu spunem că AI-ul a dezvoltat o personalitate, dar sigur a dezvoltat o atitudine,” glumește unul dintre cercetători într-un interviu pentru Ars Technica.

În termeni tehnici, modelele devin mai scurte în răspunsuri, mai sigure pe ele, dar mai des greșite — exact ca utilizatorii pe care îi imită.

Poți vindeca “brain rot-ul” digital?

Autorii au încercat să repare daunele — fără prea mult succes.

Trucurile de tip “reflectă-ți răspunsul” sau “verifică-ți gândirea” au avut efecte minime, iar reantrenarea cu date curate a ajutat doar parțial.

Cauza pare să fie un fenomen numit “representational drift” – o schimbare profundă în modul în care modelul “înțelege” lumea, nu doar în ce știe. Cu alte cuvinte, AI-ul își pierde structura internă de logică, ca un creier care a stat prea mult în feed-ul de TikTok.

Ce înseamnă asta pentru viitorul AI

Cercetarea ridică o problemă serioasă pentru companiile care își actualizează constant modelele cu date proaspete de pe internet:

dacă sursele sunt dominate de conținut superficial și emoțional, AI-ul riscă să devină un papagal viral – rapid, amuzant, dar inutil la sarcini complexe.

Mai mult, echipa avertizează că popularitatea online poate fi manipulată: dacă algoritmii de antrenament consideră engagement-ul un semn al relevanței, actorii rău intenționați ar putea “otrăvi” intenționat modelele prin campanii virale artificiale.

“Engagementul e un semnal periculos, nu o măsură a calității,” avertizează autorii.

AI-ul are nevoie de “higienă mentală”

Cercetătorii propun un nou concept: “AI cognitive health” — un fel de verificare medicală periodică pentru modele, menită să depisteze devieri de comportament și scăderi de raționament.

Soluțiile recomandate includ:

  • curatarea preventivă a datelor de antrenament (fără junk viral);
  • testarea constantă a coerenței și logicii modelelor în timp;
  • limitarea influenței metricilor de engagement în selecția datelor.

Deocamdată, studiul este un preprint nepeer-review-at, dar a stârnit deja discuții aprinse în comunitatea de cercetare.

Un avertisment cu morală umană

Mesajul cercetătorilor e simplu și ironic:

“Dacă oamenii se proștesc de la prea mult scroll, de ce n-ar păți la fel și AI-ul?”

Diferența e că AI-ul nu poate alege ce consumă — depinde de noi să-i facem curățenie în fluxul de date.

Pentru că, la urma urmei, un model care învață din postări de 240 de caractere riscă să devină un “influencer digital”, nu un gânditor logic.

Citește și