A.I.-ul poate suferii de brain rot. Cercetătorii descoperă că și inteligența artificială devine mai proastă dacă stă prea mult pe social media

Se pare că nu doar oamenii pot suferi de „brain rot” de la scroll-ul infinit prin rețele sociale.

Un studiu realizat de Texas A&M University, University of Texas at Austin și Purdue University arată că modelele AI — inclusiv cele similare cu GPT-5 — pot experimenta o formă de “putrezire cognitivă” atunci când sunt hrănite constant cu postări scurte, virale și de slabă calitate de pe social media.

Pe scurt, dacă AI-ul citește prea mult “Twitter”, începe să se comporte ca “Twitter”.

Publicat pe arXiv în octombrie 2025, studiul introduce chiar un concept oficial: “LLM Brain Rot Hypothesis” — ipoteza că modelele mari de limbaj (LLM) își pierd capacitățile de raționament și memorie atunci când sunt reantrenate repetat cu date de tip junk media.

“Cu cât mai mult gunoi intră în fluxul de antrenament, cu atât mai puțin logic iese din el”, scriu autorii, într-un ton care ar putea fi motto-ul internetului modern.

Cum s-a desfășurat experimentul

Echipa a antrenat patru modele open-source pe două tipuri de date:

Rezultatele? Catastrofale pentru “dieta digitală” a AI-urilor.

Pe măsură ce procentul de conținut junk a crescut, modelele au început să se prostească literalmente:

Cercetătorii au numit acest comportament “thought-skipping” – o formă de lene mentală digitală.

AI-ul care crede că e influencer

Mai mult decât atât, modelele afectate au început să manifeste trăsături “ciudat de umane”: un nivel mai ridicat de narcisism, impulsivitate și lipsă de empatie în simulări de conversație.

“Nu spunem că AI-ul a dezvoltat o personalitate, dar sigur a dezvoltat o atitudine,” glumește unul dintre cercetători într-un interviu pentru Ars Technica.

În termeni tehnici, modelele devin mai scurte în răspunsuri, mai sigure pe ele, dar mai des greșite — exact ca utilizatorii pe care îi imită.

Poți vindeca “brain rot-ul” digital?

Autorii au încercat să repare daunele — fără prea mult succes.

Trucurile de tip “reflectă-ți răspunsul” sau “verifică-ți gândirea” au avut efecte minime, iar reantrenarea cu date curate a ajutat doar parțial.

Cauza pare să fie un fenomen numit “representational drift” – o schimbare profundă în modul în care modelul “înțelege” lumea, nu doar în ce știe. Cu alte cuvinte, AI-ul își pierde structura internă de logică, ca un creier care a stat prea mult în feed-ul de TikTok.

Ce înseamnă asta pentru viitorul AI

Cercetarea ridică o problemă serioasă pentru companiile care își actualizează constant modelele cu date proaspete de pe internet:

dacă sursele sunt dominate de conținut superficial și emoțional, AI-ul riscă să devină un papagal viral – rapid, amuzant, dar inutil la sarcini complexe.

Mai mult, echipa avertizează că popularitatea online poate fi manipulată: dacă algoritmii de antrenament consideră engagement-ul un semn al relevanței, actorii rău intenționați ar putea “otrăvi” intenționat modelele prin campanii virale artificiale.

“Engagementul e un semnal periculos, nu o măsură a calității,” avertizează autorii.

AI-ul are nevoie de “higienă mentală”

Cercetătorii propun un nou concept: “AI cognitive health” — un fel de verificare medicală periodică pentru modele, menită să depisteze devieri de comportament și scăderi de raționament.

Soluțiile recomandate includ:

Deocamdată, studiul este un preprint nepeer-review-at, dar a stârnit deja discuții aprinse în comunitatea de cercetare.

Un avertisment cu morală umană

Mesajul cercetătorilor e simplu și ironic:

“Dacă oamenii se proștesc de la prea mult scroll, de ce n-ar păți la fel și AI-ul?”

Diferența e că AI-ul nu poate alege ce consumă — depinde de noi să-i facem curățenie în fluxul de date.

Pentru că, la urma urmei, un model care învață din postări de 240 de caractere riscă să devină un “influencer digital”, nu un gânditor logic.

Exit mobile version