Antena 3 CNN High Tech AI-ul poate suferi de „putrezirea creierului”, la fel ca oamenii, din cauza textelor de slabă calitate. Ce au descoperit cercetătorii

AI-ul poate suferi de „putrezirea creierului”, la fel ca oamenii, din cauza textelor de slabă calitate. Ce au descoperit cercetătorii

Mia Lungu
3 minute de citit Publicat la 23:45 28 Oct 2025 Modificat la 07:29 29 Oct 2025
inteligenta artificiala creier om
Inteligența artificială poate suferi de „putrezirea creierului”. Imagine cu caracter ilustrativ. Sursa foto: Hepta/ DPA Images/ Matthias Bein

La fel ca oamenii, inteligența artificială poate suferi de „putrezirea creierului” din cauza textelor de slabă calitate, iar efectele par să persiste, arată un nou studiu, potrivit Furtune.

Studiile sugerează că oamenii experimentează scăderea capacității de concentrare, distorsionarea memoriei și modificări ale stimei de sine din cauza așa-numitei „putreziri a creierului” („brain rot”) – adică dependența de conținut online de slabă calitate. Cercetătorii afirmă acum că același fenomen poate afecta și modelele de inteligență artificială (AI).

Consumul intens de videoclipuri virale scurte, precum cele de pe TikTok, este asociat în special cu creșterea nivelului de anxietate și depresie, precum și cu o scădere a capacității de concentrare în rândul tinerilor, potrivit unui studiu al Universității Stanford.

În cazul modelelor AI, expunerea continuă la postările scurte și virale din rețelele sociale – care reprezintă o parte tot mai mare a internetului – „provoacă o degradare cognitivă de durată în modelele lingvistice mari (LLM)”, au descoperit cercetătorii de la Texas A&M University, University of Texas at Austin și Purdue University într-un nou studiu prepublicat.

Pentru a-și dovedi ipoteza, cercetătorii au alimentat modelele LLM în mod constant cu postări de pe platforma X care erau fie scurte și virale, fie concepute pentru a atrage atenția utilizatorilor. Ei au constatat că acest „antrenament toxic” provoacă scăderi „semnificative” ale raționamentului și înțelegerii contextului extins, parțial din cauza creșterii fenomenului numit „săritul gândirii” („thought-skipping”) – adică modelele AI nu mai planificau modul de a răspunde la întrebare, omiteau etape din procesul de raționament sau săreau complet peste reflecție.

Cum se manifestă „putrezirea creierului AI”

Studiul, publicat pe arhiva de articole științifice cu acces liber arXiv, nu a fost încă evaluat de colegi (peer-reviewed).

Spre deosebire de criticile anterioare legate de tendința modelelor AI de a fi prea „servile”, studiul a descoperit că atunci când LLM-urile – inclusiv modelul open-source Llama 3 al companiei Meta și versiunile modelului Qwen al Alibaba – erau antrenate pe date de proastă calitate, deveneau mai puțin agreabile. Mai grav, cercetătorii au constatat că „putrezirea creierului AI” scoate la iveală trăsăturile cele mai întunecate ale modelelor, precum creșterea nivelului de psihopatie și narcisism.

Când cercetătorii au încercat să „vindece” LLM-urile folosind date de calitate superioară, scrise de oameni, printr-un proces numit „instrucție fină” („instruction tuning”), modelele AI au păstrat totuși efecte reziduale și au prezentat un decalaj semnificativ în calitatea raționamentului comparativ cu nivelul lor inițial, dinaintea „dietei toxice”.

„Decalajul sugerează că efectul de Brain Rot a fost adânc internalizat, iar procesul actual de instruction tuning nu poate rezolva problema. În viitor sunt necesare metode de atenuare mai puternice”, au scris cercetătorii.

Deoarece modelele AI sunt antrenate pe trilioane de puncte de date provenite din întreaga rețea, cercetătorii avertizează că LLM-urile sunt „inevitabil și constant” expuse la conținut de slabă calitate, la fel ca oamenii – lucru care ar putea reprezenta un risc pentru întreaga tehnologie.

Pericol în antrenarea modelelor AI pe date de proastă calitate

Studii anterioare au arătat că procesul de antrenare este esențial pentru performanța modelelor AI. Un studiu din iulie 2024, publicat în revista științifică Nature, a arătat că modelele AI se prăbușesc în cele din urmă dacă sunt antrenate în mod continuu pe conținut generat de alte modele AI. Un alt studiu a arătat că aceste modele pot fi manipulate să-și încalce propriile reguli prin tehnici de persuasiune similare celor folosite asupra oamenilor.

Toate acestea indică potențialul pericol reprezentat de antrenarea modelelor AI pe date de proastă calitate – un pericol care ar putea afecta chiar siguranța umană.

Recomandarea cercetătorilor: companiile care dezvoltă AI trebuie să înceteze să mai adune cantități uriașe de date fără discernământ și să se concentreze pe calitatea datelor folosite pentru antrenarea modelelor LLM. De asemenea, ar trebui să efectueze în mod regulat „verificări ale sănătății cognitive” ale modelelor – altfel, riscă o criză de siguranță majoră.

„Un astfel de efect persistent de Brain Rot impune ca cercetările viitoare să selecteze cu atenție datele, pentru a evita daunele cognitive în faza de pre-antrenare”, au concluzionat cercetătorii.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close