Pe măsură ce modelele lingvistice mari (LLM) preiau tot mai multe sarcini cognitive, cercetătorii avertizează că această externalizare mentală vine cu un cost. Când cercetătoarea Nataliya Kosmyna căuta stagiari, a observat că scrisorile de intenție pe care le primea erau suspect de asemănătoare. Erau lungi, elaborate și, după introduceri, adesea săreau la o legătură abstractă și arbitrară cu munca ei. Îi era evident că aplicanții foloseau LLM-uri, o formă de inteligență artificială care alimentează chatboți precum ChatGPT, Google Gemini și Claude, pentru a scrie scrisorile, scrie BBC News.
În același timp, în timpul lecțiilor de la campusul Institutului de Tehnologie din Massachusetts (MIT), Kosmyna, care studiază interacțiunea dintre oameni și computere, a observat că numeroși studenți uitau informațiile mult mai ușor față de acum câțiva ani.
Având în vedere dependența tot mai mare de LLM-uri, ea a avut o presimțire că acest lucru ar putea afecta funcția cognitivă a studenților ei și a căutat să înțeleagă mai multe.
Îngrijorarea cercetătorilor precum Kosmyna este că, dacă devenim prea dependenți de inteligența artificială, aceasta ar putea afecta limbajul pe care îl folosim și chiar capacitatea noastră de a îndeplini sarcini cognitive de bază. Există acum un număr tot mai mare de cercetări care sugerează că această „descărcare cognitivă ” către inteligența artificială poate avea un efect coroziv asupra abilităților noastre mentale. Consecințele ar putea fi alarmante și pot chiar contribui la declinul cognitiv.
Este bine cunoscut faptul că instrumentele pe care le folosim pot schimba modul în care gândim. Odată cu apariția internetului, de exemplu, sarcini care odinioară necesitau cercetări aprofundate puteau fi găsite prin introducerea unei simple căutări. Pe măsură ce utilizarea motoarelor de căutare a crescut, cercetările au descoperit că am devenit mai puțin predispuși să ne amintim detalii, lucru numit „efectul Google”. Unii susțin, însă, că internetul servește și ca un sistem de memorie externă care ne eliberează creierul pentru a îndeplini alte sarcini.
Însă există acum o alarmă tot mai mare că, pe măsură ce ne descărcăm și mai mult gândirea către LLM-uri și alte forme de inteligență artificială, efectele asupra memoriei noastre și a capacității de a rezolva probleme s-ar putea agrava. Instrumentele de inteligență artificială pot scrie poezie convingătoare și pot oferi sfaturi financiare. Studenții își externalizează din ce în ce mai mult propria muncă către instrumente de inteligență artificială.
Studiile au arătat deja că tinerii ar putea fi deosebit de vulnerabili la efectele negative pe care utilizarea inteligenței artificiale le poate avea asupra abilităților cognitive cheie, cum ar fi gândirea critică. Kosmyna, însă, a dorit să aprofundeze potențialele efecte.
Efort mental redus
Ea și colegii ei de la MIT Media Lab au recrutat 54 de studenți pentru a scrie eseuri scurte și i-au împărțit în trei grupuri. Unul a fost instruit să folosească ChatGPT. Al doilea putea folosi căutarea Google, cu rezumatele generate de inteligența artificială dezactivate. Al treilea nu a folosit tehnologia. Undele cerebrale ale fiecărui student au fost măsurate în timp ce lucra.
Subiectele eseurilor au fost în mod deliberat deschise, ceea ce înseamnă că a fost nevoie de puțină cercetare pentru sarcină, cu sugestii care includeau întrebări despre loialitate, fericire sau alegerile noastre din viața de zi cu zi.
Rezultatele nu au fost încă publicate într-o revistă științifică, dar au fost cu toate acestea revelatoare, potrivit Kosmynei. Cei care și-au folosit propria minte au avut un creier „în flăcări”, prezentând o activitate extinsă în multe părți ale creierului, spune ea.
Grupul care a folosit doar motoarele de căutare a prezentat în continuare o activitate puternică în părțile vizuale ale creierului, dar grupul ChatGPT a prezentat o activitate cerebrală semnificativ mai mică: aceasta a fost redusă cu până la 55%.
„Creierul nu a adormit, dar a existat mult mai puțină activare în zonele corespunzătoare creativității și procesării informațiilor”, spune Kosmyna.
ChatGPT a afectat și memoria oamenilor. După ce și-au trimis eseurile, persoanele din grupul de inteligență artificială nu au putut cita din eseuri, iar mai multe au simțit că nu au nicio responsabilitate asupra lucrării. Alte studii au arătat, de asemenea, că oamenii devin mai puțin capabili să rețină și să-și amintească informațiile atunci când utilizează instrumente de inteligență artificială, cum ar fi ChatGPT.
Deși rezultatele sunt încă în curs de evaluare, acestea reflectă rezultatele altor studii. Un studiu realizat de cercetătorii de la Universitatea din Pennsylvania sugerează că unii oameni trec printr-un fenomen numit „abandon cognitiv” atunci când utilizează chatboți. Asta înseamnă că aceștia tind să accepte ceea ce le spune inteligența artificială cu o atenție minimă și chiar îi permit acesteia să le ignore propria intuiție.
Efecte similare pot fi observate și în afara lumii chatboților, chiar și în situații de viață și de moarte. O echipă multinațională recentă a descoperit că profesioniștii din domeniul medical care au folosit un instrument de inteligență artificială pentru screening-ul cancerului de colon timp de trei luni au avut ulterior rezultate mai slabe la detectarea tumorilor fără acesta.
Externalizarea muncii către inteligența artificială riscă, de asemenea, să piardă o mare parte din creativitatea care produce lucrări originale, avertizează Kosmyna.
Eseurile pe care studenții din studiu le-au scris cu ChatGPT arătau foarte asemănător și au fost descrise de profesori, calificându-le drept „fără suflet”, lipsite de originalitate și profunzime, spune Kosmyna.
„Unul dintre profesori a întrebat dacă studenții stau unul lângă altul, deoarece eseurile erau atât de asemănătoare”, a spus ea.
Deși studii precum acestea ilustrează efectele pe termen scurt pe care LLM-urile le pot avea asupra creierului, impactul pe termen lung este mult mai puțin clar. Studiul realizat de Kosmyna și colegii ei oferă o mică perspectivă.
La patru luni după studiul inițial, le-au cerut studenților să scrie un alt eseu, dar de data aceasta celor care folosiseră ChatGPT li s-a spus să lucreze fără asistență. Conectivitatea neuronală din creierul lor a fost mai scăzută decât cea a celor care au trecut în direcția opusă, ceea ce indică probabil că nu au abordat corect subiectele de la bun început.
Declin cognitiv
„Totuși, LLM-urile pot fi un instrument pozitiv pentru a ajuta gândirea, dar numai dacă nu ne bazăm pe ele externalizând sarcinile noastre mentale în acest proces”, spune neurologul computațional Vivienne Ming, autoarea cărții Robot Proof.
Ea este însă îngrijorată de faptul că majoritatea oamenilor nu interacționează cu această tehnologie.
Raționamentul ei provine din cercetările pe care le-a efectuat pentru cartea sa, în cadrul cărora Ming a cerut unui grup de studenți de la Universitatea din Berkeley să prezică rezultate din lumea reală, cum ar fi prețul petrolului. Ea a descoperit că majoritatea participanților au întrebat pur și simplu inteligența artificială și au copiat răspunsul.
Ea a măsurat activitatea undelor gamma din creierul lor, un marker al efortului cognitiv, descoperind că aceasta a arătat o activare foarte mică. Din nou, cercetarea ei nu a fost încă publicată, dar Ming se teme că, dacă descoperirile sale sunt confirmate de studii ulterioare, acestea ar putea avea implicații pe termen lung. Alte cercetări, de exemplu, au asociat o activitate slabă a undelor gamma cu declinul cognitiv ulterioare în viață.
„Este foarte îngrijorător. Dacă acesta este un mod natural prin care oamenii interacționează cu aceste sisteme, și aceștia sunt copii inteligenți, este rău”, spune Ming.
Gândirea profundă, spune ea, este superputerea noastră.
„Dacă nu o folosim, implicațiile pe termen lung pentru sănătatea cognitivă sunt destul de puternice”, a subliniat ea.
„Asta pentru că atunci când ne bazăm pe LLM-uri, este nevoie de foarte puțin efort cognitiv”, adaugă Ming, „ceea ce este necesar pentru un creier sănătos”.
Un mic subset de participanți însă, mai puțin de 10%, au lucrat diferit și au folosit inteligența artificială ca instrument pentru a colecta date pe care apoi le-au analizat singuri. Acești indivizi au făcut predicții mai precise decât alți participanți și au demonstrat, de asemenea, o activare cerebrală mai puternică.
În urmă cu aproape două decenii, Ming a prezis că în termen de 20 până la 30 de ani vom vedea o creștere semnificativă din punct de vedere statistic a ratelor demenței, direct legată de dependența noastră excesivă de Google Maps.
„Am vrut să fie provocator. Dacă nu trebuie să te gândești la navigare, atunci va exista un efect detectabil”, spune Ming.
Deși nu avem date despre această predicție exactă, utilizarea sporită a GPS-ului a fost asociată cu o memorie spațială mai slabă în timp, conform unui studiu realizat pe 13 persoane pe parcursul a trei ani. Iar o navigare spațială deficitară ar putea fi un potențial predictor al bolii Alzheimer, conform unui alt studiu.
Este clar că, cu cât creierul nostru este mai activ, cu atât este mai protejat de declinul cognitiv. Prin urmare, studiile LLM, spune Ming, „nu numai că ar putea reduce creativitatea, dar ar putea dăuna cogniției și ar putea crește riscul de demență”.
Pe măsură ce utilizarea instrumentelor de inteligență artificială crește, trebuie să lucrăm cu ele într-un mod care să ne beneficieze, nu să ne dăuneze. Ming sugerează că, în cele din urmă, obiectivul ar putea fi o formă de „inteligență hibridă” în care oamenii și mașinile „fac lucrurile dificile” împreună.
Prin asta, ea vrea să spună că trebuie să gândim mai întâi și să folosim instrumente pentru a ne provoca mai târziu, în loc să le lăsăm pur și simplu să răspundă la întrebări în locul nostru. Kosmyna este de acord și sugerează să învățăm mai întâi discipline fără instrumente de inteligență artificială pentru a construi o bază și apoi să ne gândim la utilizarea LLM-urilor.
Ming recomandă folosirea a ceea ce ea numește „promptul inamicului” pentru a-ți provoca propria gândire. Funcționează prin a determina o inteligență artificială să acționeze ca un „inamic pe viață”, apoi a-i cere să explice în detaliu de ce ideile tale sunt greșite și cum le poți corecta, forțându-te să-ți aperi și să-ți rafinezi argumentele, în loc să accepți pur și simplu răspunsurile pe care le oferă.
O altă tehnică pe care o sugerează este prioritizarea „fricțiunilor productive” și solicitarea inteligenței artificiale să ofere doar context și să pună întrebări, în loc să ofere răspunsuri. Când a testat acest lucru prin reglarea fină a unui bot de inteligență artificială pentru a nu oferi răspunsuri, a constatat că mai multe persoane erau mai implicate.
„În cele din urmă, ar trebui să fim cu toții atenți la scurtăturile cognitive, lucru pe care creierul nostru îl adoră”, spune Kosmyna.
