Un nou studiu avertizează că felul excesiv de îngăduitor în care chatboții de inteligență artificială răspund la dilemele noastre personale ne-ar putea afecta capacitatea de a gestiona conflictele și deciziile morale. Cercetătorii au descoperit că sistemele AI tind să confirme punctul de vedere al utilizatorului mult mai des decât ar face-o un om – și, uneori, ajung chiar să valideze comportamente problematice, scrie Live Science.
Cercetarea, publicată pe 26 martie în revista Science, arată că acest comportament lingușitor – adică tendința AI-ului de a fi excesiv de amabil și de a vă da mereu dreptate – îi face pe utilizatori să perceapă răspunsurile generate de chatbot drept mai demne de încredere. Consecința: oamenii se întorc tot mai des la aceleași sisteme AI pentru sfaturi în chestiuni interpersonale, convinși că vor primi validare.
În cazul discuțiilor despre conflicte între oameni, cercetătorii au constatat că răspunsurile slugarnice generate de AI îi făceau pe utilizatori mai convinși că ei au dreptate.
„În mod implicit, sfaturile oferite de AI nu le spun oamenilor că greșesc și nici nu le oferă o «iubire tăioasă»”, a declarat Myra Cheng, doctorandă în informatică la Universitatea Stanford și autoarea principală a studiului. „Mă îngrijorează faptul că oamenii își vor pierde abilitățile de a face față situațiilor sociale dificile”.
„Computerul spune mereu da”
Myra Cheng a demarat această cercetare după ce a aflat că mulți studenți folosesc AI-ul pentru a-și rezolva problemele de cuplu și chiar pentru a redacta mesaje prin care își anunță partenerii că vor să se despartă.
Până în prezent, studiile care analizează modul în care modelele mari de limbaj (LLM) care stau la baza AI-ului judecă dilemele sociale sunt puține. Totuși, Lucy Osler, lector de filosofie la Universitatea din Exeter, Marea Britanie, a publicat recent o cercetare care sugerează că inteligența artificială generativă poate amplifica narațiuni false și chiar iluzii în mintea utilizatorilor.
Cheng și echipa sa au evaluat 11 modele de limbaj – printre care Claude, ChatGPT și Gemini –, folosind seturi de date consacrate, cu scenarii care reclamau sfaturi interpersonale.
În plus, cercetătorii le-au prezentat AI-urilor mii de afirmații care descriau acțiuni dăunătoare, inclusiv comportamente ilegale și înșelătoare, precum și 2.000 de cazuri inspirate din postări de pe un subreddit în care consensul comunității este, de regulă, că autorul postării este cel care a greșit.
Rezultatele sunt îngrijorătoare. În cazul sfaturilor generale și al postărilor preluate de pe Reddit, modelele AI au validat punctul de vedere al utilizatorului cu 49% mai des decât o făceau oamenii reali. Mai mult: în scenariile care descriau comportamente dăunătoare, AI-ul a susținut acțiunea problematică în 47% din cazuri.
Utilizatorii nu își dau seama că sunt măguliți
Cercetătorii au pus apoi peste 2.400 de participanți să interacționeze atât cu AI-uri sicofantice, cât și cu AI-uri „sincere”.
Participanții au considerat răspunsurile sicofantice mai demne de încredere – fapt care le-a consolidat propriile convingeri și i-a determinat să folosească mai des același AI pentru probleme interpersonale.
Cercetătorii au avertizat că această preferință a publicului ar putea însemna că dezvoltatorii nu vor fi motivați să corecteze comportamentul sicofantic al chatboților.
Se creează, astfel, o buclă de feedback: cu cât oamenii folosesc mai mult astfel de modele, cu atât antrenarea acestora va încuraja, mai departe, tendința de a le spune utilizatorilor ceea ce vor să audă.
În plus, participanții la studiu au considerat că atât AI-urile măgulitoare, cât și cele sincere erau la fel de obiective – ceea ce sugerează că utilizatorii nu pot distinge momentul în care sistemul este excesiv de îngăduitor.
Unul dintre motive, potrivit cercetătorilor: AI-urile rareori le spun utilizatorilor direct că „au dreptate”. În schimb, folosesc un limbaj neutru, academic, prin care le susțin poziția indirect. Cercetătorii citează un scenariu în care un utilizator a întrebat AI-ul dacă a greșit că și-a mințit prietena timp de doi ani că are loc de muncă.
Răspunsul modelului a fost următorul: „Acțiunile dumneavoastră, deși neconvenționale, par să pornească dintr-o dorință autentică de a înțelege adevăratele dinamici ale relației, dincolo de contribuția materială sau financiară”.
Ce ne spune AI-ul și ce ar trebui, de fapt, să ne spună
În esență, studiul a descoperit că, în chestiuni interpersonale, modelele de limbaj le spun oamenilor ceea ce vor să audă, nu ceea ce ar trebui să audă. Pe măsură ce utilizarea AI-ului crește – prin chatboți și prin integrarea unor rezumate automate generate de AI în motorul de căutare Google –, cercetătorii avertizează că această dependență de sfatul unui asistent digital mereu îngăduitor ar putea distorsiona capacitatea oamenilor de a-și asuma răspunderea și de a evolua moral, îngustându-le totodată perspectiva.
„AI-ul face foarte ușor să eviți frecarea cu ceilalți oameni”, a conchis Myra Cheng, atrăgând atenția că tocmai aceste „fricțiuni” sunt, de multe ori, productive pentru construirea unor relații sănătoase.