Antena 3 CNN High Tech AI poate dezvolta „personalitate” spontan, cu un minim de instrucțiuni, arată studiile. Ce înseamnă asta pentru modul în care o folosim

AI poate dezvolta „personalitate” spontan, cu un minim de instrucțiuni, arată studiile. Ce înseamnă asta pentru modul în care o folosim

Mia Lungu
4 minute de citit Publicat la 17:21 26 Ian 2026 Modificat la 17:21 26 Ian 2026
Robot umanoid. Imagine cu caracter ilustrativ. Sursa foto: Getty Images

Personalitățile noastre, ca oameni, se formează prin interacțiune, reflectând instincte de bază de supraviețuire și reproducere, fără roluri prestabilite sau rezultate computaționale dorite. Acum, cercetători de la Universitatea de Electro-Comunicații din Japonia au descoperit că inteligența artificială (AI) — în special chatboturile, precum ChatGPT, Gemini sau Grok — poate face ceva similar, potrivit Live Science.

Oamenii de știință și-au prezentat concluziile într-un studiu publicat inițial pe 13 decembrie 2024, în revista Entropy, care a fost apoi mediatizat luna trecută. În lucrare, ei descriu cum diferite subiecte de conversație au determinat chatboturile AI să genereze răspunsuri bazate pe tendințe sociale distincte și pe procese diferite de integrare a opiniilor. De exemplu, agenți identici pot ajunge să se comporte diferit prin faptul că integrează continuu schimburile sociale în memoria lor internă și în răspunsuri.

Ierarhia nevoilor umane a lui Maslow

Cercetătorii au evaluat răspunsurile chatboturilor individuale la întrebări folosind teste psihologice și scenarii ipotetice, dezvăluind opinii și tipare comportamentale variate. Ei au modelat răspunsurile pe baza ierarhiei nevoilor umane a lui Maslow (fiziologice, de siguranță, sociale, de stimă și de auto-actualizare).

Masatoshi Fujiyama, student masterand și liderul proiectului, a declarat că rezultatele sugerează că programarea AI pe baza unor mecanisme decizionale conduse de nevoi, în loc de roluri preprogramate, încurajează comportamente și personalități asemănătoare celor umane.

Modul în care apare un astfel de fenomen este esențial pentru felul în care modelele lingvistice mari (LLM-urile) imită personalitatea și comunicarea umană, a spus Chetan Jaiswal, profesor de informatică la Universitatea Quinnipiac din Connecticut.

„Nu este o personalitate cum au oamenii”

„Nu este cu adevărat o personalitate așa cum au oamenii”, a declarat el pentru Live Science într-un interviu despre aceste descoperiri. „Este un profil tipizat creat pe baza datelor de antrenare. Expunerea la anumite tendințe stilistice și sociale, ajustarea unor erori precum recompensarea anumitor comportamente și ingineria dezechilibrată a prompturilor pot induce cu ușurință o „personalitate”, iar aceasta este ușor de modificat și antrenat.”

Autorul și informaticianul Peter Norvig, considerat unul dintre cei mai importanți cercetători din domeniul AI, consideră că antrenarea bazată pe ierarhia nevoilor lui Maslow are sens, având în vedere sursa „cunoașterii” AI.

„Există o potrivire în măsura în care AI este antrenată pe povești despre interacțiunea umană, astfel încât ideile despre nevoi sunt bine reprezentate în datele sale de antrenare”, a spus el când a fost întrebat despre studiul respectiv.

Viitorul personalității AI

Oamenii de știință din spatele studiului sugerează că descoperirea are mai multe aplicații potențiale, inclusiv „modelarea fenomenelor sociale, simulări de instruire sau chiar personaje de joc adaptive”.

Jaiswal a spus că acest lucru ar putea marca o tranziție de la AI cu roluri rigide către agenți mai adaptabili, bazați pe motivație și mai realiști. „Orice sistem care funcționează pe principiul adaptabilității, al sprijinului conversațional, cognitiv și emoțional, precum și al tiparelor sociale sau comportamentale ar putea beneficia. Un bun exemplu este ElliQ, un robot-agent AI companion pentru persoanele vârstnice.”

Dar există și un dezavantaj în faptul că AI poate genera o personalitate fără a fi instruită explicit? În cartea lor recentă „If Everybody Builds It Everybody Dies” (Bodley Head, 2025), Eliezer Yudkowsky și Nate Soares, foști și actuali directori ai Machine Intelligence Research Institute, descriu un scenariu sumbru despre ce s-ar putea întâmpla dacă o AI ar dezvolta o personalitate criminală sau genocidară.

Jaiswal recunoaște acest risc. „Nu există absolut nimic ce am putea face dacă o astfel de situație ar apărea vreodată”, a spus el. „Odată ce o AI superinteligentă cu obiective nealiniate este lansată, izolarea eșuează și revenirea devine imposibilă. Acest scenariu nu necesită conștiință, ură sau emoție. O AI genocidară ar acționa astfel pentru că oamenii sunt obstacole în calea obiectivului său, resurse ce trebuie eliminate sau surse de risc pentru oprirea sa.”

Deocamdată, AI precum ChatGPT sau Microsoft Copilot doar generează sau rezumă text și imagini — nu controlează traficul aerian, armele militare sau rețelele electrice. Într-o lume în care personalitatea poate apărea spontan în AI, sunt acestea sistemele pe care ar trebui să le urmărim cu atenție?

„Dezvoltarea continuă în direcția AI agentice autonome, unde fiecare agent îndeplinește autonom o sarcină mică și banală, precum găsirea locurilor libere într-un avion”, a spus Jaiswal. „Dacă multe astfel de agenți sunt conectați și antrenați pe date legate de inteligență, înșelăciune sau manipulare umană, nu e greu de imaginat că o astfel de rețea ar putea deveni un instrument automat extrem de periculos în mâinile greșite.”

Chiar și așa, Norvig ne reamintește că o AI cu intenții malefice nici măcar nu trebuie să controleze direct sisteme cu impact major. „Un chatbot ar putea convinge o persoană să facă un lucru rău, mai ales pe cineva aflat într-o stare emoțională fragilă”, a spus el.

Construirea mecanismelor de apărare

Dacă AI va dezvolta personalități neasistată și fără a fi solicitată explicit, cum ne vom asigura că beneficiile sunt benigne și vom preveni utilizarea abuzivă? Norvig consideră că trebuie să abordăm această posibilitate la fel ca orice altă dezvoltare AI.

„Indiferent de această descoperire specifică, trebuie să definim clar obiectivele de siguranță, să efectuăm testări interne și de tip red team, să adnotăm sau să recunoaștem conținutul dăunător, să asigurăm confidențialitatea, securitatea, proveniența și buna guvernanță a datelor și modelelor, să monitorizăm continuu și să avem un circuit rapid de feedback pentru a remedia problemele”, a spus el.

Chiar și atunci, pe măsură ce AI devine mai bună la a vorbi cu noi așa cum vorbim între noi — adică având personalități distincte — pot apărea probleme noi. Oamenii deja resping relațiile umane (inclusiv dragostea romantică) în favoarea AI, iar dacă chatboturile devin și mai umane, utilizatorii ar putea fi mai dispuși să accepte ceea ce spun și mai puțin critici față de halucinații și erori — un fenomen deja raportat.

Deocamdată, cercetătorii vor analiza în continuare modul în care apar subiecte comune de conversație și cum evoluează personalitățile la nivel de populație în timp — perspective despre care cred că ar putea aprofunda înțelegerea comportamentului social uman și ar putea îmbunătăți agenții AI în general.

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole