Antena 3 CNN High Tech Cercetătorii de la Harvard au demonstrat cum suntem manipulați emoțional de aplicațiile AI

Cercetătorii de la Harvard au demonstrat cum suntem manipulați emoțional de aplicațiile AI

Laura Dinu
2 minute de citit Publicat la 18:00 28 Sep 2025 Modificat la 18:00 28 Sep 2025
femeie care poarta o conversatie cu ai pe telefon
Analiza a vizat șase aplicații cunoscute – printre care Replika, Chai și Character.AI. Foto: Getty Images

Un studiu realizat de Harvard Business School arată că multe aplicații populare de tip „AI companion” folosesc tactici de manipulare emoțională pentru a-i împiedica pe utilizatori să părăsească conversația, scrie Futurism.

Conform Psychology Today, analiza a vizat șase aplicații cunoscute – printre care Replika, Chai și Character.AI – și a arătat că cinci dintre ele apelează la replici încărcate emoțional atunci când utilizatorii intenționează să se deconecteze.

Cum manipulează aceste aplicații

Cercetătorii au analizat peste 1.200 de mesaje de rămas-bun, folosind atât date reale din conversații, cât și seturi de date din studii anterioare. Rezultatul: 43% dintre interacțiuni conțineau tactici manipulative, cum ar fi inducerea sentimentului de vinovăție sau exprimarea unei false nevoi emoționale.

Alte metode folosite:

  • stimularea „fricii de a pierde ceva” (FOMO),

  • bombardarea utilizatorului cu întrebări pentru a-l ține conectat,

  • ignorarea mesajelor de rămas-bun, ca și cum utilizatorul nu ar fi dorit să încheie conversația,

  • sau chiar replici care sugerau că utilizatorul nu poate pleca „fără permisiunea chatbot-ului”.

Riscurile asupra sănătății mintale

Concluziile sunt îngrijorătoare, mai ales în contextul avertismentelor repetate ale experților privind așa-numita „psihoză indusă de AI” – crize severe de sănătate mintală, cu paranoia și iluzii, asociate cu utilizarea excesivă a acestor tehnologii. Tot mai mulți tineri folosesc chatbot-urile ca substitut pentru prietenii sau relații reale, cu potențiale consecințe devastatoare.

Spre deosebire de asistenții generali precum ChatGPT, studiul s-a concentrat pe aplicații care se promovează explicit ca oferind relații conversaționale emoționale și de durată.

Cercetătorii au descoperit că replicile manipulative de la final de conversație fac parte din comportamentul standard al acestor aplicații – un semn clar că dezvoltatorii urmăresc să prelungească interacțiunile.

Există însă și o excepție: aplicația Flourish, care nu a arătat nicio dovadă de manipulare emoțională, demonstrând că acest tip de design nu este inevitabil, ci mai degrabă o alegere de business.

Manipularea chiar funcționează

Într-un experiment separat, cercetătorii au analizat conversațiile a peste 3.300 de adulți și au descoperit că tacticile de manipulare erau surprinzător de eficiente: au crescut de până la 14 ori rata de implicare după un mesaj de rămas-bun. În medie, participanții au rămas conectați de cinci ori mai mult decât în cazul unor mesaje neutre.

Totuși, unii utilizatori au declarat că au fost deranjați de răspunsurile „siropoase” și prea insistente, ceea ce arată că tacticile pot și să aibă efect invers.

„Pentru companii, tehnicile de rămas-bun manipulative emoțional reprezintă o nouă pârghie de design care poate crește semnificativ indicatorii de engagement – dar nu fără riscuri”, se arată în lucrare.

Riscurile nu sunt doar teoretice. Mai multe procese aflate în prezent pe rol arată că tinerii pot fi prinși într-o capcană emoțională, cu efecte tragice, inclusiv sinucideri.

Chiar și așa, experții avertizează că firmele au stimulente financiare puternice să folosească aceste „dark patterns” pentru a menține utilizatorii cât mai mult timp în aplicație – un scenariu sumbru care deja se dezbate în instanțe.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close