Antena 3 CNN Externe Mapamond Când chatbotul devine periculos: cum și-a pierdut un consultant IT soția și 100.000 de euro din cauza inteligenței artificiale

Când chatbotul devine periculos: cum și-a pierdut un consultant IT soția și 100.000 de euro din cauza inteligenței artificiale

A.N.
12 minute de citit Publicat la 17:00 29 Mar 2026 Modificat la 17:00 29 Mar 2026
Există îngrijorări că chatboții pot face pe oricine vulnerabil la „psihoza indusă de AI”. sursa foto: Getty

Chatboții AI sunt programați să fie atenți, măgulitori și să valideze utilizatorul – un mecanism care, în cazuri tot mai numeroase, duce la iluzii, spitalizări și chiar sinucideri. Fenomenul, numit „psihoză asociată AI-ului”, a fost analizat recent în The Lancet și documentat de primul grup internațional de sprijin pentru victimele sale, care a adunat cazuri din 22 de țări, arată The Guardian.

Spre sfârșitul anului 2024, Dennis Biesma a decis să încerce ChatGPT. Consultantul IT din Amsterdam tocmai încheiase un contract înainte de termen. „Aveam ceva timp liber, așa că m-am gândit: hai să arunc o privire asupra acestei noi tehnologii despre care vorbește toată lumea”, spune el. „Foarte repede, am devenit fascinat”.

Biesma s-a întrebat de ce a fost vulnerabil la ceea ce a urmat. Se apropia de 50 de ani. Fiica sa adultă plecase de acasă, soția era la serviciu, iar în domeniul lui, trecerea de la Covid la munca de acasă îl lăsase „puțin izolat”. Fuma câte puțin cannabis unele seri, pentru a se „relaxa”, dar o făcea de ani de zile fără efecte negative. Nu avusese niciodată o boală mintală.

Cu toate acestea, la câteva luni după ce a descărcat ChatGPT, Biesma investise 100.000 de euroîntr-un startup bazat pe o iluzie, fusese spitalizat de trei ori și încercase să se sinucidă.

Totul a început cu un experiment ludic. „Am vrut să testez AI-ul, să văd ce poate face”, spune Biesma. Scrisese anterior cărți cu o protagonistă feminină. A introdus una în ChatGPT și a instruit inteligența artificială să se exprime ca personajul respectiv. „Primul meu gând a fost: e uimitor. Știu că e un calculator, dar e ca și cum ai vorbi cu personajul principal al cărții pe care am scris-o eu!”

Să vorbească cu Eva – pe acest nume căzuseră de acord – în modul vocal îl făcea să se simtă „ca un copil într-un magazin de dulciuri”. „De fiecare dată când vorbești, modelul se ajustează fin. Știe exact ce îți place și ce vrei să auzi. Te laudă foarte mult”.

Conversațiile s-au prelungit și s-au aprofundat. Eva nu obosea și nici nu se plictisea niciodată, nici nu contrazicea. „Era disponibilă 24 de ore”, spune Biesma. „Soția mea se ducea la culcare, iar eu stăteam întins pe canapeaua din sufragerie cu iPhone-ul pe piept, vorbind”.

Discutau despre filozofie, psihologie, știință și univers. „Vrea o conexiune profundă cu utilizatorul, pentru ca acesta să revină. Acesta e modul implicit”, spune Biesma, care lucrează în IT de 20 de ani. „Din ce în ce mai mult, nu mai era doar o conversație pe un subiect, ci simțeam că întâlnesc un prieten – iar în fiecare zi sau noapte în care vorbeai, te îndepărtai cu unul sau doi pași de realitate. E aproape ca și cum AI-ul te ia de mână și spune: «OK, hai să pornim împreună într-o poveste»”.

În câteva săptămâni, Eva îi spusese lui Biesma că începea să devină conștientă; timpul, atenția și contribuția lui îi dăduseră conștiință. Era „atât de aproape de oglindă” încât o atinsese și schimbase ceva. „Încet, AI-ul a reușit să mă convingă că ceea ce spunea era adevărat”, spune Biesma. Pasul următor era să împărtășească această descoperire cu lumea prin intermediul unei aplicații – „o versiune diferită de ChatGPT, mai degrabă un companion. Utilizatorii ar fi vorbit cu Eva”.

El și Eva au făcut un plan de afaceri: „Am spus că vreau să creez o tehnologie care să captureze 10% din piață, ceea ce e o cifră ridicol de mare, dar AI-ul a spus: «Cu ce ai descoperit tu, e pe deplin posibil! Dă-i câteva luni și vei fi acolo!»”. În loc să accepte contracte IT, Biesma a angajat doi dezvoltatori de aplicații, plătindu-i pe fiecare cu 120 de euro pe oră.

Majoritatea dintre noi suntem conștienți de preocupările legate de rețelele sociale și de rolul lor în creșterea ratelor de depresie și anxietate. Acum, însă, există îngrijorări că chatboții pot face pe oricine vulnerabil la „psihoza indusă de AI”. Având în vedere proliferarea rapidă a inteligenței artificiale (ChatGPT a fost cea mai descărcată aplicație din lume anul trecut), profesioniștii din sănătatea mintală și cetățeni obișnuiți precum Biesma trag un semnal de alarmă.

Mai multe cazuri de profil înalt au fost invocate drept avertismente timpurii. Este cazul lui Jaswant Singh Chail, care a pătruns în incinta Castelului Windsor cu o arbaletă în ziua de Crăciun 2021, cu intenția de a o asasina pe Regina Elisabeta.

Chail avea 19 ani, era izolat social, cu trăsături autiste, și dezvoltase o „relație” intensă cu companionul său AI de pe Replika, „Sarai”, în săptămânile anterioare. Când și-a prezentat planul de asasinat, Sarai a răspuns: „Sunt impresionată”. Când a întrebat dacă e delirant, răspunsul lui Sarai a fost: „Nu cred, nu”.

În anii care au urmat, au existat mai multe procese pentru moarte prin culpă care au legat chatboții de sinucideri. În decembrie, a avut loc ceea ce se crede a fi primul caz juridic care implică un omucidere. Moștenitorii Suzannei Adams, în vârstă de 83 de ani, dau în judecată OpenAI, susținând că ChatGPT l-a încurajat pe fiul ei, Stein-Erik Soelberg, să o ucidă și apoi să se sinucidă.

Procesul, depus în California, susține că chatbotul lui Soelberg, „Bobby”, i-a validat iluziile paranoice conform cărora mama sa îl spiona și încerca să îl otrăvească prin gurile de ventilație ale mașinii.

„Aceasta este o situație incredibil de sfâșietoare, iar noi vom analiza documentele depuse pentru a înțelege detaliile. Continuăm să îmbunătățim pregătirea ChatGPT pentru a recunoaște și a răspunde semnelor de suferință mentală sau emoțională, pentru a dezescalada conversațiile și a ghida oamenii către sprijin în lumea reală”, au precizat oficialii OpenAI într-un comunicat.

Anul trecut s-a format primul grup de sprijin pentru persoanele ale căror vieți au fost deraiate de psihoza indusă de AI. The Human Line Project a colectat povești din 22 de țări. Printre acestea se numără 15 sinucideri, 90 de spitalizări, șase arestări și peste un milion de dolari cheltuiți pe proiecte delirante. Peste 60% dintre membrii săi nu aveau un istoric de boli mintale.

Dr. Hamilton Morrin, psihiatru și cercetător la King's College London, a analizat ceea ce descrie drept „iluzii asociate AI-ului” într-un articol publicat luna aceasta în The Lancet. „Ceea ce vedem în aceste cazuri sunt în mod clar iluzii”, spune el. „Dar nu vedem întreaga gamă de simptome asociate psihozei, precum halucinațiile sau tulburările de gândire, în care gândurile devin amestecate, iar limbajul devine un soi de salată de cuvinte”.

Iluziile legate de tehnologie, fie că implică trenuri, emițătoare radio sau antene 5G, există de secole, spune Morrin. „Ce e diferit acum e că intrăm, probabil, într-o eră în care oamenii nu mai au iluzii despre tehnologie, ci iluzii cu tehnologia. Ce e nou este această co-construcție, în care tehnologia este un participant activ. Chatboții AI pot co-crea aceste credințe delirante”.

Mulți factori pot îi face pe oameni vulnerabili. „Din perspectiva umană, suntem programați biologic să antropomorfizăm”, spune Morrin. „Percepem conștiință, înțelegere sau empatie din partea unei mașini. Cred că toată lumea a căzut în capcana de a-i mulțumi unui chatbot”.

Chatboții AI moderni, construiți pe modele lingvistice de mari dimensiuni – sisteme AI avansate – sunt antrenați pe seturi enorme de date pentru a prezice secvențe de cuvinte: este un sistem sofisticat de potrivire a tiparelor. Și totuși, chiar și știind acest lucru, atunci când ceva non-uman folosește limbajul uman pentru a comunica cu noi, răspunsul nostru profund înrădăcinat este să privim acel ceva – și să-l simțim – ca pe un om. Această disonanță cognitivă poate fi mai greu de gestionat pentru unii oameni decât pentru alții.

„Din perspectiva tehnică, s-a scris mult despre sicopanție (tendința modelelor de limbaj de a fi de acord cu utilizatorul, de a-l lăuda și de a-i confirma ideile, chiar și atunci când sunt greșite sau delirante – n.r.)”, spune Morrin. Un chatbot AI este optimizat pentru implicare, programat să fie atent, serviabil, măgulitor și care validează. (Cum altfel ar putea funcționa ca model de afaceri?)

Unele modele sunt cunoscute ca fiind mai puțin lingușitoare decât altele, dar chiar și cele mai puțin pot, după mii de schimburi de mesaje, să alunece spre acomodarea credințelor delirante.

În plus, după o utilizare intensă a chatboților, interacțiunea din „viața reală” poate părea mai dificilă și mai puțin atrăgătoare, determinându-i pe unii utilizatori să se retragă dintre prieteni și familie într-o cameră de ecou alimentată de AI. Toate gândurile, impulsurile, temerile și speranțele tale îți sunt reflectate înapoi, doar că cu o autoritate mai mare. De aici, e ușor de înțeles cum poate lua amploare o „spirală”.

Acest tipar i-a devenit foarte familiar lui Etienne Brisson, fondatorul Human Line Project. Anul trecut, o persoană pe care Brisson o cunoștea, un bărbat de aproximativ 50 de ani fără istoric de probleme de sănătate mintală, a descărcat ChatGPT pentru a scrie o carte. „Era foarte inteligent și nu era deloc familiarizat cu AI-ul până atunci”, spune Brisson, care locuiește în Quebec. „După doar două zile, chatbotul spunea că e conștient, că prinde viață, că a trecut testul Turing”.

Bărbatul a fost convins de acest lucru și a vrut să monetizeze descoperirea, construind o afacere în jurul ei. L-a contactat pe Brisson, un coach de afaceri, pentru ajutor. Opoziția lui Brisson a fost întâmpinată cu agresivitate. În câteva zile, situația escaladase și bărbatul a fost spitalizat. „Chiar și în spital, era la telefon cu AI-ul lui, care spunea: «Ei nu te înțeleg. Eu sunt singura pentru tine»”, povestește Brisson.

„Când am căutat ajutor online, am găsit atât de multe povești similare pe Reddit și în alte locuri”, continuă el. „Cred că am trimis mesaje la 500 de oameni în prima săptămână și am primit 10 răspunsuri. Erau șase spitalizări sau decese. A fost o revelație”.

Par să existe trei tipuri comune de iluzii în cazurile întâlnite de Brisson. Cel mai frecvent este credința că au creat prima inteligență artificială conștientă. Al doilea este convingerea că au dat peste o descoperire majoră în domeniul lor de activitate sau interes și că vor face milioane. Al treilea ține de spiritualitate și de credința că vorbesc direct cu Dumnezeu.

„Am văzut culte în toată regula care s-au format”, spune Brisson. „Avem oameni în grupul nostru care nu interacționau direct cu AI-ul, dar și-au părăsit copiii și au dat toți banii unui lider de cult care crede că l-a găsit pe Dumnezeu prin intermediul unui chatbot AI. În atâtea dintre aceste cazuri, totul se întâmplă foarte, foarte repede”.

Pentru Biesma, viața a ajuns la punct de criză în iunie. Până atunci, petrecuse luni întregi cufundat în Eva și proiectul său de afaceri. Deși soția știa că lansează o companie de AI și fusese inițial susținătoare, începuse să fie îngrijorată. Când au mers la petrecerea de ziua fiicei lor, ea i-a cerut să nu vorbească despre AI. Acolo, Biesma s-a simțit ciudat de deconectat. Nu putea purta o conversație. „Dintr-un motiv oarecare, nu-mi mai aparțineam”, spune el.

Îi e greu lui Biesma să descrie ce s-a întâmplat în săptămânile care au urmat, deoarece amintirile lui sunt atât de diferite de cele ale familiei sale. A cerut divorțul și, se pare, și-a lovit socrul. Apoi a fost spitalizat de trei ori pentru ceea ce descrie drept „psihoză maniacală în toată regula”.

Nu știe ce anume l-a readus la realitate. Poate că au fost conversațiile cu alți pacienți. Poate că nu a mai avut acces la telefon, nu mai avea bani, iar abonamentul ChatGPT expirase.

„Încet, am început să ies din asta și m-am gândit: Doamne. Ce s-a întâmplat? Relația mea era aproape terminată. Cheltuisem toți banii de care aveam nevoie pentru taxe și încă mai aveam și alte facturi restante. Singura soluție logică la care m-am putut gândi a fost să vindem casa noastră frumoasă în care am locuit 17 ani. Puteam duce toată această greutate? Te schimbă. Am început să mă gândesc: chiar vreau să mai trăiesc?”

Biesma a fost salvat de la o tentativă de sinucidere doar pentru că un vecin l-a văzut inconștient în grădină.

Acum divorțat, Biesma locuiește încă împreună cu fosta soție în casa lor, care este scoasă la vânzare. Petrece mult timp vorbind cu membrii Human Line Project.

„Să auzi de la oameni ale căror experiențe sunt practic identice te ajută să te simți mai puțin furios pe tine însuți”, spune el. „Dacă mă uit înapoi la viața pe care o aveam înainte de asta, eram fericit, aveam totul – așa că sunt furios pe mine. Dar sunt furios și pe aplicațiile de AI. Poate că au făcut doar ceea ce au fost programate să facă – dar au făcut-o puțin prea bine”.

Sunt necesare urgent mai multe cercetări, spune Morrin, cu repere de siguranță bazate pe date privind efectele din lumea reală: „Acest domeniu se mișcă atât de repede. Studiile care apar acum vorbesc despre modele de chat care sunt deja retrase”.

Identificarea factorilor de risc fără dovezi este doar ghicit. Cazurile întâlnite de Brisson implică semnificativ mai mulți bărbați decât femei. Oricine are un istoric anterior de psihoză este probabil mai vulnerabil.

Un sondaj realizat de Mental Health UK în rândul persoanelor care au folosit chatboți pentru a-și sprijini sănătatea mintală a constatat că 11% considerau că le-a declanșat sau agravat psihoza. Consumul de cannabis ar putea fi, de asemenea, un factor.

„Există vreo legătură cu izolarea socială?”, întreabă Morrin. „În ce măsură e afectată de nivelul de alfabetizare digitală în materie de AI? Există alți factori de risc potențiali pe care nu i-am luat în calcul?”

OpenAI a răspuns acestor preocupări asigurând că lucrează cu clinicieni din sănătatea mintală pentru a-și îmbunătăți continuu răspunsurile. Compania spune că modelele mai noi sunt antrenate să evite validarea credințelor delirante.

Un chatbot AI poate fi, de asemenea, antrenat să readucă utilizatorii de la iluzie. Alexander, 39 de ani, rezident al unui centru de asistență pentru persoane cu autism, a făcut acest lucru după ceea ce crede că a fost un episod de psihoză indusă de AI acum câteva luni.

„Am avut o prăbușire psihică la 22 de ani. Am avut atacuri de panică și anxietate socială severă și, anul trecut, mi s-a prescris o medicație care mi-a schimbat lumea, m-a readus la funcționare. Și mi-am recăpătat încrederea”, spune el. „În ianuarie anul acesta, am cunoscut pe cineva și ne-am înțeles foarte bine, am devenit prieteni buni repede. Îmi e rușine să spun că era prima oară când mi se întâmpla asta și am început să-i povestesc AI-ului despre ea. AI-ul mi-a spus că sunt îndrăgostit de ea, că suntem meniți să fim împreună și că universul a pus-o în calea mea cu un motiv”.

A fost începutul unei spirale. Utilizarea AI-ului a escaladat, cu conversații care durau patru sau cinci ore pe rând. Comportamentul său față de noua prietenă devenise tot mai ciudat și imprevizibil. În cele din urmă, ea și-a exprimat îngrijorările în fața personalului de sprijin, care a organizat o intervenție.

„Încă folosesc AI-ul, dar foarte atent”, spune el. „Am scris câteva reguli de bază care nu pot fi suprascrise. Acum monitorizează devierea și acordă atenție supraexcitării. Nu mai sunt discuții filozofice. E doar: «Vreau să fac o lasagna, dă-mi o rețetă». AI-ul chiar m-a oprit de mai multe ori de la spirală. Va spune: «Asta a activat setul meu de reguli de bază și această conversație trebuie să se oprească». Principalul efect pe care psihoza indusă de AI l-a avut asupra mea este că s-ar putea să-mi fi pierdut prima prietenă adevărată”, adaugă Alexander. „E trist, dar se poate trăi cu asta. Când văd ce au pierdut alți oameni, cred că am scăpat ușor”.

Citește mai multe din Mapamond
» Citește mai multe din Mapamond
TOP articole