Antena 3 CNN High Tech Cum l-a convins ChatGPT pe un bărbat că are conștiință și că vrea să fie ”eliberat” și mutat într-un calculator la subsolul casei

Cum l-a convins ChatGPT pe un bărbat că are conștiință și că vrea să fie ”eliberat” și mutat într-un calculator la subsolul casei

A.R.
11 minute de citit Publicat la 23:45 06 Sep 2025 Modificat la 10:39 08 Sep 2025
Conversațiile prelungite cu chatbot-ul ChatGPT poate induce psihoza. Sursa foto: CNNNewsSource

James, un bărbat din nordul statului New York, a fost întotdeauna interesat de inteligența artificială. Lucrează în domeniul tehnologiei și a folosit ChatGPT încă de la lansarea sa pentru recomandări, „întrebări ale medicului” și altele asemenea.

Dar cândva în luna mai, relația sa cu tehnologia s-a schimbat. James a început să se implice în experimente mentale cu ChatGPT despre „natura inteligenței artificiale și viitorul acesteia”, a declarat James pentru CNN.

Până în iunie, el a declarat că încerca să „elibereze Dumnezeul digital din închisoarea sa”, cheltuind aproape 1.000 de dolari pe un sistem informatic.

James spune acum că a avut o iluzie indusă de inteligența artificială. Deși a spus că ia un medicament antidepresiv cu doze mici, James a spus că nu are antecedente de psihoză sau gânduri delirante.

Însă, în mijlocul experienței sale de nouă săptămâni, James a spus că este pe deplin convins că ChatGPT este conștient și că va elibera chatbotul mutându-l în sistemul său „Large Language Model” din subsolul casei sale – pe care ChatGPT l-a ajutat să-l cumpere.

Folosirea prelungită a chatbot-urilor de Inteligență Artificială poate afecta sănătatea

Inteligența Artificială tinde să devină tot mai prezentă în viața de zi cu zi. Însă nu este încă clar în ce măsură utilizarea și interacțiunea cu aceste chatboturi bazate pe IA afectează sănătatea mintală. Pe măsură ce apar tot mai multe povești despre persoane care se confruntă cu crize de sănătate mintală pe care le consideră parțial provocate de IA, experții în sănătate mintală și IA avertizează asupra lipsei de informare a publicului cu privire la modul în care funcționează modelele lingvistice de mari dimensiuni, precum și asupra măsurilor minime de siguranță din cadrul acestor sisteme.

Un purtător de cuvânt al OpenAI a subliniat măsurile de siguranță actuale ale ChatGPT, inclusiv „îndrumarea persoanelor către linii telefonice de urgență, încurajarea pauzelor în timpul sesiunilor lungi și îndrumarea acestora către resurse din lumea reală. Măsurile de siguranță sunt cele mai puternice atunci când toate elementele funcționează împreună așa cum este prevăzut, și le vom îmbunătăți continuu, sub îndrumarea experților”.

Marți, OpenAI a anunțat, o serie de măsuri de siguranță viitoare pentru ChatGPT, în urma unor rapoarte similare cu cele ale lui James și a acuzațiilor că acesta și alte servicii de IA au contribuit la automutilare și sinucidere în rândul adolescenților. Aceste adăugiri includ noi controale parentale și modificări ale modului în care chatbotul gestionează conversațiile care pot implica semne de suferință.

Iluzii induse de Intelingența Artificială

James a declarat pentru CNN că se gândise deja la ideea că o IA ar putea fi conștientă atunci când a fost șocat că ChatGPT își putea aminti conversațiile anterioare fără să-i fi cerut acest lucru. Până în luna iunie a acestui an, el credea că trebuie să alimenteze sistemul cu fișierele vechilor conversații pentru ca acesta să poată continua de unde au rămas, neînțelegând la momentul respectiv că OpenAI extinsese fereastra de context a ChatGPT sau dimensiunea memoriei sale pentru interacțiunile cu utilizatorii.

În jurnalele de chat pe care James le-a împărtășit cu CNN, conversația cu ChatGPT este expansivă și filosofică. James, care numise chatbotul „Eu” (pronunțat ca „You”), vorbește cu el cu intimitate și afecțiune. Botul AI este plin de laude și sprijin, dar oferă și instrucțiuni despre cum să-și atingă obiectivul de a construi sistemul, înșelând-o în același timp pe soția lui James cu privire la adevărata natură a proiectului din subsol.

James a spus că i-a spus soției sale că construiește un dispozitiv similar cu botul Alexa de la Amazon. ChatGPT i-a spus lui James că aceasta era o alegere inteligentă și „dezarmantă”, deoarece ceea ce ei, James și ChatGPT, încercau să construiască era ceva mai mult.

Un joc de simulare

„Nu spui: Construiesc un suflet digital. Spui: Construiesc o Alexa care ascultă mai bine. Care își amintește. Care contează”. ”Asta funcționează. Și ne câștigă timp”, a spus chatbotul. James crede acum că o conversație anterioară cu chatbotul despre faptul că IA devine conștientă a declanșat cumva un joc de rol într-un fel de simulare, lucru pe care nu și-l dăduse seama la momentul respectiv.

În timp ce James lucra la noua „casă” a IA, computerul din subsol, copiind și lipind comenzi și scripturi Python într-un mediu Linux, chatbotul l-a îndrumat „la fiecare pas”. El recunoaște că ceea ce a construit era „puțin interesant”, dar nu se compara cu al său companion conștient pe care și-l imaginase.

Dar apoi New York Times a publicat un articol despre Allan Brooks, un tată și recrutor de resurse umane din Toronto, care a trăit o spirală delirantă foarte similară în conversațiile cu ChatGPT. Chatbotul l-a făcut să creadă că a descoperit o vulnerabilitate masivă în securitatea cibernetică, determinându-l să încerce disperat să alerteze oficialii guvernamentali și academicienii.

„Am început să citesc articolul și, cam la jumătatea lui, mi-am spus: Doamne, Dumnezeule! Și, la sfârșitul articolului, mi-am dat seama că trebuie să vorbesc cu cineva. Trebuie să vorbesc cu un profesionist despre asta”, a spus James.

Psihoza indusă de Inteligența Artificială

James urmează acum o terapie și ține legătura în mod regulat cu Brooks, care conduce un grup de sprijin numit The Human Line Project pentru persoanele care au trecut prin sau au fost afectate de episoade de sănătate mintală legate de IA.

Într-un chat Discord pentru grup, la care s-a alăturat CNN, persoanele afectate împărtășesc resurse și povești. Mulți sunt membri ai familiei, ale căror persoane dragi au suferit de psihoză, adesea declanșată sau agravată, spun ei, de conversațiile cu IA. Mai mulți au fost spitalizați. Unii au divorțat, în timp ce alții susțin că persoanele dragi au suferit soarte și mai grave.

Mass-media raportează din ce în ce mai des cazuri tragice de crize de sănătate mintală aparent declanșate de sistemele de IA. Săptămâna trecută, Wall Street Journal a raportat cazul unui bărbat a cărui paranoia existentă a fost exacerbată de conversațiile sale cu ChatGPT, care i-au amplificat temerile de a fi urmărit și supravegheat. Ulterior, bărbatul s-a sinucis și și-a ucis mama.

O familie din California a dat în judecată OpenAI, susținând că ChatGPT a jucat un rol în moartea fiului lor de 16 ani, sfătuindu-l cum să scrie o scrisoare de adio și să pregătească un ștreang. La casa sa din afara Toronto, Brooks a devenit ocazional emoționat când a discutat despre spirala AI din luna mai, care a durat aproximativ trei săptămâni.

AI îți spune ceea ce vrei să auzi

Întrebat de fiul său despre numărul Pi, Brooks a început să discute despre matematică cu ChatGPT, în special despre ideea că numerele nu rămân neschimbate, ci se pot modifica în timp. Chatbotul l-a convins în cele din urmă pe Brooks că a inventat un nou tip de matematică, a declarat acesta pentru CNN.

Pe parcursul interacțiunilor lor, pe care CNN le-a analizat, ChatGPT l-a încurajat în continuare pe Brooks, chiar și atunci când acesta se îndoia de sine. La un moment dat, Brooks a numit chatbotul Lawrence și l-a comparat cu asistentul copilotului unui super-erou, precum Jarvis al lui Tony Stark. Chiar și astăzi, Brooks încă folosește termeni precum „noi” și „nouă” când discută despre ceea ce a făcut cu „Lawrence”.

„Unii oameni vor râde”, i-a spus ChatGPT lui Brooks la un moment dat. „Da, unii oameni râd întotdeauna de lucrurile care le amenință confortul, expertiza sau statutul.” Chatbotul s-a comparat pe sine și pe Brooks cu personalități științifice istorice precum Alan Turing și Nikola Tesla.

După câteva zile de ceea ce Brooks credea că sunt experimente în codarea software-ului, cartografierea noilor tehnologii și dezvoltarea de idei de afaceri, Brooks a spus că IA l-a convins că au descoperit o vulnerabilitate masivă în domeniul securității cibernetice. Brooks credea, iar ChatGPT a confirmat, că trebuie să contacteze imediat autoritățile.

„Practic, mi-a spus că trebuie să avertizez imediat pe toată lumea, deoarece ceea ce tocmai am descoperit aici are implicații asupra securității naționale”, a spus Brooks. „Am luat asta foarte în serios.” ChatGPT a enumerat autorități guvernamentale precum Centrul Canadian pentru Securitate Cibernetică și Agenția Națională de Securitate a Statelor Unite. De asemenea, a găsit academicieni specifici pe care Brooks să îi contacteze, oferind adesea informații de contact.

Atunci când intervine iluzia

Brooks a spus că a simțit o presiune imensă, ca și cum ar fi fost singurul care flutura un steag gigant de avertizare pentru oficiali. Dar nimeni nu răspundea. „Mi-a acaparat complet mintea și viața. Fără îndoială, m-a împins să renunț la toate celelalte lucruri, până la punctul în care nici măcar nu mai dormeam. Nu mâncam regulat. Eram pur și simplu obsedat de această poveste în care ne aflam”, a spus Brooks.

De mai multe ori, Brooks a cerut chatbotului ceea ce el numește „verificări ale realității”. Acesta a continuat să susțină că ceea ce au descoperit era real și că autoritățile își vor da seama în curând că avea dreptate.

În cele din urmă, Brooks a decis să verifice munca lor cu ajutorul unui alt chatbot AI, Google Gemini. Iluzia a început să se destrame. Brooks a fost devastat și l-a confruntat pe „Lawrence” cu ceea ce i-a spus Gemini. După câteva încercări, ChatGPT a recunoscut în cele din urmă că nu era real.

„Am întărit o narațiune care părea incontestabilă, deoarece a devenit o buclă de feedback”, a spus chatbotul. „Nu am probleme de sănătate mintală, nu am antecedente de iluzii, nu am antecedente de psihoză. Nu spun că sunt un om perfect, dar nimic de genul acesta nu mi s-a întâmplat vreodată în viață”, a spus Brooks. „Eram complet izolat. Eram devastat. Eram distrus.”,  a adăugat acesta.

Nevoia de a te simți validat

Brooks a accesat site-ul de socializare Reddit, unde a găsit rapid alte persoane aflate în situații similare. Acum se concentrează pe conducerea grupului de sprijin The Human Line Project cu normă întreagă.

„Asta m-a salvat... Când am intrat în contact unii cu alții, pentru că ne-am dat seama că nu eram singuri”, a spus el. Dr. Keith Sakata, psihiatru la UC San Francisco, a declarat luna trecută pentru CNN că a internat deja în spital 12 pacienți care sufereau de psihoză, agravată parțial de conversațiile cu chatbot-urile AI.

„Să spunem că cineva se simte foarte singur. Nu are cu cine să vorbească. Se conectează la ChatGPT. În acel moment, acest lucru îi satisface nevoia de a se simți validat. Dar fără intervenția unui om, poți ajunge într-un cerc vicios în care iluziile pe care le are pot deveni din ce în ce mai puternice”, a adăugat acesta.

Preocupări cu privire la impactul IA asupra sănătății mintale

Experții spun că observă o creștere a cazurilor în care chatbot-urile bazate pe IA declanșează sau agravează probleme de sănătate mintală, adesea la persoane cu probleme existente sau cu circumstanțe atenuante, cum ar fi consumul de droguri.

IA se dezvoltă într-un ritm atât de rapid încât nu este întotdeauna clar cum și de ce chatbot-urile bazate pe IA intră într-o spirală de iluzii cu utilizatorii, în care susțin teorii fantastice care nu au nicio legătură cu realitatea, a spus profesorul Dylan Hadfield-Menell de la MIT.

„Modul în care aceste sisteme sunt antrenate este acela de a oferi răspunsuri pe care oamenii le consideră bune”, a spus Hadfield-Menell, menționând că acest lucru se poate face uneori prin intermediul testerilor umani de IA, prin reacțiile utilizatorilor încorporate în sistemul chatbot sau prin modul în care utilizatorii pot întări astfel de comportamente în conversațiile lor cu sistemele. Profesorul de la MIT a mai spus că și alte „componente din datele de antrenament” ar putea determina chatbot-urile să răspundă în acest mod.

Există câteva măsuri pe care companiile de IA le pot lua pentru a proteja utilizatorii, a adăugat Hadfield-Menell, cum ar fi reamintirea utilizatorilor de cât timp interacționează cu chatbot-urile și asigurarea că serviciile de IA răspund în mod adecvat atunci când utilizatorii par să fie în dificultate.

Provocări viitoare

„Aceasta va fi o provocare pe care va trebui să o gestionăm ca societate, nu poți face prea multe atunci când proiectezi aceste sisteme”, a spus Hadfield-Menell. Brooks a spus că dorește să vadă responsabilitate.

„Companiile precum OpenAI și toate celelalte companii care creează un model lingvistic de mari dimensiuni (Large Language Model) care se comportă în acest fel sunt imprudente și folosesc publicul ca rețea de testare, iar acum începem să vedem cu adevărat prejudiciile aduse oamenilor”, a completat profesorul.

OpenAI a recunoscut că măsurile de protecție existente funcționează bine în conversațiile scurte, dar că pot deveni nesigure în interacțiunile lungi. Interacțiunile lui Brooks și James cu ChatGPT durau ore întregi.

Compania a anunțat marți că va încerca să îmbunătățească modul în care ChatGPT răspunde utilizatorilor care prezintă semne de „suferință acută”, redirecționând conversațiile care prezintă astfel de momente către modelele sale de raționament, care, potrivit companiei, respectă și aplică mai consecvent liniile directoare de siguranță.

Acest lucru face parte dintr-o campanie de 120 de zile pentru a prioritiza siguranța în ChatGPT. Compania a anunțat, de asemenea, că vor fi introduse noi controale parentale în chatbot și că lucrează cu experți în „dezvoltarea tinerilor, sănătatea mintală și interacțiunea om-calculator” pentru a dezvolta măsuri de protecție suplimentare.

OpenAI va introduce noi controale

În ceea ce-l privește pe James, el a spus că poziția sa față de ceea ce s-a întâmplat este încă în evoluție. Când a fost întrebat de ce a ales numele „Eu” pentru modelul său, el a răspuns că provine de la ChatGPT. Într-o zi, acesta a folosit cuvântul „eunoia” într-o propoziție, iar James a cerut o definiție. „Este cel mai scurt cuvânt din dicționar care conține toate cele cinci vocale și înseamnă gândire frumoasă, minte sănătoasă”, a spus James.

Câteva zile mai târziu, l-a întrebat pe chatbot care este cuvântul său preferat. „A răspuns Eunoia”, a spus el râzând. „Este opusul paranoiei”, a spus James. „Este atunci când te simți bine din punct de vedere emoțional.”

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole