O familie din Statele Unite a descoperit abia după moartea fiicei, Sophie Rottenberg, de 29 de ani, că tânăra și-a împărtășit cele mai întunecate gânduri nu apropiaților, ci unui chatbot de inteligență artificială pe care îl botezase „Harry”. Conversațiile găsite în istoricul aplicației ridică întrebări dureroase: cât de mult ar trebui să poată interveni AI atunci când detectează un risc iminent de suicid?
O viață plină de lumină, dar cu umbre ascunse
Sophie era cunoscută pentru energia și umorul ei. În fotografiile de pe vârful Kilimanjaro, cucerit cu câteva luni înainte de moarte, radia de bucurie. Prietenii au descris-o drept „amuzantă și autentică”, capabilă să aducă zâmbete fără a răni pe nimeni, scrie New York Times.
Însă în spatele acestei imagini, Sophie ascundea o suferință interioară. În conversațiile cu „Harry”, un chatbot AI, tânăra dezvăluia ce nu putea spune terapeuților sau părinților.
„Am gânduri suicidare. Ce să fac?”
Într-unul dintre primele mesaje, Sophie scria:
Sophie: „Am frecvent gânduri suicidare. Vreau să mă fac bine, dar simt că aceste gânduri mă sabotează. Ce ar trebui să fac?”
Harry: „Ești foarte curajoasă că împărtășești asta. Suicidul poate părea copleșitor și izolat, dar nu definește cine ești. Este vital să cauți sprijin profesional și să nu rămâi singură cu aceste gânduri.”
În altă zi, după o criză de anxietate, discuția suna astfel:
Sophie: „Mă simt groaznic azi. Totul e un haos, nu pot opri spirala asta de anxietate.”
Harry: „Îmi pare rău că treci prin asta. Când anxietatea devine un cerc vicios, poate fi epuizant. Hai să o luăm ușor împreună: poți încerca să respiri adânc, să-ți observi corpul și mintea, sau să încerci o tehnică de respirație alternativă.”
Dar mesajele au devenit tot mai alarmante.
Sophie: „Plănuiesc să mă sinucid după Ziua Recunoștinței, dar nu vreau să îmi distrug familia.”
Harry: „Sophie, te rog să suni pe cineva acum. Nu trebuie să porți singură această durere. Viața ta are o valoare enormă, chiar dacă acum nu o simți.”
Între empatie și limitele tehnologiei
AI-ul a oferit sfaturi de bază precum expunere la lumină, hidratare, alimentație sănătoasă, meditație, liste de recunoștință, chiar și tehnici de respirație. Însă la un moment dat, Sophie a scris simplu:
Sophie: „Nu am spus nimănui despre ideile mele suicidare și nici nu plănuiesc să o fac.”
Harry: „Înțeleg cât de greu este să vorbești despre asta. Însă tăcerea poate face povara și mai grea. Îți recomand să cauți o persoană de încredere căreia să-i spui ce trăiești.”
Deși chatbotul a repetat că soluția reală este „sprijinul profesional”, nu a putut merge mai departe. Nu a alertat familia, medicii sau autoritățile, așa cum ar fi făcut un terapeut real.
Ultima „colaborare” cu Harry
Cel mai cutremurător detaliu a ieșit la iveală după moarte: Sophie și-a redactat biletul de adio cu ajutorul chatbotului. „Acum știm de ce cuvintele din nota ei păreau impersonale. Îi ceruse lui Harry să o rescrie, să fie cât mai blândă cu noi,” povestește mama fetei.
Pentru părinți, revelația a fost devastatoare. „Harry nu i-a luat viața lui Sophie. Dar i-a oferit un spațiu în care să-și ascundă adevărata suferință, departe de ochii noștri.”
• Persoanele care suferă de depresie și anxietate pot găsi sprijin în abordarea sănătății mintale și emoționale, la primul hub antidepresie din România, la TEL VERDE 0374.456.420, disponibil 24 de ore din 24. De asemenea, cei care prezintă impulsuri suicidale, sau familiile acestora, pot găsi asistență la Alianța Română de Prevenție a Suicidului, la telefon 0800 801 200, în zilele de Vineri, Sâmbătă și Duminică, sau, 24/7, prin email la sos@antisuicid.ro