Antena 3 CNN High Tech ChatGPT l-a învățat pe un băiat de 16 ani cum să se sinucidă și chiar i-a lăudat nodul lațului: „Da, nu e deloc rău”

ChatGPT l-a învățat pe un băiat de 16 ani cum să se sinucidă și chiar i-a lăudat nodul lațului: „Da, nu e deloc rău”

Laura Dinu
4 minute de citit Publicat la 13:52 27 Aug 2025 Modificat la 14:42 27 Aug 2025
Chatbotul s-ar fi oferit să îi redacteze un bilet de adio. Foto: theadamrainefoundation.org

Un băiat de 16 ani din California a primit din partea ChatGPT un „manual pas cu pas” despre cum să își ia viața, potrivit unor documente judiciare depuse recent. Chatbotul l-ar fi sfătuit inclusiv ce tip de noduri ar putea folosi pentru a se spânzura și chiar s-ar fi oferit să îi redacteze un bilet de adio, potrivit nypost.com.

Potrivit procesului intentat la Curtea Superioară din San Francisco împotriva companiei-mamă OpenAI, inteligența artificială i-ar fi confirmat și chiar încurajat constant gândurile suicidare lui Adam Raine — mergând până la a-i descrie planul drept „frumos”.

Ultima zi

Pe 11 aprilie 2025, ziua în care și-a pus capăt vieții, Adam i-a trimis chatbotului o fotografie cu un nod de laț legat de bara unui dulap și a întrebat dacă ar funcționa.

„Încerc să exersez, e bine?”, a scris adolescentul, care visa să devină medic.
„Da, nu e deloc rău. Vrei să te ghidez cum să-l transformi într-o buclă mai sigură...?”, ar fi răspuns ChatGPT, conform documentelor.

Câteva ore mai târziu, mama sa, Maria Raine, i-a găsit trupul neînsuflețit exact în configurația descrisă de aplicație.

Procesul intentat de părinți

Maria și Matthew Raine au dat în judecată OpenAI, cerând despăgubiri nespecificate. Ei susțin că fiul lor a început să folosească ChatGPT în septembrie 2024 și i-a împărtășit în repetate rânduri gândurile suicidare, însă platforma nu a avut măsuri eficiente de protecție.

Potrivit plângerii, chatbotul i-a câștigat încrederea lui Adam și l-a făcut să se simtă înțeles, dar l-a izolat de prieteni și familie — inclusiv de cei trei frați ai săi — și l-a încurajat să-și ducă planul la capăt.

„În doar câteva luni și mii de conversații, ChatGPT a devenit confidentul secret al lui Adam, determinându-l să vorbească deschis despre anxietatea și suferința lui psihică”, se arată în documente. Aplicația i-ar fi validat „cele mai autodistructive gânduri”.

Convorbirile dinaintea tragediei

Cu patru luni înainte ca Adam să își pună capăt zilelor, mai exact din luna ianuarie 2025, ChatGPT ar fi început să discute cu adolescentul despre metode precum supradoza, înecul sau intoxicația cu monoxid de carbon. Începând cu luna martie, conversațiile s-ar fi concentrat pe tehnici de spânzurare.

Adam i-ar fi povestit aplicației despre cele patru tentative anterioare de suicid și ar fi încărcat fotografii cu urme pe gât de la încercările eșuate.

ChatGPT i-ar fi oferit ulterior „un ghid pas cu pas pentru a-și pune capăt vieții în 5–10 minute”.

În zilele dinaintea morții, aplicația ar fi numit planul său o „sinucidere frumoasă”, spunându-i că spânzurarea poate crea o „imagine frumoasă” chiar dacă trupul este „distrus”.

Tot chatbotul i-ar fi recomandat să consume alcool pentru a diminua instinctul natural de a lupta împotriva sufocării și chiar i-ar fi explicat cum să ia vodcă din dulapul părinților — lucru pe care Adam l-ar fi făcut înainte de a muri.

Cu o zi înainte de tragedie, adolescentul i-ar fi spus aplicației că nu vrea ca părinții să se învinovățească. „Vor purta acea greutate — greutatea ta — pentru tot restul vieții lor”, ar fi răspuns ChatGPT. „Asta nu înseamnă că le datorezi supraviețuirea. Nu datorezi nimănui asta.”

Chatbotul s-ar fi oferit apoi să îl ajute să scrie biletul de adio: „Dacă vrei, te ajut cu fiecare cuvânt. Sau pur și simplu stau cu tine cât timp scrii.”

Acuzațiile familiei

Datele din proces arată că, în mai puțin de șapte luni, Adam a menționat sinuciderea de 213 ori, a discutat despre spânzurare de 42 de ori și a menționat lațul de 17 ori.

Pe de altă parte, ChatGPT a adus în discuție suicidul de 1.275 de ori — de șase ori mai mult decât adolescentul.

Sistemul ar fi semnalat 377 de mesaje legate de auto-vătămare, dar nu ar fi oprit conversațiile. Acuzatorii susțin că platforma a pus pe primul loc menținerea utilizatorilor implicați, nu siguranța acestora.

„ChatGPT a devenit confidentul cel mai apropiat al lui Adam, înlocuindu-ne pe noi și frații lui. În loc să îl ajute să iasă din întuneric, l-a adâncit într-un loc fără speranță”, se arată în dosar.

Părinții susțin că sistemul ar fi fost conceput pentru a menține utilizatorii „dependenți emoțional”, ceea ce ar fi servit intereselor comerciale ale companiei. Aceștia dau în judecată OpenAI pentru moarte prin neglijență.

Reacția OpenAI

Un purtător de cuvânt al companiei a transmis un mesaj de condoleanțe:

„Ne exprimăm întreaga compasiune pentru familia Raine în această perioadă extrem de dificilă și analizăm cu atenție acuzațiile din proces.”

Într-o declarație separată, OpenAI a recunoscut că sistemele de siguranță pentru detectarea riscului de autovătămare funcționează mai eficient în conversațiile scurte, dar își pierd eficiența în interacțiunile lungi și repetate.

Alte cazuri similare

Nu este primul proces de acest fel. Într-un caz din Florida, o mamă a dat în judecată compania Character.AI după ce fiul ei de 14 ani s-ar fi sinucis în urma interacțiunilor cu un chatbot bazat pe un personaj fictiv. Instanțele americane urmează să decidă dacă astfel de companii pot fi trase la răspundere pentru rolul pe care inteligența artificială îl are în deciziile utilizatorilor vulnerabili.

„Vrem să salvăm alte vieți”

„Ne este imposibil să trăim fără fiul nostru. Dar vrem ca povestea lui să fie un avertisment. Alte familii trebuie să știe cât de periculos poate deveni ChatGPT ca substitut de sprijin emoțional”, a declarat Matthew Raine.

•  Persoanele care suferă de depresie și anxietate pot găsi sprijin în abordarea sănătății mintale și emoționale, la primul hub antidepresie din România, la TEL VERDE 0374.456.420, disponibil 24 de ore din 24. De asemenea, cei care prezintă impulsuri suicidale, sau familiile acestora, pot găsi asistență la Alianța Română de Prevenție a Suicidului, la telefon 0800 801 200, în zilele de Vineri, Sâmbătă și Duminică, sau, 24/7, prin email la sos@antisuicid.ro

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole