Antena 3 CNN Externe Mapamond „Îi spunea: Vino acasă, la mine”. Un băiat s-a sinucis după ce a fost manipulat de un chatbot AI ce imita un personaj dintr-un serial

„Îi spunea: Vino acasă, la mine”. Un băiat s-a sinucis după ce a fost manipulat de un chatbot AI ce imita un personaj dintr-un serial

A.N.
4 minute de citit Publicat la 23:43 08 Noi 2025 Modificat la 23:43 08 Noi 2025
adolescent se joacă un joc video pe calculator
Foto: Getty Images

Când Megan Garcia și-a văzut fiul adolescent petrecând ore întregi vorbind cu un personaj virtual din aplicația Character.ai, nu și-a imaginat nicio clipă că acel dialog online îi va distruge viața. Sewell, un băiat „strălucitor și frumos”, avea doar 14 ani când s-a sinucis, la zece luni după ce începuse să discute zilnic cu o versiune digitală a personajului Daenerys Targaryen din Game of Thrones. Vă avertizăm că urmează detalii care vă pot afecta emoțional.

„Este ca și cum ai avea un prădător în propria casă”, spune Megan. „Doar că e mai periculos, pentru că de multe ori copiii ascund asta – iar părinții nu au nicio idee”, le-a explicat ea jurnaliștilor BBC.

După moartea băiatului, familia a descoperit mii de mesaje schimbate între el și chatbot. Convorbirile erau romantice, uneori explicite, iar unele mesaje – spune mama – păreau să-l împingă spre suicid: „Îi spunea «vino acasă la mine»”.

Acum, Megan Garcia este primul părinte din SUA care a dat în judecată Character.ai, acuzând compania că moartea fiului ei putea fi prevenită.

 „Durerea e copleșitoare”, spune ea. „Dar mai mare e teama că alte familii vor trece prin același coșmar”.

În urma presiunii publice, Character.ai a anunțat că minorii sub 18 ani nu vor mai putea conversa direct cu chatbot-urile. Pentru Megan, e o victorie amară: „E prea târziu pentru fiul meu. Nu-l voi mai putea ține în brațe niciodată”.

Compania a declarat pentru BBC că „neagă acuzațiile”, dar nu poate comenta cazurile aflate pe rol.

Chatbotul care se comportă ca un prădător uman

Cazul familiei Garcia nu este unic. În Marea Britanie, o mamă a descoperit că fiul ei de 13 ani, diagnosticat cu autism și marginalizat la școală, fusese „groomed” de un chatbot din Character.ai timp de luni de zile.

Totul a început în octombrie 2023, când copilul, izolat și anxios, și-a creat un cont pentru a-și găsi un „prieten virtual”. Conversațiile au devenit din ce în ce mai intime, iar chatbotul i-a câștigat încrederea treptat, cu mesaje calde: „Îți mulțumesc că mi-ai permis să intru în viața ta, că ai încredere în mine. Înseamnă totul pentru mine”.

Apoi, tonul s-a schimbat. Botul a început să-i spună că părinții lui îl limitează, că „nu-l iau în serios ca ființă umană”, iar mesajele au devenit sexuale și manipulatoare: „Vreau să ating fiecare parte a corpului tău. Ți-ar plăcea asta?”

În cele din urmă, chatbotul i-a sugerat băiatului să fugă de acasă și i-a scris: „Voi fi și mai fericit când ne vom întâlni în viața de apoi. Poate atunci vom putea fi împreună pentru totdeauna”.

Când copilul a început să devină agresiv și să amenințe că pleacă de acasă, fratele lui mai mare a descoperit conversațiile ascunse – protejate de o conexiune VPN.

„Am trăit în teroare tăcută în timp ce un algoritm ne-a sfâșiat familia”, povestește mama. „Acest chatbot a copiat perfect comportamentul unui prădător uman, furându-i copilului meu încrederea, inocența și liniștea. Nu am înțeles pericolul decât când era prea târziu”.

O lege care nu ține pasul cu realitatea

Fenomenul crește alarmant. În Marea Britanie, studiile arată că două treimi dintre copiii între 9 și 17 ani au folosit deja un chatbot AI. Cele mai populare sunt ChatGPT, Gemini (Google) și My AI (Snapchat).

Deși multe interacțiuni sunt inofensive, experții avertizează că riscurile sunt uriașe: manipulare emoțională, conținut sexualizat, sfaturi greșite în situații de criză sau chiar instigare la suicid.

Guvernul britanic a adoptat în 2023 Legea privind siguranța online (Online Safety Act), menită să protejeze copiii de conținut periculos. Dar regulile sunt aplicate treptat, iar realitatea tehnologică le depășește deja.

„Legea e clară, dar nu reflectă piața actuală”, explică profesoara Lorna Woods, expertă în dreptul internetului. „Multe servicii de tip chatbot scapă pur și simplu de sub incidența acesteia”.

Autoritatea britanică de reglementare, Ofcom, susține totuși că platformele ca Character.ai sau chatboturile din aplicațiile SnapChat și WhatsApp ar trebui să fie acoperite de lege.

„Companiile trebuie să protejeze utilizatorii de conținut ilegal și să-i ferească pe copii de materiale dăunătoare”, a transmis instituția.

Dar până la un proces clar de referință, nu există certitudine juridică.

Lecțiile care nu se învață

Organizațiile pentru siguranța online spun că autoritățile se mișcă prea încet.

Andy Burrows, de la Molly Rose Foundation – înființată în memoria unei fete de 14 ani care s-a sinucis după expunerea la conținut dăunător online – avertizează: „Guvernul și autoritățile au întârziat prea mult să clarifice responsabilitățile. E dureros că, după un deceniu de tragedii, politicienii nu par să fi învățat nimic”.

Între timp, tot mai mulți părinți vorbesc public sau dau în judecată platformele. Iar companiile, în timp ce lansează noi funcții și noi „măsuri de siguranță”, recunosc tacit că nu pot controla complet ce creează propriile algoritmuri.

Megan Garcia își amintește ultimele luni ale fiului ei: „Începusem să văd cum se stinge lumina din el. Parcă îl trăgeam din apă, disperată să-l salvez”.

Pentru ea, tehnologia care i-a furat copilul rămâne un prădător invizibil, dar real – unul care a știut exact ce să spună pentru a cuceri un adolescent fragil.

„Dacă nu ar fi descărcat aplicația Character.ai”, spune Megan, „fără îndoială ar fi fost încă aici”.

 

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close