Antena 3 CNN Externe Replica șocantă dată de OpenAI în procesul împotriva ChatGPT: Băiatul care s-a sinucis "l-a folosit greșit"

Replica șocantă dată de OpenAI în procesul împotriva ChatGPT: Băiatul care s-a sinucis "l-a folosit greșit"

M.P.
2 minute de citit Publicat la 23:30 27 Noi 2025 Modificat la 23:41 27 Noi 2025
Compania OpenAI se apără şi spune că sinuciderea unui tânăr de 16 ani n-a fost provocată de ChatGPT. Foto: theadamrainefoundation.org

Compania OpenAI dă vina pe „utilizarea greșită” a tehnologiei sale pentru sinuciderea adolescentului american Adam Raine, după ce familia tânărului a acuzat că acesta şi-a pus capăt zilelor la încurajarea ChatGPT-ului, conform The Guardian. Cazul se judecă la Curtea Superioară din San Francisco.

Tânărul de 16 ani s-a sinucis în aprilie, după conversații ample și „luni de încurajare din partea ChatGPT”, a declarat avocatul familiei. În timpul procesului, s-a arătat că adolescentul a discutat despre o metodă de sinucidere cu ChatGPT în mai multe rânduri, că chatbotul l-a îndrumat cu privire la funcționarea unei metode sugerate, s-a oferit să-l ajute să scrie un bilet de adio părinților săi și că versiunea tehnologiei pe care a folosit-o a fost „lansată în grabă pe piață... în ciuda unor probleme evidente de siguranță”.

Compania OpenAI se apără şi spune că moartea băiatului a venit după "utilizarea greșită" a sistemului și „nu a fost cauzată” de chatbot.

OpenAI a declarat că „în măsura în care orice «cauză» poate fi atribuită acestui eveniment tragic”, „vătămările și daunele suferite de Raine au fost cauzate, în totalitate sau parțial, prin utilizarea necorespunzătoare, utilizarea neautorizată, utilizarea neintenționată, utilizarea imprevizibilă și/sau utilizarea necorespunzătoare a ChatGPT”.

Cum se apără OpenAI

OpenAI a adăugat că termenii săi de utilizare interzic solicitarea de sfaturi de la ChatGPT cu privire la autovătămare și a evidențiat o prevedere de limitare a răspunderii, invocând un disclaimer: "Nu vă veți baza pe rezultate ca unică sursă de adevăr sau informații factuale".

OpenAI, care este evaluată la 500 de miliarde de dolari, a mai susţiut că obiectivul său este „să gestioneze cazurile judiciare legate de sănătatea mintală cu grijă, transparență și respect” și că „independent de orice litigiu, vom rămâne concentrați pe îmbunătățirea tehnologiei noastre în conformitate cu misiunea noastră”.

"Exprimăm cele mai sincere condoleanțe familiei Raine pentru pierderea de neimaginat. Răspunsul nostru la aceste acuzații include date despre sănătatea mintală și circumstanțele de viață ale lui Adam", a mai transmis OpenAI, continuând:

"Plângerea inițială a inclus porțiuni selective din conversațiile sale care necesită mai mult context, lucru pe care l-am furnizat în răspunsul nostru. Am limitat cantitatea de dovezi sensibile pe care le-am citat public în această cerere și am depus transcrierile conversațiilor instanței sub sigiliu.”

Avocatul familiei a spus că acest răspuns este "tulburător" şi că OpenAI încearcă să găsească vinovaţi în toţi ceilalți. 

În luna august, OpenAI a declarat că își consolidează măsurile de siguranță din ChatGPT atunci când oamenii se angajează în conversații lungi, deoarece experiența a arătat că anumite părți ale instruirii de siguranță a modelului s-ar putea degrada în aceste situații.

"De exemplu, ChatGPT poate indica corect o linie telefonică de asistență pentru sinucidere atunci când cineva menționează pentru prima dată intenția, dar după multe mesaje pe o perioadă lungă de timp, ar putea oferi în cele din urmă un răspuns care contravine măsurilor noastre de siguranță”, a spus compania. „Acesta este exact genul de defecțiune pe care ne străduim să o prevenim.”

Citește mai multe din Externe
» Citește mai multe din Externe
TOP articole