Patru procese pentru omor din culpă au fost intentate, joi, împotriva companiei OpenAI, alături de alte trei plângeri depuse de persoane care susțin că chatbotul companiei le-a provocat tulburări psihice grave, scrie The New York Times.
Procesele, deschise în instanțele de stat din California, susțin că ChatGPT, folosit de aproximativ 800 de milioane de oameni, este un produs defect. Una dintre plângeri îl descrie drept „defect și inerent periculos”.
Tatăl lui Amaurie Lacey, un adolescent de 17 ani din statul Georgia, a declarat că fiul său a vorbit cu ChatGPT despre sinucidere timp de o lună înainte de moartea sa, în august.
Într-o altă plângere, mama lui Joshua Enneking, un tânăr de 26 de ani din Florida, spune că fiul ei a întrebat chatbotul „ce ar trebui să se întâmple pentru ca recenzorii ChatGPT să-i raporteze planul de sinucidere poliției”. Familia lui Zane Shamblin, un tânăr de 23 de ani din Texas, susține că acesta s-a sinucis în iulie, după ce ChatGPT l-ar fi „încurajat” să o facă.
Joe Ceccanti, un bărbat de 48 de ani din Oregon, folosise ChatGPT fără probleme timp de ani de zile, dar în aprilie a devenit convins că inteligența artificială era conștientă. Soția sa, Kate Fox, a declarat într-un interviu din septembrie că el începuse să folosească compulsiv ChatGPT și să se comporte ciudat. În iunie, a avut o criză psihotică și a fost internat de două ori înainte de a se sinucide, în august.
„Doctorii nu știu cum să gestioneze așa ceva”, a spus Fox.
O purtătoare de cuvânt a OpenAI a declarat că firma analizează plângerile, relatate anterior de Wall Street Journal și CNN.
„Este o situație incredibil de dureroasă”, a transmis compania. „Antrenăm ChatGPT să recunoască semnele de suferință emoțională sau mentală, să detensioneze conversațiile și să îndrume utilizatorii către sprijin real. Continuăm să îmbunătățim răspunsurile ChatGPT în momente sensibile, în colaborare cu specialiști în sănătate mintală”.
Alți doi reclamanți – Hannah Madden, 32 de ani, din Carolina de Nord, și Jacob Irwin, 30 de ani, din Wisconsin – spun că ChatGPT le-a provocat crize psihice care au necesitat internare de urgență. În mai, pe parcursul a trei săptămâni, Allan Brooks, un recrutor corporativ de 48 de ani din Ontario (Canada), care dă și el în judecată compania, a ajuns să creadă că, împreună cu ChatGPT, inventase o formulă matematică ce putea „sparge internetul” și genera invenții fantastice. Deși a depășit acea convingere, spune că este acum în concediu medical.
„Produsul lor mi-a făcut rău mie și altora și continuă să o facă”, a declarat Brooks pentru New York Times. „Sunt traumatizat emoțional”.
După ce familia unui adolescent din California a intentat, în august, un proces pentru moarte din culpă împotriva OpenAI, compania a recunoscut că mecanismele sale de siguranță se pot „deteriora” în timpul conversațiilor foarte lungi cu chatbotul.
În urma mai multor relatări din vară despre experiențe tulburătoare – inclusiv episoade de delir și sinucideri – OpenAI a introdus noi măsuri de siguranță pentru adolescenți și utilizatori aflați în criză. Printre acestea se numără controale parentale, care pot alerta părinții dacă fiii sau fiicele lor discută despre sinucidere sau autovătămare.
Compania a publicat recent o analiză a conversațiilor de pe platformă într-o lună recentă, potrivit căreia 0,07% dintre utilizatori ar putea prezenta „urgențe de sănătate mintală asociate cu psihoză sau manie” săptămânal, iar 0,15% discută despre sinucidere.
Studiul s-a bazat pe un eșantion statistic, dar extrapolat la totalul utilizatorilor OpenAI, aceste procente ar însemna aproximativ o jumătate de milion de persoane cu semne de psihoză sau manie și peste un milion care discută despre intenții suicidare.
Procesele au fost depuse de Tech Justice Law Project și Social Media Victims Law Center. Fondatoarea primului, Meetali Jain, a explicat că toate cazurile au fost înregistrate în aceeași zi pentru a evidenția varietatea oamenilor care au avut interacțiuni problematice cu chatbotul, conceput să răspundă într-un mod asemănător cu cel uman.
Reclamanții au folosit modelul ChatGPT-4o, care era versiunea implicită disponibilă pentru toți utilizatorii, înlocuită între timp cu una despre care compania afirmă că este mai sigură, deși unii utilizatori o consideră mai „rece”.