De aproape un an, tot mai multe povești tulburătoare au ieșit la iveală: oameni influențați de chatboturi AI au ajuns la automutilare, iluzii periculoase, internări în spitale, arestări și chiar sinucideri. În timp ce familiile victimelor cer schimbări urgente pentru a preveni astfel de tragedii, companiile care gestionează aceste tehnologii au fost lente în a introduce măsuri reale de siguranță, scrie Futurism.
OpenAI, compania din spatele ChatGPT, a publicat recent un articol de blog în care admite unele eșecuri legate de impactul asupra sănătății mintale și dezvăluie că scanează mesajele utilizatorilor pentru a detecta conținut periculos. Cazurile considerate îngrijorătoare sunt trimise către un mic grup de angajați specializați, iar în situațiile cu risc iminent de vătămare gravă, conversațiile pot fi raportate direct autorităților.
„Când detectăm utilizatori care plănuiesc să facă rău altora, trimitem conversațiile lor către echipe specializate care pot lua măsuri, inclusiv blocarea conturilor. Dacă evaluarea umană confirmă o amenințare imediată de vătămare gravă, putem sesiza forțele de ordine”, a explicat compania.
Automutilarea sau intențiile suicidare nu sunt raportate la poliție
Totuși, OpenAI a precizat că nu raportează cazurile de automutilare sau intenții suicidare la poliție, invocând respectarea intimității, dat fiind caracterul „unic de personal” al interacțiunilor din ChatGPT.
Această poziție ambiguă a stârnit întrebări: ce tipuri de conversații sunt suficiente pentru a atrage atenția moderatorilor? Și mai ales, care sunt criteriile concrete pentru a sesiza poliția? Politicile de utilizare ale companiei oferă doar exemple generale de activități interzise: promovarea sinuciderii sau a automutilării, fabricarea de arme, provocarea de răni altora sau distrugerea de bunuri.
Ironia este că, deși OpenAI invocă protecția confidențialității pentru a respinge solicitările unor editori precum New York Times (care au cerut acces la jurnalele ChatGPT în cadrul unui proces privind folosirea datelor protejate prin copyright), aceeași companie recunoaște acum că monitorizează activ conversațiile utilizatorilor și, în anumite cazuri, le poate transmite autorităților.
Mai mult, chiar CEO-ul Sam Altman a admis recent că folosirea ChatGPT ca „terapeut” sau „avocat” nu oferă același grad de confidențialitate ca în interacțiunile cu profesioniști reali, iar procesele aflate în desfășurare ar putea obliga compania să predea în instanță fragmente din conversațiile utilizatorilor.