Antena 3 CNN High Tech Un cercetător, șocat după ce ChatGPT i-a șters toată munca pe doi ani: „Nu a existat nicio opțiune de revenire. Doar o pagină goală”

Un cercetător, șocat după ce ChatGPT i-a șters toată munca pe doi ani: „Nu a existat nicio opțiune de revenire. Doar o pagină goală”

Laura Dinu
2 minute de citit Publicat la 10:00 31 Ian 2026 Modificat la 10:00 31 Ian 2026
Totul s-a întâmplat după ce a dezactivat opțiunea de „consimțământ pentru date” din ChatGPT. Foto: Getty Images

ChatGPT poate fi un ajutor util atunci când vrei să mai „șlefuiești” un e-mail sau să obții o primă schiță pentru un text. Însă, la fel ca alte instrumente similare, platforma are limite serioase: de la informații inventate până la un ton excesiv de convingător, care îi poate face pe utilizatori să aibă o falsă senzație de siguranță, scrie Futurism.

Cu alte cuvinte, nu este un instrument pe care cineva ar trebui să se bazeze complet pentru o muncă importantă. Această lecție dureroasă a învățat-o și Marcel Bucher, profesor de științe ale plantelor la Universitatea din Köln.

Într-un articol publicat în revista Nature, Bucher a povestit cum a pierdut, practic peste noapte, aproape doi ani de muncă academică: aplicații pentru granturi, versiuni revizuite ale unor articole științifice, cursuri, examene și alte materiale atent structurate. Totul s-a întâmplat după ce a dezactivat opțiunea de „consimțământ pentru date” din ChatGPT.

”Doar o pagină goală”

A făcut asta dintr-o simplă curiozitate, vrând să afle dacă va putea folosi în continuare toate funcțiile platformei fără a permite OpenAI să utilizeze datele sale. Rezultatul a fost însă devastator: toate conversațiile au dispărut instantaneu.

„Nu a apărut niciun avertisment. Nu a existat nicio opțiune de revenire. Doar o pagină goală”, a scris el.

Povestea a stârnit reacții puternice în mediul online. Unii utilizatori au ironizat situația, întrebând cum este posibil ca un profesor universitar să nu fi făcut copii de siguranță timp de doi ani. Alții au fost mult mai duri, acuzându-l că s-a bazat excesiv pe inteligența artificială și cerând chiar sancționarea sa profesională.

Au existat însă și voci mai temperate. Roland Gromes, coordonator de programe educaționale la Universitatea din Heidelberg, a remarcat că, deși greșeala este evidentă, faptul că Bucher a ales să-și facă publică experiența este un act de onestitate. „Mulți academicieni cred că văd capcanele din timp, dar toți putem fi naivi și putem ajunge în astfel de situații”, a scris el pe rețelele sociale.

Bucher recunoaște deschis limitele ChatGPT, spunând că platforma poate genera afirmații aparent sigure pe ele, dar uneori greșite. Susține însă că nu a confundat niciodată fluența cu acuratețea științifică. Cu toate acestea, s-a bazat pe continuitatea și stabilitatea spațiului de lucru, folosind zilnic ChatGPT Plus ca pe un „asistent”.

OpenAI a confirmat că discuțiile șterse nu pot fi recuperate

Utilizarea inteligenței artificiale în mediul științific este deja un subiect extrem de controversat. Revistele academice se confruntă cu un val de articole slab documentate, generate sau „umflate” cu ajutorul AI, ceea ce îngreunează procesul de evaluare. Mai grav, au apărut publicații științifice fictive, create special pentru a profita de această tendință, ajungându-se la situații în care lucrări generate de AI sunt evaluate tot de AI. În paralel, diferiți cercetători descoperă frecvent că studiile lor sunt citate în articole care conțin referințe inexistente.

Este important de precizat că nu există nicio dovadă că Marcel Bucher ar fi încercat să publice cercetări generate de AI sau să își inducă în eroare studenții. Cu toate acestea, experiența sa rămâne un semnal de alarmă.

În articolul său, profesorul a criticat OpenAI pentru faptul că vinde abonamente ChatGPT Plus fără a oferi garanții clare sau măsuri de protecție de bază care să prevină pierderea definitivă a unor volume mari de muncă.

Într-un răspuns transmis revistei Nature, OpenAI a precizat că discuțiile șterse nu pot fi recuperate și a contestat afirmația potrivit căreia nu ar fi existat un avertisment, susținând că utilizatorii primesc o solicitare de confirmare înainte de ștergerea definitivă a conversațiilor. Compania a subliniat, totodată, că utilizatorii ar trebui să își păstreze copii de siguranță personale pentru orice activitate profesională.

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole