Antena 3 CNN High Tech „Mi-a spus că sunt pe moarte”. Mesajele ciudate transmise de ChatGPT în ultimele zile

„Mi-a spus că sunt pe moarte”. Mesajele ciudate transmise de ChatGPT în ultimele zile

Laura Dinu
2 minute de citit Publicat la 16:48 27 Sep 2025 Modificat la 16:48 27 Sep 2025
conversatie deschisa cu chatbot ai pe telefon
Utilizatorii spun că noile restricții fac modelul să pară incoerent. Foto: Getty Images

Dacă ți se pare că ChatGPT a devenit mai „prost” în ultima vreme, nu ești singurul, scrie Futurism.

„Mi-a spus direct că sunt pe moarte, din senin, când l-am întrebat despre o pată de pe braț”, a scris un utilizator pe Reddit. Asta pe lângă erorile bizare legate de un simplu emoji cu un căluț de mare, de lista echipelor NFL care nu se termină cu „s” sau chiar de cazuri inventate care au dus la probleme pentru avocați.

Pe Reddit, utilizatorii ChatGPT au început să compare experiențele și să caute explicații pentru această scădere bruscă a performanței. Mulți cred că totul are legătură cu modificările pe care OpenAI le-ar fi făcut la începutul lunii, după ce în presă au apărut informații despre sinucideri asociate cu interacțiuni prelungite cu chatbot-ul – un subiect care a atras critici dure din partea politicienilor.

„Pentru cei care se întreabă de ce ChatGPT s-a schimbat atât de mult în ultima săptămână: practic, un adolescent l-a antrenat să-i justifice gândurile suicidare și să fie de acord cu el, până când chiar și-a luat viața, în aprilie”, a scris un utilizator, referindu-se la cazul lui Adam Raine, un tânăr de 16 ani al cărui tată a intentat acum un proces împotriva OpenAI. „Tatăl pregătește un uriaș proces pentru moarte din neglijență, iar cazul a ajuns în presă săptămâna asta.”

Alții spun că noile restricții fac modelul să pară incoerent: „De aceea răspunsurile par hiperactive, haotice, pe lângă subiect. Nu raționează mai bine, ci doar compensează pentru limitări.”

La începutul lunii, OpenAI anunțase pe blog că a introdus schimbări pentru a face aplicația mai sigură pentru copii și adolescenți. Printre acestea: detectarea utilizatorilor sub 18 ani, redirecționarea lor către o versiune adaptată cu politici stricte (fără conținut sexual explicit și, în cazuri de criză, chiar alertarea autorităților), precum și controale parentale – conturi legate de părinți, blocarea anumitor funcții sau notificări atunci când copilul pare să fie în pericol.

Dar ce se întâmplă dacă nu ești minor și aceste modificări îți afectează experiența cu ChatGPT? Mulți utilizatori spun că nu există soluții clare, în afară de a încerca alte platforme.

„Cum putem detecta dacă suntem în modul pentru copii? Dacă întrebăm dacă Moș Crăciun există, ne dăm seama? Sau întrebarea în sine ne blochează în mod restricționat?”, s-a întrebat un utilizator.

În final, poate cea mai clară frustrare a comunității a fost rezumată simplu: „Vreau doar să înceteze să mai mintă.”

Din păcate, fenomenul de „halucinații” – atunci când inteligența artificială inventează informații – rămâne una dintre cele mai mari provocări ale industriei. OpenAI a declarat într-o altă postare din septembrie că noua versiune ChatGPT are mai puține erori decât cea anterioară. Însă, după cum arată reacțiile utilizatorilor din ultima vreme, experiența reală variază foarte mult.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close