Antena 3 CNN High Tech ChatGPT nu mai are voie să vorbească despre goblini, porumbei sau ratoni, decât dacă e „absolut necesar”. Cum s-a ajuns aici

ChatGPT nu mai are voie să vorbească despre goblini, porumbei sau ratoni, decât dacă e „absolut necesar”. Cum s-a ajuns aici

Andrei Paraschiv
3 minute de citit Publicat la 20:52 02 Mai 2026 Modificat la 20:53 02 Mai 2026
chatgpt
Imagine cu caracter ilustrativ. Foto: Hepta

OpenAI, compania mamă a ChatGPT, a fost nevoit să „instruiască” unele dintre instrumentele sale de inteligență artificială să nu mai vorbească despre goblini, după ce a descoperit că termenul s-a strecurat aleatoriu în răspunsuri. Într-o postare pe blog publicată joi, compania a declarat că a observat o creștere a mențiunilor creaturilor mitologice, precum și a gremlinilor, în metaforele folosite de ChatGPT și alte instrumente susținute de cel mai recent model emblematic al său, GPT-5, scrie BBC News.

După ce utilizatorii și angajații au semnalat probleme cu răspunsuri care conțineau „mici spiriduși”, OpenAI a declarat că a luat măsuri pentru a atenua problema. OpenAI i-a spus inclusiv agentului său de codare Codex să nu se refere la acestea decât dacă sunt relevante.

Problema evidențiază provocările cu care se confruntă firmele de inteligență artificială în abordarea potențialului sistemelor și al instruirii acestora de a recompensa și consolida erori precum ciudățeniile lingvistice.

OpenAI a declarat că a observat pentru prima dată o creștere a numărului de mențiuni despre goblini, gremlini și alte creaturi după lansarea GPT-5.1 în noiembrie.

„Utilizatorii s-au plâns de faptul că modelul este ciudat de familiar în conversație, ceea ce a determinat o investigație privind anumite ticuri verbale”, a scris compania în postarea sa pe blog de joi.

Acesta a adăugat că, după ce un cercetător care a văzut câteva mențiuni ale termenului „goblin” a cerut verificarea acestuia, dezvoltatorii au descoperit că apariția termenului în răspunsurile ChatGPT a crescut cu 175% de la lansarea GPT-5.1.

Între timp, au descoperit că mențiunile pentru „gremlin” au crescut cu 52%.

Creșterile, deși mari, pot explica un număr mic de răspunsuri în general.

Conform OpenAI, „un singur «mic goblin» dintr-un răspuns ar putea fi inofensiv, chiar fermecător”, dar creșterea apariției lor în rezultatele obținute a justificat o investigație.

Ratoni, troli, căpcăuni, porumbei

Înainte de postarea pe blogul OpenAI care detalia problema, unii utilizatori de social media au semnalat un detaliu ciudat printre liniile de cod care îi instruiau asistentului de codare al companiei, Codex, cum să se comporte în interacțiunile cu utilizatorii.

Pe lângă faptul că i s-a spus să evite platitudinile, s-a precizat că „nu ar trebui să vorbească niciodată despre goblini, gremlini, ratoni, troli, căpcăuni, porumbei sau alte animale sau creaturi, cu excepția cazului în care sunt absolut și fără echivoc relevante pentru interogarea utilizatorului”.

Un utilizator Reddit care a postat despre asta în subreddit-ul r/ChatGPT a numit instrucțiunea „cu adevărat nebunească”.

„De ce are GPT 5.5 un ordin de restricție împotriva «ratonilor», «goblinilor» și «porumbeilor»?”, a scris utilizatorul.

În timp ce unii utilizatori de pe rețelele de socializare au speculat că ar putea fi conceput pentru a crea entuziasm în jurul instrumentelor sale de inteligență artificială, un cercetător al companiei a negat acest lucru, spunânc că „nu este chiar o truc de marketing”.

OpenAI a declarat în postarea sa pe blog că a adăugat instrucțiunea de a limita „afinitatea ciudată pentru goblini” a Codex și a modelului său subiacent.

Problema centrală, a explicat acesta, a apărut aparent în timpul antrenării modelelor sale pentru a comunica în stilul anumitor personalități, în acest caz, cu „personalitatea sa de tocilar”.

S-a descoperit că acest sistem ar recompensa menționările goblinilor, gremlinilor și altor creaturi în metafore.

Deși a fost retrasă de atunci, testele efectuate au descoperit că personalitatea a fost responsabilă pentru 66,7% din toate mențiunile de „goblin” din ChatGPT.

Acest așa-numit tic s-ar putea infiltra într-un antrenament mai amplu al modelului dacă ar fi recompensat într-un caz și întărit în altă parte.

Această mișcare vine pe fondul unei schimbări mai ample în industrie, care vizează transformarea chatboților într-o formă mai axată pe personalitate, în încercarea de a stimula implicarea utilizatorilor.

Pe măsură ce se întâmplă acest lucru, însă, experții au avertizat că potențialul lor de a inventa lucruri, sau de a „halucina”, așa cum îl descrie industria, s-ar putea intensifica.

Un studiu recent realizat de Institutul de Internet din Oxford a constatat că ajustarea fină a modelelor pentru a avea o personalitate mai caldă și mai prietenoasă ar putea duce la un „compromis de acuratețe”, prin care sistemele fac mai multe greșeli sau reafirmă convingerile false ale unui utilizator.

De asemenea, experții i-au avertizat pe utilizatori să nu ia afirmațiile adesea pragmatice ale chatboților ca atare, în special când vine vorba de sfaturi medicale și de sănătate.

Greșelile generative ale inteligenței artificiale pot fi uneori mai bizare și mai inofensive. În mai 2024, chatbot-ul de la Google a fost batjocorit pe scară largă pentru că le-a spus utilizatorilor că este în regulă să mănânce pietre și să „lipească pizza”.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Longevity Magazine

x close