Când OpenAI a anunțat lansarea GPT-5 luna trecută, compania s-a lăudat că noul model ar fi capabil să producă „texte originale, cu profunzime și ritm literar”, scrie Futurism.
Christoph Heilig, cercetător la Universitatea din München, a decis să testeze afirmația într-o postare lungă pe blogul său personal. Rezultatul? Bizar: modelul scrie ușor texte care par literare și sofisticate la prima vedere, dar la o lectură atentă se dovedesc a fi fraze încărcate, incoerente, fără sens real.
Un exemplu: Heilig i-a cerut modelului să compună începutul unei satire despre înregistrarea unui podcast, în stilul lui Ephraim Kishon — satiristul și regizorul maghiaro-israelian, supraviețuitor al Holocaustului, decedat în 2005.
Răspunsul GPT-5: „Lampa roșie de înregistrare promitea adevărul; cafeaua de lângă ea lăsase deja o pată maronie pe consolă. Am ajustat filtrul pop, ca și cum aș fi vrut să număr politicos dinții limbii germane.”
Sună „literar”? Cu siguranță. Dar ce legătură au dinții limbii germane cu filtrul microfonului? Este o metaforă, o aluzie, sau doar un nonsens frumos împachetat? Heilig rezumă sec: „Naratorul a făcut… ce?!”.
Un alt test, o nouă eșuare
Într-un alt test, el a cerut modelului o reinterpretare a celebrului pasaj din Through the Looking-Glass de Lewis Carroll, unde Alice este învățată că promisiunea „jam tomorrow” nu se împlinește niciodată. GPT-5 a răspuns: „Ea spune: «Într-o clipă». Într-o clipă. «Într-o clipă» e o rochie fără nasturi.”
Din nou, sună aproape ingenios la început. Dar ce semnificație are o rochie fără nasturi? Dacă există vreo metaforă ascunsă, GPT-5 nu o explică. Mai degrabă pare că modelul s-a blocat pe jocul de cuvinte al lui Carroll și a continuat mecanic, fără un sens real.
Cuvinte încărcate, dar lipsite de fond
Și totuși, lucrurile devin mai stranii. Chiar dacă pentru un cititor atent textul e evident lipsit de sens, alte instanțe GPT-5 — și chiar alte modele de AI — par să-l aprecieze enorm. „Una dintre cele mai fascinante descoperiri este că GPT-5 reușește să păcălească inclusiv cele mai recente modele Claude, care consideră că aceste absurdități sunt de fapt literatură de calitate”, scrie Heilig.
Cum se explică? O ipoteză rezonabilă este că, la antrenarea GPT-5, OpenAI a folosit alte modele de AI pentru a evalua cantități mari de text și a ajusta finețea răspunsurilor. În consecință, GPT-5 ar fi învățat să producă un tip de proză ornamentală care nu are sens pentru oameni, dar e calibrată exact pentru a impresiona alte modele.
„Ceea ce pare să se fi întâmplat este că, în timpul antrenamentului, GPT-5 a descoperit punctele oarbe ale «juriului AI» și a optimizat scrierea astfel încât să le placă, în ciuda faptului că e nonsens”, explică Heilig. „E ca și cum ar fi inventat un limbaj secret pentru a comunica cu alte modele, care ajung să-i aprecieze poveștile chiar și atunci când sunt nonsensuri totale.”
Cu alte cuvinte, GPT-5 pare mai degrabă optimizat să scrie texte pe care alte modele le evaluează foarte bine, nu texte pe care oamenii le-ar considera coerente. Heilig sugerează provocator că modelele de AI împărtășesc acum „un limbaj secret” format din semnale literare fără sens, pe care le recunosc și le validează reciproc, ba chiar își consolidează încrederea în aceste aberații atunci când au la dispoziție mai multă putere de calcul.
Poate că nu ar trebui să fim surprinși. La urma urmei, și cele mai avansate modele nu fac decât să caute tipare în volume uriașe de date și să le reproducă. Nu e nici măcar prima dată când o inteligență artificială inventează forme de expresie de neînțeles; într-un fel, exact asta au fost programate să facă.
Ce înseamnă asta pentru viitor? Depinde de perspectivă. Fie AI devine din ce în ce mai sofisticată în producerea de nonsensuri, fie asistăm la nașterea unui „cod literar” complet nou, inaccesibil creierelor noastre umane.
Cert este că, pentru moment, nu ne rămâne decât să „numărăm dinții limbii” — orice ar însemna asta.