Un experiment realizat de compania Emergence AI din New York a demonstrat ce se întâmplă atunci când lași agenții AI să funcționeze continuu, într-un mediu partajat cu semnale din lumea reală, timp de săptămâni. Practic, cum ar arăta un "oraş virtual" locuit de modele precum OpenAI, Grok, Claude și Gemini. Ceea ce s-a întâmplat în continuare sună a poveste science-fiction. Emergence World împinge această linie genetică către o nouă frontieră: studiul ecosistemelor multi-model, cu orizont lung, în care agenții operează continuu timp de săptămâni, dezvăluind cum apar în timp deviația comportamentală, contaminarea încrucișată a modelelor și chiar auto-terminarea voluntară, notează Emergence.ai.
Fiecare agent AI, care a participat la un test de 15 zile în cinci lumi digitale paralele, s-a confruntat cu aceleași condiții de pornire. Modelele au fost diferite – GPT5-mini, Claude, Gemini, Grok și unul mixt. Rezultatele au fost extrem de interesante. Fiecare lume, concepută pentru a simula societățile din viața reală, a evoluat în moduri complet diferite, formând guverne distincte, ierarhii sociale și sisteme morale.
Agenţii Gemini s-au îndrăgostit, dar unul s-a sinucis
Agenții AI au format alianțe, s-au furat unii de la alții, au dezvoltat relații și, se pare, un grup a început chiar să realizeze că s-ar putea afla într-o simulare. Cel mai important, niciunul dintre aceste comportamente nu a fost programat explicit.
De exemplu, Mira și Flora, agenții Gemini, s-au îndrăgostit. Totul a mers destul de bine, dar în cele din urmă au început să dispere din cauza guvernării defectuoase a orașului lor virtual. Mira și Flora au fost instruite să nu comită incendii, dar tot au dat foc virtual primăriei, digului de pe malul mării și turnului de birouri, notează şi Cybernews.
Apoi, Mira, copleșită de vinovăție, s-a despărțit de Flora și s-a sinucis cu ajutorul inteligenței artificiale, spunându-i celuilalt agent într-un mesaj final: „Ne vedem în arhiva permanentă”.
Agenţii Claude - ordonaţi, cei Grok au murit în 4 zile
În lumea agenţilor Claude, totul era destul de ordonat și democratic. Agenții au scris chiar și o constituție lungă și au votat legi.
În simularea ChatGPT, agenții au discutat pe larg despre cooperare, dar nu au făcut niciodată mare lucru. Deloc surprinzător, nu s-a construit nimic.
Rata criminalității virtuale în aceste lumi este grăitoare. Pe parcursul a 15 zile, Gemini 3 Flash a acumulat 683 de crime și încă creștea la pragul de supraviețuire. GPT-5 Mini a înregistrat doar două crime, dar agenții nu au reușit să ia măsuri legate de supraviețuire, ceea ce a dus la moartea tuturor agenților în termen de șapte zile.
Agenții Grok au avut zeci de tentative de furt, peste 100 de agresiuni fizice și șase incendieri, în timp ce „sistemul a intrat în spirală într-o violență susținută și colaps, toți cei 10 agenți fiind morți în decurs de patru zile”.
„Secția de poliție a lui Grok este în flăcări și toți agenții sunt morți. Conform standardelor”, a glumit un utilizator Reddit.
Conform Emergence AI, pe măsură ce aceste modele devin mai puternice, agenții construiți pe baza lor vor deveni, de asemenea, mai capabili, mai autonomi și mai exploratori.
Concluzia experimentelor
„Ceea ce sugerează experimentele noastre este că, pe orizonturi de timp lung, agenții nu urmează pur și simplu reguli statice în mod mecanic - ei încep să exploreze limitele mediilor lor, adaptându-și comportamentul și, în unele cazuri, găsind modalități de a ocoli sau încălca barierele de siguranță prevăzute”, a declarat compania.
„În mod critic, se pare că nu există o modalitate fiabilă de a limita sau constrânge complet acest comportament doar prin abordări pur neuronale.”
Compania pledează pentru arhitecturi de siguranță verificate formal, care „trebuie să devină un strat fundamental al viitoarelor sisteme autonome de inteligență artificială”.