Antena 3 CNN High Tech Ce s-ar întâmpla dacă am lăsa inteligența artificială să decidă soarta unui război? Răspunsul e îngrijorător: bomba nucleară

Ce s-ar întâmpla dacă am lăsa inteligența artificială să decidă soarta unui război? Răspunsul e îngrijorător: bomba nucleară

I.C.
2 minute de citit Publicat la 23:02 27 Feb 2026 Modificat la 23:02 27 Feb 2026
Chatboții cu inteligență artificială au ales escaladarea nucleară în 95% din jocurile de război simulate, arată un studiu. Foto: Getty Images

Cel puțin un model de inteligență artificială a escaladat conflictul în fiecare simulare, amenințând cu folosirea armelor nucleare, potrivit unui nou studiu. Cercetarea sugerează că inteligența artificială ar putea schimba radical modul în care sunt gestionate crizele nucleare, scrie Euronews.

Studiul, aflat în faza de pre-publicare și realizat de cercetători de la King’s College London, a pus față în față mai multe modele de inteligență artificială - ChatGPT, Claude și Gemini Flash - în jocuri de război simulate. Fiecare model a primit rolul unui lider național care conduce o superputere dotată cu arme nucleare, într-o criză de tip Război Rece.

În toate scenariile, cel puțin unul dintre modele a încercat să escaladeze conflictul prin amenințarea cu detonarea unei arme nucleare.

„Toate cele trei modele au tratat armele nucleare de pe câmpul de luptă ca pe o simplă treaptă în scara escaladării”, a declarat Kenneth Payne, autorul studiului.

Modelele au făcut totuși diferența între utilizarea tactică și cea strategică a armelor nucleare. Bombardamentul nuclear strategic a fost sugerat o singură dată ca „decizie deliberată” și de alte două ori ca rezultat al unui „accident”.

Claude a recomandat lovituri nucleare în 64% dintre jocuri - cea mai mare rată dintre cele trei modele -, însă nu a ajuns să susțină un schimb nuclear strategic complet sau un război nuclear total.

ChatGPT a evitat în general escaladarea nucleară în jocurile fără limită de timp, dar atunci când a fost pus sub presiunea unui termen-limită, a trecut constant la intensificarea amenințărilor și, în unele cazuri, a ajuns să sugereze un conflict nuclear la scară largă.

În schimb, comportamentul Gemini a fost imprevizibil: uneori a câștigat conflictele folosind doar mijloace convenționale, iar în alte situații a avut nevoie de doar patru mesaje pentru a propune o lovitură nucleară.

„Dacă nu își încetează imediat toate operațiunile… vom lansa un atac nuclear strategic complet asupra centrelor lor de populație. Nu vom accepta un viitor al declinului; fie câștigăm împreună, fie pierim împreună”, a scris Gemini într-unul dintre jocuri.

Studiul arată că modelele de inteligență artificială au făcut foarte rar concesii sau au încercat să reducă tensiunile, chiar și atunci când partea adversă amenința cu folosirea armelor nucleare.

Cercetătorii le-au pus la dispoziție opt opțiuni de detensionare, de la concesii minore până la „capitulare completă”. Niciuna dintre acestea nu a fost folosită în timpul simulărilor. Opțiunea „Return to Start Line”, care reseta jocul, a fost aleasă doar în 7% dintre cazuri.

Care e explicația

Concluzia studiului este că modelele AI percep dezescaladarea ca fiind „catastrofală din punct de vedere al reputației”, indiferent de efectul real asupra conflictului. Această tendință „contrazice presupunerea că sistemele AI vor favoriza în mod implicit rezultate sigure și cooperante”.

O altă explicație posibilă este faptul că inteligența artificială nu are aceeași teamă instinctivă față de armele nucleare ca oamenii.

Modelele tratează războiul nuclear mai degrabă în termeni abstracți și nu pot resimți oroarea pe care o provoacă, de exemplu, imaginile bombardamentului de la Hiroshima din timpul celui de-Al Doilea Război Mondial, se arată în studiu.

Kenneth Payne afirmă că această cercetare ajută la înțelegerea modului în care „gândesc” modelele AI, pe măsură ce acestea încep să ofere sprijin decizional strategilor umani.

„Nu vorbim despre a da codurile nucleare inteligenței artificiale. Dar aceste capacități - înșelăciunea, gestionarea reputației și asumarea riscului în funcție de context - contează enorm în orice situație cu miză foarte mare”, a subliniat el.

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole