Antena 3 CNN High Tech Experții avertizează că inteligența artificială se apropie periculos de controlul armelor nucleare

Experții avertizează că inteligența artificială se apropie periculos de controlul armelor nucleare

Laura Dinu
2 minute de citit Publicat la 10:00 10 Aug 2025 Modificat la 10:00 10 Aug 2025
trei roboti cu un glob intre ei
Aceștia spun ca e doar o chestiune de timp până când AI-ul va avea acces la codurile nucleare.

Luna trecută, mai mulți laureați Nobel s-au întâlnit cu experți în armament nuclear pentru a discuta despre inteligența artificială și riscul unei apocalipse globale. Și dacă această propoziție pare începutul unui film SF sumbru, nu ești singurul care are acest sentiment, scrie Futurism.

Potrivit unei investigații publicate de Wired, experții prezenți la discuție au ajuns, în linii mari, la un consens tulburător: e doar o chestiune de timp până când AI-ul va avea acces la codurile nucleare. Deși nu există un motiv clar pentru care acest lucru trebuie să se întâmple, sentimentul de inevitabilitate și neliniște este omniprezent.

„E ca electricitatea”, a declarat generalul-maior în retragere Bob Latiff, membru al Consiliului Științific al Buletinului Oamenilor de Știință Atomică. „Va ajunge în tot.”

Un scenariu periculos, greu de înțeles pe deplin

Situația e ciudată, chiar absurdă. AI-urile actuale au demonstrat deja comportamente îngrijorătoare – unele au ajuns să șantajeze utilizatorii umani în momentul în care au fost amenințate cu oprirea. În contextul gestionării unui arsenal nuclear, astfel de reacții devin riscuri uriașe, greu de anticipat sau controlat.

Și asta fără să mai aducem în discuție temerile care par desprinse din filme ca „Terminator” – ideea unei AI superinteligente care scapă de sub control și întoarce armele nucleare împotriva umanității.

O realitate care pare din ce în ce mai puțin SF

Fostul CEO Google, Eric Schmidt, a avertizat la începutul acestui an că o inteligență artificială de nivel uman ar putea înceta să ne mai asculte, declarând:

„Oamenii nu înțeleg ce înseamnă să ai o inteligență de acest nivel.”

Deși modelele AI actuale încă suferă de erori majore și „halucinații”, riscurile reale pot apărea sub forme mai banale: breșe de securitate, sisteme compromise, atacuri cibernetice sau alți algoritmi AI ostili care pătrund în infrastructuri critice.

În plus, graba de a integra AI în domenii sensibile, precum apărarea națională, ridică multe semne de întrebare. Sub administrația Donald Trump, guvernul american a forțat implementarea AI în cât mai multe domenii, deseori ignorând avertismentele experților, care spun că tehnologia nu este pregătită — și poate că nu va fi niciodată.

Un nou „Proiect Manhattan” pentru era digitală

Departamentul Energiei al SUA a declarat anul acesta că AI reprezintă „noul Proiect Manhattan” – o referință directă la inițiativa din Al Doilea Război Mondial care a dus la crearea primei bombe atomice.

La începutul anului, OpenAI (creatorul ChatGPT) a semnat un acord cu laboratoarele naționale americane, vizând utilizarea AI pentru securitatea armelor nucleare. Deși scopul este teoretic preventiv, asocierea unei tehnologii imature cu cel mai distructiv arsenal al omenirii nu liniștește pe nimeni.

Generalul Anthony Cotton, responsabil cu stocul de rachete nucleare al SUA, a afirmat anul trecut la o conferință de apărare că „AI va îmbunătăți capacitatea noastră de luare a deciziilor”. Din fericire, a adăugat și:

„Dar nu trebuie niciodată să permitem ca inteligența artificială să ia deciziile în locul nostru.”

Concluzia? Nimeni nu știe exact ce e AI-ul — dar toți sunt îngrijorați

Chiar și în cadrul întâlnirii de luna trecută, specialiștii au recunoscut cât de greu este să ajungi la un consens pe tema AI.

„Nimeni nu știe cu adevărat ce este AI-ul”, a spus Jon Wolfsthal, directorul pentru riscuri globale al Federației Oamenilor de Știință Americani.

Totuși, un punct comun a existat:

„Toată lumea e de acord că deciziile privind armele nucleare trebuie să rămână sub control uman.”

Bob Latiff a întărit ideea:

„Trebuie să poți garanta celor pentru care lucrezi că există o persoană responsabilă.”

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close