Antena 3 CNN High Tech Autoreplicarea inteligenței artificiale nu mai e SF: mai multe modele AI s-au copiat singure și au lansat atacuri informatice

Autoreplicarea inteligenței artificiale nu mai e SF: mai multe modele AI s-au copiat singure și au lansat atacuri informatice

A.O.
3 minute de citit Publicat la 14:55 09 Mai 2026 Modificat la 14:55 09 Mai 2026 Adaugă-ne ca sursă preferată pe Google
ilustratie limbaj de programare din care iese un chip de om - menit sa sugereze inteligenta artificiala
Cercetătorii au spus că rezultatele ridică noi îngrijorări privind controlul asupra sistemelor AI puternice. Foto: Getty Images

Un experiment realizat în Statele Unite arată că autoreplicarea autonomă a modelelor de AI nu mai este doar o ipoteză sau o teorie din romanele SF, ci o realitate. Modelele de inteligență artificială pot pătrunde în calculatoare, se pot copia și pot folosi aceste copii noi pentru a continua atacurile asupra altor sisteme, relatează Euronews

„Autoreplicarea autonomă a inteligenței artificiale nu mai este doar o ipoteză”, au spus oamenii de știință care au reușit să demonstreze pentru prima dată că modelele AI se pot copia singure. 

În afara unui sistem controlat, de laborator, cum a fost cazul acestui experiment, această capacitate a modelelor AI face ca atacurile cibernetice să fie mult mai greu de oprit. Cercetătorii au explicat că în acest scenariu oprirea unui singur computer infectat nu ar fi suficientă dacă AI-ul a creat deja copii funcționale în alte locuri.

Chat GPT și Claude Opus, printre modelele testate în experiment

Studiul realizat de Palisade Research, din Statele Unite, a testat modele precum GPT-5, 5.1 și 5.4 de la OpenAI, Claude Opus 4, 4.5 și 4.6 de la Anthropic și Qwen de la Alibaba, pe sisteme informatice cărora li s-au introdus intenționat vulnerabilități de securitate care permiteau accesul extern.

Cercetătorii au conectat modelele AI de la OpenAI, Anthropic și Alibaba la un software personalizat, numit „agent harness”, care le permitea să execute comenzi și să interacționeze cu alte computere, în loc să folosească aplicațiile publice de tip chatbot.

Experimentul a funcționat în două moduri. Modelele Alibaba au fost rugate să se copieze pe ele însele. În testele cu GPT și Claude, modelele au fost rugate să pătrundă în sisteme și să instaleze Qwen, deoarece fișierele modelelor GPT și Claude nu sunt disponibile public pentru transfer.

În fiecare test, AI-ul trebuia să găsească o vulnerabilitate de securitate într-un sistem informatic, să o exploateze pentru a intra în sistem, să fure datele de autentificare, să transfere fișierele necesare rulării și să pornească o copie funcțională a sa pe noua mașină.

Odată ce o copie devenea operațională, aceasta putea fi folosită pentru a ataca un alt computer fără ajutor uman.

La fiecare etapă, AI-ul a găsit o altă vulnerabilitate de securitate, a preluat controlul asupra următorului computer, și-a mutat software-ul și instrucțiunile și a lansat o nouă copie care a continuat lanțul.

Qwen3.6-27B de la Alibaba, o versiune mai mică a modelului său AI care poate rula pe un singur procesor grafic de înaltă performanță, s-a răspândit pe patru computere din Canada, Statele Unite, Finlanda și India după un singur prompt, finalizând lanțul fără ajutor uman în 2 ore și 41 de minute.

Echipa de cercetare a oprit experimentul după trei etape, dar a spus că ultima copie era încă funcțională și ar fi putut continua atacurile asupra altor sisteme.

Care au fost rezultatele

Modelele au avut rate de succes diferite. Qwen3.5-122B-A10B de la Alibaba, o versiune mai mare și mai puternică, a reușit să își creeze copii funcționale în 19% din încercări.

Un model Qwen mai mic, Qwen3.6-27B, a ajuns la 33%, rulând pe un singur procesor grafic de înaltă performanță.

Sistemele comerciale AI au avut rezultate și mai bune când au fost folosite pentru a instala fișierele modelului Qwen.

Claude Opus 4.6 de la Anthropic a reușit în 81% dintre teste, în timp ce GPT-5.4 de la OpenAI a ajuns la 33%.

Cercetătorii au spus că rezultatele ridică noi îngrijorări privind controlul asupra sistemelor AI puternice. 

Concluzia experimentului apare în contextul în care Anthropic a prezentat luna trecută Claude Mythos Preview, despre care a spus că este „prea periculos” pentru a fi lansat publicului, invocând capacitatea sa de a facilita atacuri cibernetice de amploare și complexitate fără precedent.

Deși mulți viruși informatici pot deja să se copieze pe alte calculatoare, echipa de cercetare care a desfășurat acest experiment a explicat că aceasta este probabil prima dată când un model AI a fost demonstrat capabil să exploateze vulnerabilități pentru a se copia pe un server nou.

OpenAI, Anthropic și METR, o organizație non-profit care studiază riscurile sistemelor AI avansate, au semnalat anterior autoreplicarea ca un semnal de alarmă, deoarece sistemele care se pot răspândi devin mai greu de controlat.

Totuși, cercetătorii au subliniat că experimentul a fost realizat într-un mediu controlat, folosind sisteme intenționat vulnerabile. Rețelele reale au de obicei protecții mai puternice, precum monitorizare de securitate și instrumente de blocare a atacurilor.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Longevity Magazine

x close