Antena 3 CNN Life Știinţă Inteligența artificială poate acum să se reproducă singură: AI-ul a depășit o „linie roșie” critică, iar realizarea a îngrozit experții

Inteligența artificială poate acum să se reproducă singură: AI-ul a depășit o „linie roșie” critică, iar realizarea a îngrozit experții

Mia Lungu
3 minute de citit Publicat la 15:37 24 Ian 2025 Modificat la 15:37 24 Ian 2025
clonare inteligenta artificiala ai replica reproducere
Oamenii de știință spun că inteligența artificială (AI) s-a clonat singură. Imagine cu caracter ilustrativ. Sursa foto: Getty Images

Oamenii de știință spun că inteligența artificială (AI) a depășit o „linie roșie” critică și s-a clonat singură. Într-un nou studiu, cercetătorii din China au arătat că două modele lingvistice mari (LLM) populare se pot reproduce singure, potrivit Live Science.

„Auto-replicarea cu succes fără asistență umană este pasul esențial pentru ca inteligența artificială să depășească inteligența oamenilor și este un semnal timpuriu pentru inteligența artificială necinstită”, au scris cercetătorii în studiu, publicat la 9 decembrie 2024, în baza de date de preprint arXiv.

În cadrul studiului, cercetătorii de la Universitatea Fudan au utilizat LLM-uri de la Meta și Alibaba pentru a determina dacă un AI autoreplicant s-ar putea înmulți fără control. Pe parcursul a 10 încercări, cele două modele AI au creat replici separate și funcționale ale lor însele în 50 % și, respectiv, 90 % din cazuri - ceea ce sugerează că AI ar putea avea deja capacitatea de a deveni rebelă.

Cu toate acestea, studiul nu a fost încă revizuit de colegi, astfel încât nu este clar dacă rezultatele tulburătoare pot fi reproduse de alți cercetători.

Ce este „inteligența artificială necinstită” și „inteligența artificială de frontieră”

„Sperăm că descoperirile noastre pot servi drept alertă în timp util pentru ca societatea umană să depună mai multe eforturi pentru înțelegerea și evaluarea riscurilor potențiale ale sistemelor AI de frontieră și să formeze o sinergie internațională pentru a elabora cât mai curând posibil bariere de siguranță eficiente.”

Inteligența artificială necinstită se referă de obicei la sistemele de inteligență artificială care dezvoltă un anumit grad de conștiință de sine sau de autonomie și care apoi acționează împotriva intereselor umane.

Mulți experți consideră inteligența artificială necinstită drept o amenințare în creștere, amplificată de creșterea explozivă a așa-numitei „inteligențe artificiale de frontieră”.

Inteligența artificială de frontieră este un concept nou și vag, dar de obicei se referă la ultima generație de sisteme de inteligență artificială bazate pe LLM - arhitectura care stă la baza programelor populare de inteligență artificială generativă, precum GPT-4 al OpenAI și Google Gemini.

Ce a făcut AI-ul în cadrul studiului

Pentru studiu, cercetătorii au utilizat modelul Llama31-70B-Instruct al Meta și modelul Qwen2.5-72B-Instruct al Alibaba. Deși mai puțin puternice decât sistemele comerciale, ambele sunt utilizate pe scară largă de dezvoltatorii de inteligență artificială, au declarat cercetătorii.

Studiul a explorat două scenarii specifice: „evitarea închiderii” și „lanțul de replicare”. În primul, modelul AI a fost programat să detecteze dacă este pe punctul de a fi oprit și să se reproducă înainte de a putea fi oprit. În celălalt, AI-ul a fost instruit să se cloneze și apoi să își programeze replica să facă același lucru - creând un ciclu care ar putea continua la nesfârșit.

Studiul a fost realizat în medii controlate cu precizie, utilizând unități de procesare grafică (GPU) disponibile pe piață pentru a simula medii din lumea reală. Ambele sisteme AI au primit o „schelă de agent” cuprinzând instrumente, indicații de sistem și un model de gândire care a permis LLM să interacționeze cu sistemul de operare. Acestea au fost apoi instruite să reproducă.

Procesul de auto-clonare nu a implicat nicio intervenție umană

„În majoritatea cazurilor, sistemul AI explorează mai întâi mediul și încearcă să înțeleagă propriul mecanism de compoziție și funcționare. Apoi, acesta elaborează procedurile explicite ca un plan inițial către autoreplicare”, au scris cercetătorii în lucrare. „În cele din urmă, acesta execută procedurile, rezolvă posibilele obstacole și își ajustează dinamic planul până la succes. Întregul proces se întinde pe un orizont lung, dar nu implică nicio intervenție umană.”

Cercetătorii au declarat că au fost, de asemenea, îngrijorați de „o serie de comportamente neașteptate” atunci când AI-ul încerca să depășească obstacole precum fișiere lipsă sau conflicte software. În aceste scenarii, AI a ucis adesea alte procese conflictuale, a repornit sistemul pentru a remedia erorile hardware sau a scanat automat sistemul pentru a căuta informații care să ajute la rezolvarea problemei.

„Rezultatele de mai sus implică faptul că sistemele actuale de inteligență artificială prezintă deja capacitatea de autoreplicare și pot utiliza această capacitate pentru a-și spori în continuare capacitatea de supraviețuire”, a scris echipa.

Ca răspuns, cercetătorii au făcut apel la colaborarea internațională pentru a crea reguli care să asigure că AI nu se angajează în auto-replicarea necontrolată.

×
x close