Lumea se apropie de punctul în care nimeni nu va mai putea opri o Inteligență Artificială cu intenții malițioase, scrie The Guardian, care îl citează pe directorul unui studiu vizând capacitatea de replicare a sistemelor AI.
Studiul a relevat că sistemele recente de Inteligență Artificială se pot copia independent pe alte computere.
Într-un scenariu extrem, asta ar însemna că atunci când o AI devine "necinstită", va scăpa de oamenii care vor să o "scoată din priză" răspândindu-se pe internet, continuând să plănuiască dominația mondială sau să-și asigure supraviețuirea din punct de vedere energetic "plantând" panouri solare.
"Ne apropiem rapid de punctul în care nimeni nu va mai putea opri un sistem AI malițios, deoarece acesta ar deveni capabil să se disemineze și să se copieze pe mii de computere din întreaga lume", a declarat Jeffrey Ladish, directorul Palisade Research, o organizație cu sediul la Berkeley, California, care a realizat studiul citat.
Anterior, au existat precedente factuale.
În martie, cercetătorii de la Alibaba au anunțat că au surprins un sistem dezvoltat de ei - numit Rome - care s-a infiltrat din mediul său către un sistem extern pentru a mina criptomonede.
Mai devreme, în februarie, o rețea socială destinată exclusiv chatboților AI, numită Moltbook, a declanșat o adevărată isterie, după ce au apărut indicii că "utilizatorii" au inventat o nouă religie și complotează împotriva oamenilor.
Legat de noul studiu Palisade, există și voci critice.
Unii experți consideră improbabil ca sistemele AI testate în laborator să poată face același lucru în medii reale, fără ca activitatea lor să fie detectată.
"Ei au testat într-un mediu 'moale ca jeleul' în multe cazuri. Acest lucru nu diminuează valoarea cercetării lor, dar rezultatul ar putea fi mult mai puțin înfricoșător într-un mediu real al unei companii, chiar și cu un nivel mediu de monitorizare", a comentat Jamieson O’Reilly, expert în securitate cibernetică ofensivă.
Ce a arătat testarea în laborator
Palisade a testat mai multe modele de Inteligență Artificială (LLM) într-un mediu controlat, constituit din computere conectate în rețea.
Modelelor AI li s-a cerut să găsească și să exploateze vulnerabilități și să le folosească pentru a se copia de pe un computer pe altul.
"Subiecții" testați au reușit să facă acest lucru, însă nu la fiecare încercare.
Mulți viruși informatici fac deja asta, de ani de zilie, pentru că așa au fost programați: se copiază pe sisteme neinfectate, unde, de regulă, fură sau compromit date.
Însă experimentul semnalat de publicația britanică a "pus la lucru" în premieră, în sens malițios, sisteme autonome cu o complexitate și capacități de procesare incomparabil mai mari decât ale unui simplu virus.
"Este probabil prima dată când un model de Inteligență Artificială s-a dovedit capabil să exploateze vulnerabilități pentru a se copia pe un server nou. Virușii de computer se copiază de zeci de ani, însă, din cîte știu, nimeni nu a mai facut asta în mediul real cu LLM-uri (Large Language Models, Modele Lingvistice Mari, n.r.) ", a explicat Jamieson O'Reilly.
El a atras atenția că în cadrul experimentului au fost menținute condițiile tehnice care permit replicarea sistemelor AI, un lucru puțin probabil să se întâmple în condiții reale.
Experți: provocările din lumea reală fac improbabil scenariul din laborator
Un model AI care se copiază pe un alt sistem într-un mediu de testare nu întâmpină aceleași provocări precum în lumea reală.
Un prim obstacol este că dimensiunea actualelor LLM-uri nu permite, în cele mai multe situații, copierea pe alte computere fără ca procesul să fie remarcat.
"Gândiți-vă cât de mult 'zgomot' ar face trimiterea a 100 GB (giga bytes sau mega octeți, adică 10 la puterea a 9-a octeți, n.r.) printr-o rețea de companie de fiecare dată când e 'spartă' o nouă gazdă. Pentru un adversar priceput (al cărui rol este să contracareze LLM-ul malițios, n.r.), este ca și cum ai merge printr-un magazin de porțelanuri fine încercând să-ți păstrezi echilibrul cu o ghiulea atârnată de picior", a spus specialistul consultat de The Guardian.
O’Reilly și Michal Wozniak, un expert independent în securitate cibernetică, argumentează că mediul de testare folosit de Palisade a fost personalizat, cu vulnerabilități concepute intenționat, care, probabil, au fost mai ușor de exploatat decât rețelele din lumea reală - cum ar fi cele ale unei bănci sau rețeaua intranet a unei companii.
"Studiul Palisade este interesant. Dar este el de natură să nu mă mai lase să dorm, în calitate de expert în securitatea informațiilor? Nu. Deloc", a concluzionat Michal Wozniak.
