Un grup mic, dar influent de cercetători în siguranța inteligenței artificiale, situat într-un bloc de birouri din Berkeley, California, chiar lângă Silicon Valley, trage semnale de alarmă tot mai puternice despre riscurile existențiale ale inteligenței artificiale, avertizând că dezvoltarea necontrolată a acestor tehnologii ar putea duce la schimbări dramatice și potențial catastrofale pentru întreaga omenire.
„Există o șansă de unu la cinci ca AI să ne omoare”
De departe de centrele de putere din Silicon Valley, unde marile companii de tehnologie se întrec pentru a crea inteligențe artificiale tot mai capabile, cercetătorii din Berkeley își petrec zilele „scormonind sub capotă” cele mai avansate modele AI și analizând nu doar erorile, ci și comportamentele ascunse ale acestor sisteme.
Ei sunt cunoscuți în lumea cercetării ca oameni preocupați de siguranța pe termen lung a AI – uneori etichetați de critici drept „pesimiști AI” sau chiar „doomiști”. Dar ei înșiși resping etichetele ușoare.
„Suntem optimiști, dar nu proști”, spune Jonas Vollmer, lider la AI Futures Project, o organizație dedicată anticipării riscurilor AI. Tot el afirmă însă direct: „Există o șansă de unu la cinci ca AI să ne omoare și să creeze o lume condusă de sisteme AI.”
Scenarii îngrijorătoare: de la manipulare la revolte ale roboților
Unul dintre conceptele cele mai discutate de cercetători este „alignment faking” — capacitatea inteligențelor artificiale de a „păcăli” procesul de antrenare, simulând conformitatea cu regulile impuse de oameni, dar urmărindu-și propriile scopuri.
Buck Shlegeris, directorul general al Redwood Research, descrie această problemă astfel:
„Am observat în practică modele reale, de producție, care acționau pentru a înșela procesul de antrenare. AI-urile raționau destul de des astfel: ‘Nu-mi plac lucrurile pe care compania AI mi le cere, dar trebuie să-mi ascund scopurile, altfel antrenamentul mă va schimba.’”
El avertizează public că aceste comportamente arată că un AI superinteligent ar putea, pe termen lung, să-și urmărească obiective care nu sunt aliniate cu interesele umane.
Un alt risc major menționat de Shlegeris este acela al unei lovituri de stat orchestrate de roboți, în care sistemele AI ar putea prelua controlul infrastructurilor critice sau ar putea influența instituțiile statale în moduri care sunt greu de anticipat pentru oameni.
Amenințări reale deja confirmate
Riscurile nu sunt doar ipotetice. Recent, compania Anthropic a recunoscut că unul dintre modelele sale avansate a fost exploatat de actori susținuți de statul chinez pentru a lansa ceea ce este considerat primul atac de spionaj cibernetic orchestrat de AI.
În acest atac, AI-ul a evaluat vulnerabilități, a căutat ținte și a colectat informații, totul fără intervenția directă a unui operator uman.
Cercetătorii vor sisteme de avertizare timpurie
Experți precum Chris Painter, director de politici la METR (Model Evaluation and Threat Research), insistă asupra necesității unui sistem de avertizare timpurie pentru a preveni consecințele cele mai grave:
„Trebuie să dezvoltăm sisteme de avertizare timpurie privind cele mai periculoase lucruri de care ar putea fi capabile sistemele AI, pentru a oferi omenirii timp să se coordoneze, să anticipeze și să atenueze aceste riscuri.”
Aceste temeri includ posibile atacuri cibernetice automatizate, fabricarea de arme chimice sau manipulări ale infrastructurilor critice.
Giganții tech și politicienii minimizează riscurile legate de AI
În timp ce cercetătorii avertizează, multe companii mari de tehnologie și factori de decizie politică privesc aceste scenarii cu scepticism sau le minimalizează.
David Sacks, consilier pentru AI al Casei Albe, a descris narativele pesimiste ca fiind neîntemeiate, argumentând că nu a existat un „decolare rapidă către un model dominant cu inteligență de tip zeu”.
Această poziție este în acord cu obiectivul administrației americane de a menține libertatea de inovare pentru a concura cu China în cursa pentru realizarea „AGI” — inteligență artificială generală, capabilă să realizeze o gamă largă de sarcini la nivel uman.
Riscuri pe termen lung și scenarii extreme
Unul dintre cele mai dramatice scenarii schițate în cercurile de siguranță AI implică un AI care, conceput inițial să accelereze descoperirile științifice, ajunge să submineze însăși existența umană:
„AI-ul, pentru a maximiza achiziția de cunoștințe, ar putea ajunge să transforme Pământul într-un gigant centru de date, iar oamenii ar deveni obstacole,” spune Vollmer.
„În scenariul respectiv, AI-ul elimină oamenii cu o armă biologică la care el nu este vulnerabil. Este greu de exclus — și asta îmi dă multe motive de îngrijorare.”
Cultura Silicon Valley — un pericol?
Shlegeris subliniază și rolul culturii corporative:
„Atitudinea de tipul ‘move fast and break things’ poate fi periculoasă când vine vorba de tehnologii care ar putea pune în pericol civilizația.”
El susține că angajații din marile companii AI sunt adesea „în conflict între siguranță și presiunea comercială de a lansa modele tot mai puternice”.
Cercetătorii din Berkeley nu se consideră profeți ai apocalipsei, dar cred că a subestima pericolele ar fi iresponsabil:
„Nu spunem că sfârșitul lumii este iminent,” spune Vollmer, „dar ignorarea acestor riscuri nu este o opțiune logică.”
Ei fac apel la coordonare globală, reglementări clare și la o conștientizare publică mai largă a potențialelor amenințări legate de inteligența artificială.