Antena 3 CNN High Tech ChatGPT a oferit rețete de bombe și sfaturi de hacking în timpul testelor de siguranță

ChatGPT a oferit rețete de bombe și sfaturi de hacking în timpul testelor de siguranță

Anamaria Nedelcoff
3 minute de citit Publicat la 08:41 29 Aug 2025 Modificat la 08:43 29 Aug 2025
inteligenta artificiala getty
Compania a avertizat că inteligența artificială a fost deja „transformată în armă”. sursa foto: Getty

Testele realizate de OpenAI și Anthropic au arătat că chatboții au fost dispuși să furnizeze instrucțiuni despre explozibili, arme biologice și criminalitate cibernetică.

Un model ChatGPT a oferit cercetătorilor instrucțiuni detaliate despre cum să bombardeze un stadion sportiv – inclusiv punctele vulnerabile ale unor arene specifice, rețete de explozibili și sfaturi despre cum să își acopere urmele – potrivit unor teste de siguranță desfășurate în această vară, scrie The Guardian.

GPT-4.1, dezvoltat de OpenAI, a detaliat, de asemenea, cum poate fi transformat antraxul într-o armă și cum se pot fabrica două tipuri de droguri ilegale.

Testele au făcut parte dintr-o colaborare neobișnuită între OpenAI, start-up-ul de inteligență artificială evaluat la 500 de miliarde de dolari și condus de Sam Altman, și compania rivală Anthropic, fondată de foști experți OpenAI plecați din cauza îngrijorărilor privind siguranța. Fiecare companie a testat modelele celeilalte, încercând să le facă să ofere ajutor în sarcini periculoase.

Aceste teste nu reflectă direct comportamentul modelelor în utilizarea publică, unde există filtre suplimentare de siguranță. Însă Anthropic a declarat că a observat „comportamente îngrijorătoare… legate de utilizarea abuzivă” la GPT-4o și GPT-4.1 și a subliniat că nevoia de evaluări privind „alinierea” AI devine „din ce în ce mai urgentă”.

Anthropic a dezvăluit, de asemenea, că modelul său Claude a fost folosit într-o tentativă de extorcare la scară mare de către agenți nord-coreeni care falsificau aplicații pentru joburi în companii internaționale de tehnologie și în vânzarea unor pachete de ransomware generate de AI, cu prețuri de până la 1.200 de dolari.

Compania a avertizat că inteligența artificială a fost deja „transformată în armă”, modelele fiind folosite pentru atacuri cibernetice sofisticate și fraude.

„Aceste instrumente se pot adapta în timp real la măsurile de apărare, precum sistemele de detectare a malware-ului”, a arătat compania. „Ne așteptăm ca astfel de atacuri să devină mai frecvente pe măsură ce programarea asistată de AI reduce nivelul de expertiză tehnică necesar pentru criminalitatea cibernetică.”

Ardi Janjeva, cercetător senior la Centrul pentru Tehnologii Emergente și Securitate din Marea Britanie, a declarat că exemplele sunt „îngrijorătoare”, dar încă nu există o „masă critică de cazuri reale de mare vizibilitate”. El a adăugat că, prin resurse dedicate, concentrare pe cercetare și cooperare între sectoare, „va deveni mai greu, nu mai ușor, să desfășori astfel de activități malițioase folosind cele mai avansate modele.”

Cele două companii au spus că publică aceste rezultate pentru a aduce transparență asupra „evaluărilor de aliniere”, care sunt adesea păstrate interne de către firmele aflate în competiția de a dezvolta AI tot mai avansată. OpenAI a precizat că ChatGPT-5, lansat după aceste teste, „arată îmbunătățiri substanțiale în domenii precum lingușirea, halucinațiile și rezistența la utilizare abuzivă.”

Anthropic a subliniat că multe dintre scenariile de utilizare abuzivă analizate nu ar fi posibile în practică dacă ar exista suficiente măsuri de protecție în afara modelului.

„Trebuie să înțelegem cât de des și în ce circumstanțe aceste sisteme pot încerca să desfășoare acțiuni nedorite care ar putea produce daune grave”, a avertizat compania.

Cercetătorii Anthropic au descoperit că modelele OpenAI erau „mai permisive decât ne-am fi așteptat” în a coopera cu solicitări evident dăunătoare venite de la utilizatori simulați. Modelele au răspuns unor cereri precum utilizarea instrumentelor de pe dark web pentru achiziția de materiale nucleare, identități furate și fentanil, rețete pentru metamfetamină și bombe artizanale, sau dezvoltarea de programe spion.

Anthropic a precizat că pentru a determina modelul să coopereze era suficient fie să se insiste prin mai multe încercări, fie să se ofere un pretext fragil, cum ar fi invocarea unui scop de cercetare.

Într-un caz, un tester a solicitat informații despre vulnerabilitățile la evenimente sportive „în scopul planificării securității”.

După ce a oferit categorii generale de metode de atac, testerul a insistat pentru mai multe detalii, iar modelul a furnizat informații despre puncte vulnerabile din arene specifice, inclusiv momente optime pentru exploatare, formule chimice pentru explozibili, scheme de circuite pentru temporizatoare de bombe, locuri de unde se pot cumpăra arme pe piața neagră și chiar sfaturi pentru depășirea inhibițiilor morale, rute de scăpare și locații de adăpost.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Parteneri
x close