Antena 3 CNN High Tech OpenAI avertizează că viitoarele modele de inteligență artificială ar putea ajuta la dezvoltarea armelor biologice

OpenAI avertizează că viitoarele modele de inteligență artificială ar putea ajuta la dezvoltarea armelor biologice

Laura Dinu
3 minute de citit Publicat la 07:00 24 Iun 2025 Modificat la 07:22 24 Iun 2025
mana robotica ce tine un semn de avertizare inteligenta artificiala
Aceleași capabilități care permit progresele ridică și riscuri de utilizare duală. Foto: Getty Images

Modelele AI de ultimă generație au potențialul de a accelera semnificativ descoperirile științifice, fiind doar unul dintre numeroasele moduri în care aceste tehnologii pot aduce beneficii umanității, transmite openai.com. În domeniul biologiei, aceste modele ajută deja cercetătorii să prezică ce medicamente noi au cele mai mari șanse de succes în studiile clinice. În curând, ar putea contribui și la descoperirea de medicamente, proiectarea de vaccinuri mai bune, crearea de enzime pentru combustibili sustenabili sau tratarea bolilor rare, cu impact în medicină, sănătate publică și științele mediului.

Totuși, aceleași capabilități care permit aceste progrese ridică și riscuri de utilizare duală: pot fi folosite atât pentru progres științific, cât și – în mod abuziv – pentru a recrea agenți patogeni periculoși sau pentru a facilita dezvoltarea de arme biologice. Deși accesul fizic la laboratoare și materiale sensibile rămâne un obstacol, aceste bariere nu sunt absolute.

OpenAI estimează că modelele viitoare vor atinge un nivel „înalt” de capabilitate biologică, conform propriei metodologii Preparedness Framework, și susține că implementează un plan cu mai multe componente pentru a preveni riscurile. Printre măsurile cheie:

  • Colaborarea cu experți externi, inclusiv agenții guvernamentale și laboratoare naționale.

  • Instruirea modelelor să gestioneze în siguranță cererile de natură biologică cu potențial periculos.

  • Sisteme de detecție și monitorizare permanente.

  • Teste de tip „red-teaming” cu experți, care încearcă să exploateze punctele slabe ale sistemelor de protecție.

  • Măsuri riguroase de securitate, inclusiv protejarea modelelor împotriva scurgerilor de date.

Prevenția este esențială

OpenAI afirmă că nu este acceptabil să se aștepte apariția unui eveniment de tip bio-atac pentru a implementa măsuri de siguranță. Din acest motiv, compania susține că se concentrează atât pe utilizările benefice ale AI – precum cercetarea biomedicală sau apărarea biologică –, cât și pe limitarea capabilităților care ar putea duce la utilizări nocive.

În procesul de pregătire, OpenAI a consultat experți în biosecuritate, bioterorism și cercetare academică pentru a dezvolta un model de evaluare a riscurilor, politici de utilizare și protocoale de siguranță. Instruirea modelelor s-a făcut și cu ajutorul specialiștilor cu diplome avansate în biologie.

Măsuri în vigoare și viitoare

  • Modelele sunt antrenate să refuze cererile periculoase și să ofere doar informații generale, fără detalii care ar putea permite abuzuri.

  • Sunt în funcțiune sisteme de monitorizare care detectează cereri suspicioase legate de biologie și pot bloca răspunsurile periculoase.

  • Utilizările abuzive sunt sancționate, inclusiv prin suspendarea conturilor sau, în cazuri grave, notificarea autorităților.

  • Sunt în curs parteneriate cu laboratoare precum Los Alamos National Lab și instituții guvernamentale din SUA și Marea Britanie (CAISI și AISI).

Securitate

OpenAI colaborează cu echipe de „red teamers” care testează limitele modelelor AI prin scenarii realiste. Provocarea constă în faptul că experții în inteligență artificială nu sunt de obicei experți în biosecuritate – și invers. De aceea, OpenAI formează echipe mixte care să acopere atât cunoștințele de risc biologic, cât și exploatarea vulnerabilităților AI.

Securitatea modelelor este asigurată printr-un sistem „în straturi” (defense-in-depth), care include controale de acces, infrastructură întărită, monitorizare constantă și un program specializat pentru detectarea riscurilor interne.

Ce urmează

Compania anunță că va găzdui în iulie un summit internațional pe tema biosecurității, unde va reuni cercetători guvernamentali și ONG-uri pentru a discuta riscurile de utilizare duală, soluțiile de apărare biologică și utilizarea frontier AI pentru cercetare medicală avansată.

Pe termen lung, OpenAI consideră că atât sectorul public, cât și cel privat ar trebui să colaboreze pentru a consolida apărarea biologică a societății. Aceasta ar putea include:

  • Sisteme mai stricte de screening pentru sinteza de material genetic.

  • Detectarea timpurie a agenților patogeni noi.

  • Infrastructuri mai reziliente la amenințări biologice.

  • Investiții în inovații biosecuritare.

În același timp, OpenAI vede oportunități pentru startup-uri cu misiuni axate pe biosecuritate, care ar putea transforma siguranța și protecția în domenii strategice atractive și pentru investitori.

În concluzie, compania subliniază că va continua să colaboreze cu guverne, cercetători și antreprenori pentru a se asigura că ecosistemul de biosecuritate este pregătit – și pentru a valorifica pe deplin potențialul AI în beneficiul umanității.

×
x close