Antena 3 CNN High Tech Anunțuri de angajare de la OpenAI și Anthropic provoacă îngrijorare: “Căutăm specialiști în arme biologice și chimice”

Anunțuri de angajare de la OpenAI și Anthropic provoacă îngrijorare: “Căutăm specialiști în arme biologice și chimice”

George Forcoş
2 minute de citit Publicat la 23:45 17 Mar 2026 Modificat la 23:52 17 Mar 2026
rachete Fateh lansate de iran
Anthropic  se teme că instrumentele sale AI ar putea spune cuiva cum să fabrice arme chimice sau radioactive. FOTO: Profimedia Images

Firma americană de inteligență artificială (AI) Anthropic caută să angajeze un expert în arme chimice și explozibili de mare putere pentru a încerca să prevină “utilizarea abuzivă catastrofală” a programelor sale, potirvit BBC.

O poziție similară a fost anunțată de dezvoltatorul ChatGPT, OpenAI. Pe site-ul său de cariere, acesta afișează un post vacant pentru un cercetător în „arme biologice și chimice”, cu un salariu de până la 455.000 de dolari (335.000 de lire sterline), aproape dublu față de cel oferit de Anthropic.

Cu alte cuvinte, Anthropic  se teme că instrumentele sale AI ar putea spune cuiva cum să fabrice arme chimice sau radioactive și dorește un expert pentru a evalua dacă procesele sale de protecție sunt suficient de robuste.

În postarea de recrutare de pe LinkedIn, firma spune că aplicanții ar trebui să aibă minimum cinci ani de experiență în „apărarea împotriva armelor chimice și/sau explozibililor”, precum și cunoștințe despre „dispozitivele de dispersie radiologică” - cunoscute și sub numele de bombe murdare.

Firma a declarat pentru BBC că rolul este similar cu locurile de muncă din alte domenii sensibile pe care le-a creat deja. Anthropic nu este singura firmă de AI care adoptă această strategie.

Unii experți sunt însă alarmați de riscurile acestei abordări, avertizând că aceasta oferă instrumentelor de inteligență artificială informații despre arme - chiar dacă li s-a cerut să nu o folosească.

„Este vreodată sigur să se utilizeze sisteme de inteligență artificială pentru a gestiona informații sensibile despre substanțe chimice și explozibili, inclusiv bombe murdare și alte arme radiologice?”, a declarat Dr. Stephanie Hare, cercetător în tehnologie și coprezentatoare a programului TV AI Decoded de la BBC.

„Nu există niciun tratat internațional sau altă reglementare pentru acest tip de muncă și utilizarea inteligenței artificiale cu aceste tipuri de arme. Toate acestea se întâmplă în afara oricărui contact.”

Avertisment din interiorul industriei AI

Industria inteligenței artificiale a avertizat în mod constant cu privire la potențialele amenințări existențiale reprezentate de tehnologia sa, dar nu a existat nicio încercare de a încetini progresul acesteia.

Problema a devenit urgentă, deoarece guvernul SUA face apel la firmele de inteligență artificială în timp ce lansează război în Iran și operațiuni militare în Venezuela.

Anthropic a intentat acțiuni legale împotriva Departamentului Apărării al SUA, care a desemnat-o drept un risc pentru lanțul de aprovizionare atunci când firma a insistat că sistemele sale nu trebuie utilizate nici în arme complet autonome, nici în supravegherea în masă a americanilor.

Cofondatorul Anthropic, Dario Amodei, a scris în februarie că nu crede că tehnologia este încă suficient de bună și nu ar trebui utilizată în aceste scopuri. Casa Albă a declarat că armata americană nu va fi guvernată de companii de tehnologie.

Eticheta de risc pune compania americană în aceeași situație cu firma chineză de telecomunicații Huawei, care a fost în mod similar inclusă pe lista neagră din cauza diferitelor preocupări de securitate națională.

OpenAI a declarat că este de acord cu poziția Anthropic, dar apoi a negociat propriul contract cu guvernul SUA, despre care spune că nu a început încă.

Asistentul de inteligență artificială al Anthropic, numit Claude, nu a fost încă eliminat treptat și este încă integrat în sistemele furnizate de Palantir și desfășurate de SUA în războiul dintre SUA și Israel și Iran.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Longevity Magazine

x close