Antena 3 CNN Externe Compania de inteligență artificială Anthropic a dat în judecată Departamentul Apărării al SUA după ce a fost trecută pe lista neagră

Compania de inteligență artificială Anthropic a dat în judecată Departamentul Apărării al SUA după ce a fost trecută pe lista neagră

A.N.
2 minute de citit Publicat la 07:00 10 Mar 2026 Modificat la 07:00 10 Mar 2026
dario amodei getty
Dario Amodei, CEO-ul Anthropic. sursa foto: Getty

Compania de inteligență artificială Anthropic a deschis luni două procese împotriva Departamentului Apărării al Statelor Unite, susținând că decizia guvernului de a o eticheta drept „risc pentru lanțul de aprovizionare” este ilegală și îi încalcă drepturile garantate de Primul Amendament. Disputa dintre cele două părți durează de mai multe luni și a pornit de la încercarea companiei de a introduce garanții care să împiedice utilizarea modelelor sale de inteligență artificială de către armată pentru supraveghere internă în masă sau pentru arme autonome letale, scrie The Guardian.

Plângerile au fost depuse la tribunalul federal din districtul de nord al Californiei și la Curtea de Apel a SUA pentru circuitul Washington DC, după ce Pentagonul a emis oficial, joia trecută, desemnarea de „risc pentru lanțul de aprovizionare”.

Este pentru prima dată când acest instrument de sancționare este folosit împotriva unei companii americane. Anthropic anunțase anterior că va contesta decizia și solicitarea ca toate companiile care lucrează cu guvernul american să rupă orice legături cu firma, o măsură care reprezintă o amenințare serioasă pentru modelul său de afaceri.

În plângerea depusă în instanță, Anthropic susține că administrația Trump pedepsește compania pentru că a refuzat să se conformeze unor cerințe ideologice ale guvernului, încălcând astfel libertatea de exprimare protejată constituțional.

„Aceste acțiuni sunt fără precedent și ilegale. Constituția nu permite guvernului să își folosească puterea enormă pentru a pedepsi o companie pentru exprimarea sa protejată”, se arată în plângerea depusă de Anthropic în California.

Modelul de inteligență artificială al companiei, numit Claude, a fost integrat profund în activitatea Departamentului Apărării în ultimul an. Până recent, Claude era și singurul model AI aprobat pentru utilizare în sisteme clasificate.

Potrivit informațiilor apărute în presă, Departamentul Apărării l-a folosit pe scară largă în operațiuni militare, inclusiv pentru a decide țintele unor lovituri cu rachete în războiul cu Iranul.

Anthropic subliniază în proces că rămâne angajată să furnizeze tehnologii de inteligență artificială pentru securitatea națională. Compania afirmă că a colaborat anterior cu Departamentul Apărării pentru a adapta sistemele sale la utilizări specifice și că dorește să continue negocierile cu guvernul.

„Solicitarea unei revizuiri judiciare nu schimbă angajamentul nostru de lungă durată de a folosi inteligența artificială pentru a proteja securitatea națională, însă acesta este un pas necesar pentru a ne proteja afacerea, clienții și partenerii”, a declarat un purtător de cuvânt al Anthropic pentru The Guardian. „Vom continua să căutăm orice cale pentru a ajunge la o soluție, inclusiv dialogul cu guvernul”.

Compania susține în acțiunea în justiție că măsurile punitive ale administrației Trump și ale Pentagonului „provoacă prejudicii ireparabile” firmei. Afirmația pare însă să contrazică declarațiile făcute săptămâna trecută de directorul executiv Dario Amodei pentru CBS News, care spunea că „impactul acestei desemnări este relativ mic” și că firma „va fi în regulă”.

„Pârâții încearcă să distrugă valoarea economică creată de una dintre companiile private cu cea mai rapidă creștere din lume, lider în dezvoltarea responsabilă a unei tehnologii emergente de importanță vitală pentru națiunea noastră”, susține Anthropic în proces.

Departamentul Apărării al SUA nu a oferit, deocamdată, un punct de vedere pe această temă.

Ştiri video recomandate
×

Fanatik

Antena Sport

Observator News

Longevity Magazine

Parteneri
x close