Compania americană de inteligență artificială Anthropic acuză trei cunoscute laboratoare chineze de AI că au extras ilegal capabilități din modelul său Claude pentru a-și dezvolta propriile produse, susținând că situația ridică probleme de securitate națională, potrivit CNN.
Cei trei „unicorni” chinezi – DeepSeek, Minimax și Moonshot AI – ar fi creat peste 24.000 de conturi frauduloase și și-ar fi antrenat modelele folosind peste 16 milioane de interacțiuni cu Claude, printr-un proces cunoscut sub numele de „distilare”, a transmis, luni, Anthropic.
CNN a solicitat un punct de vedere din partea DeepSeek, MiniMax și Moonshot AI.
Ce este „distilarea”
Distilarea este o metodă obișnuită de antrenare în industria AI, laboratoarele de vârf folosindu-și adesea propriile modele pentru a crea versiuni mai ieftine destinate clienților. Însă majoritatea furnizorilor de modele AI proprietare, inclusiv Anthropic, interzic explicit astfel de practici. Claude nu este disponibil în China.
Acuzațiile vin după ce rivala Anthropic, OpenAI, a formulat la începutul acestei luni acuzații similare, susținând că DeepSeek și alte companii chineze de AI au distilat ilegal modelele sale ChatGPT în ultimul an, potrivit unui memorandum transmis Comisiei Selecte a Camerei Reprezentanților SUA privind China.
DeepSeek a surprins industria anul trecut, când a lansat un model puternic, aproape la nivelul liderilor din domeniu precum ChatGPT, dar care necesita mai puține resurse de calcul.
Această evoluție a contrazis opinia larg răspândită potrivit căreia antrenarea modelelor avansate necesită tot mai multă putere de procesare și a ridicat semne de întrebare privind eficiența controalelor tehnologice și a restricțiilor la export impuse de SUA.
Și OpenAI acuză DeepSeek
OpenAI a declarat ulterior că analizează dovezi potrivit cărora DeepSeek „ar fi putut distila în mod necorespunzător” modelele sale.
În memorandumul din această lună, OpenAI a susținut că progresele rapide ale DeepSeek se bazează pe „eforturile sale continue de a profita de capabilitățile dezvoltate de OpenAI și de alte laboratoare americane de frontieră”.
DeepSeek nu a comentat public acuzațiile OpenAI.
Anthropic a avertizat că modelele distilate ilegal ar putea să nu includă mecanismele de siguranță implementate de companii precum a sa și alți furnizori americani, ceea ce ar putea genera riscuri de securitate națională dacă sunt utilizate, de exemplu, în atacuri cibernetice sau în dezvoltarea de arme biologice.
Aceste modele ar putea, de asemenea, permite „guvernelor autoritare să utilizeze AI de frontieră pentru operațiuni cibernetice ofensive, campanii de dezinformare și supraveghere în masă”, a precizat compania. „Fereastra de acțiune este îngustă.”
Argumente pentru controalele la export ale SUA
Ascensiunea surprinzătoare a DeepSeek a declanșat o dezbatere privind eficiența controalelor la export impuse de SUA. Însă Anthropic susține că faptul că laboratoarele chineze vizate au dezvoltat modele performante prin distilare subliniază tocmai justificarea acestor restricții, pe care compania afirmă că le-a sprijinit constant pentru a menține avantajul SUA în domeniul AI.
Pe lângă DeepSeek, MiniMax și modelul Kimi al Moonshot AI au câștigat popularitate în China, devenind cunoscute drept „tigrii AI”. Cele trei se află în prezent în top 15 modele din clasamentul Artificial Analysis, o platformă de referință în domeniu.
Anthropic susține că, prin expunerea tentativelor de distilare, demonstrează eficiența controalelor la export și arată că dezvoltarea modelelor de ultimă generație nu poate fi susținută doar prin inovație, fără acces la cipuri avansate.
„În realitate, aceste progrese depind în mare măsură de capabilități extrase din modele americane, iar realizarea acestei extrageri la scară largă necesită acces la cipuri avansate”, a transmis compania.