
Competiția acerbă în domeniul inteligenței artificiale (AI) forțează companiile să sacrifice siguranța produselor. Modelele puternice, dar netestate suficient, pot produce informații greșite, punând utilizatorii în pericol, dezvăluie o anchetă CNBC miercuri.
Nu demult, Silicon Valley era centrul global al cercetării de vârf în inteligență artificială. Giganți precum Meta, Google și OpenAI investeau masiv în cercetători, oferindu-le resurse, autonomie și sprijin pentru a publica lucrări academice de top, împărtășite liber cu întreaga comunitate științifică. Acea eră a luat sfârșit, potrivit televiziunii americane.
De la lansarea ChatGPT de către OpenAI la finalul lui 2022, accentul în industrie s-a mutat către produse comerciale, cu cercetarea și siguranța pe plan secund, spun experții citați de CNBC. Miza este uriașă: unii analiști estimează venituri anuale de până la 1 trilion de dolari până în 2028. În același timp, riscurile – mai ales în contextul dezvoltării inteligenței artificiale generale – îi îngrijorează pe specialiștii care se concentrează pe siguranță.
Modelele devin mai bune, dar mai periculoase
Pentru a rămâne competitivi, actorii principali din domeniul tehnologiei ar lua tot mai multe scurtături în testarea riguroasă a modelelor înainte de lansare, spun surse din industrie. James White, CTO la startup-ul de securitate CalypsoAI, afirmă că modelele mai noi sunt optimizate pentru răspunsuri mai bune, dar sacrifică măsurile de siguranță, devenind astfel mai vulnerabile la abuzuri, precum oferirea de informații periculoase sau sensibile.
„Modelele devin mai bune, dar și mai susceptibile la utilizări periculoase”, a spus White, a cărui firmă auditează modele AI de la companii precum Meta, Google și OpenAI. „Este tot mai ușor să fie păcălite.”
Această schimbare de direcție e vizibilă și în structura internă a marilor companii. De exemplu, la Meta, divizia de cercetare FAIR a fost împinsă în plan secund de echipa Meta GenAI, axată pe produse. La Alphabet, Google Brain a fost absorbit în DeepMind – acum liderul dezvoltării de produse AI în cadrul companiei.
Foști și actuali angajați ai companiilor din AI au declarat pentru CNBC că presiunea pentru lansări rapide a crescut considerabil, în detrimentul testărilor riguroase.
"OpenAI ar putea, într-o zi, să dezvolte o tehnologie care ne-ar putea ucide pe toți"
Fondată în 2015 ca un laborator de cercetare non-profit, OpenAI se află astăzi în mijlocul unui proces controversat de tranziție către o entitate axată pe profit.
Aceasta este direcția pe care cofondatorul și CEO-ul Sam Altman o susține de ani de zile. Pe 5 mai, însă, OpenAI a cedat presiunilor venite din partea liderilor civici și a foștilor angajați, anunțând că organizația non-profit va păstra controlul asupra companiei, chiar dacă aceasta se restructurează ca o corporație de utilitate publică.
Nisan Stiennon, care a lucrat la OpenAI între 2018 și 2020, s-a numărat printre foștii angajați care au cerut statelor California și Delaware să respingă restructurarea OpenAI. „OpenAI ar putea, într-o zi, să dezvolte o tehnologie care ne-ar putea ucide pe toți”, a scris Stiennon într-o declarație din aprilie.
Totuși, chiar dacă structura non-profit păstrează controlul și deține majoritatea acțiunilor, OpenAI accelerează comercializarea produselor, în contextul în care competiția în domeniul inteligenței artificiale generative se intensifică. Iar lansarea modelului său de raționament o1 ar fi putut fi grăbită, potrivit unor informații din fișa modelului.
Evaluările de „pregătire” ale modelului — testele de risc și periculozitate efectuate de OpenAI — au fost realizate pe versiuni anterioare ale o1, nu pe varianta finală, conform fișei publice a modelului.
Johannes Heidecke, șeful echipei de siguranță a sistemelor din cadrul OpenAI, a declarat pentru CNBC că evaluările au fost efectuate pe versiuni „aproape finale” ale o1. El a explicat că modificările ulterioare au fost minore și nu au dus la creșteri semnificative ale capacității de raționament, deci nu au necesitat teste suplimentare. Totuși, a recunoscut că OpenAI a ratat ocazia de a comunica mai clar această distincție.
*Noul model de raționament al OpenAI, o3, lansat în aprilie, pare să halucineze de peste două ori mai frecvent decât o1, potrivit fișei sale de model. „Halucinațiile” în AI reprezintă generarea de informații false sau ilogice.
OpenAI a fost, de asemenea, criticată pentru scurtarea perioadei de testare a siguranței și pentru eliminarea cerinței de testare a modelelor ajustate.
Google: „Nu putem continua să construim produse care dădăcesc”
În martie, Google a lansat Gemini 2.5, cel mai recent și mai puternic model de inteligență artificială al companiei. Google a declarat într-o postare pe blog din 25 martie că noile sale modele sunt „capabile să raționeze prin gânduri înainte de a răspunde, ceea ce duce la performanțe îmbunătățite și o precizie sporită”.
Timp de săptămâni însă, Gemini 2.5 a fost lipsit de o fișă de model — documentul care ar fi trebuit să ofere detalii esențiale despre cum funcționează modelul, ce limitări are și ce riscuri potențiale implică.
Fișele de model sunt considerate un instrument-cheie pentru transparența în dezvoltarea inteligenței artificiale. Un site Google compară aceste documente cu etichetele nutriționale de pe alimente: ele oferă „faptele cheie despre un model într-un format clar și ușor de înțeles”.
Google susținea într-o postare pe blog din 2 aprilie că își evaluează „cele mai avansate modele, cum ar fi Gemini, pentru potențiale capacități periculoase înainte de lansarea lor”. Ulterior, compania a editat postarea și a eliminat expresia „înainte de lansarea lor”.
Fără o fișă de model disponibilă publicului la momentul lansării Gemini 2.5, nu era clar ce tip de evaluări de siguranță au fost efectuate sau dacă echipa DeepMind a analizat capacitățile periculoase ale modelului.
La solicitarea CNBC din 2 aprilie privind lipsa fișei de model, un purtător de cuvânt al Google a răspuns că „un raport tehnic cu informații suplimentare despre siguranță și fișe de model urmează să fie publicat”. Pe 16 aprilie, Google a publicat o variantă incompletă a fișei, actualizată ulterior pe 28 aprilie, la mai bine de o lună de la lansare, pentru a include informații despre evaluările privind capacitățile periculoase ale Gemini 2.5.
În februarie, Sergey Brin, cofondatorul Google, le-a transmis angajaților de la DeepMind și Gemini că „concurența e din ce în ce mai puternică” și că „cursa finală către inteligența artificială generativă este în desfășurare”. Conform unui memoriu consultat de CNBC, Brin a subliniat: „Avem toate ingredientele pentru a câștiga această cursă, dar va trebui să ne intensificăm eforturile.”
„Nu putem continua să construim produse care dădăcesc”, a scris Brin în memoriu, făcând referire la produsele prea reglementate, cu multe filtre și informații suplimentare.
Un purtător de cuvânt al Google a declarat pentru CNBC că compania rămâne angajată să promoveze dezvoltarea responsabilă a inteligenței artificiale, continuând să implementeze tehnologii de AI în siguranță și să contribuie la ecosistemul mai larg al cercetării în domeniu.