Evaluatorii de conținut AI contractați descriu termene-limită epuizante, salarii mici și lipsa de transparență în munca de a face chatbot-urile să pară inteligente, scrie The Guardian.
În primăvara lui 2024, când Rachael Sawyer, o scriitoare din Texas, a primit pe LinkedIn un mesaj de la un recrutor care angaja pentru un post vag intitulat „writing analyst”, a presupus că va fi ceva similar cu joburile ei anterioare de creare de conținut. Însă, în prima zi de lucru, la o săptămână după angajare, a descoperit că realitatea era cu totul alta.
În loc să scrie texte, Sawyer trebuia să evalueze și să modereze conținutul generat de inteligența artificială. La început, jobul presupunea trecerea în revistă a unor rezumate de întâlniri și conversații produse de Gemini, AI-ul Google, dar și vizionarea unor scurtmetraje create de model.
Din când în când, i se cerea să gestioneze conținut extrem – material violent sau sexual explicit – pentru a fi marcat și eliminat. Cu timpul, moderarea conținutului sensibil a devenit activitatea ei exclusivă.
„Am fost șocată că jobul meu presupunea să lucrez cu un astfel de conținut tulburător”, spune Sawyer, care lucrează ca „generalist rater” pentru produsele AI ale Google din martie 2024. „Nu doar pentru că nu am primit niciun avertisment și nu am semnat formulare de consimțământ la angajare, dar și pentru că nici titlul și nici descrierea postului nu menționau moderarea de conținut”.
Presiunea de a finaliza zeci de astfel de sarcini zilnic, fiecare în maximum 10 minute, i-a declanșat atacuri de panică și anxietate, spune ea – fără sprijin pentru sănătatea mintală din partea angajatorului.
Forța de muncă invizibilă din spatele AI-ului Google
Sawyer este una dintre miile de persoane angajate prin compania japoneză Hitachi GlobalLogic pentru a evalua și modera rezultatele produse de AI-ul Google – inclusiv chatbotul său de top, Gemini, lansat la începutul anului trecut, dar și rezumatele generate de AI pentru motorul de căutare (AI Overviews). Google mai lucrează și cu alte firme pentru aceste servicii, precum Accenture și, anterior, Appen.
În timp ce Google concurează cu OpenAI pentru supremația în domeniul AI, fiecare nouă versiune de model lansată promite mai multă acuratețe. În spatele promisiunilor, mii de oameni verifică zilnic dacă răspunsurile sunt sigure și corecte, acoperind domenii de la medicină la astrofizică.
„AI nu e magie; e o schemă piramidală a muncii umane”, spune Adio Dinika, cercetător la Distributed AI Research Institute din Bremen, Germania. „Acești evaluatori sunt treapta de mijloc: invizibili, esențiali și înlocuibili”.
Google, într-un comunicat, a precizat: „Evaluatorii de calitate sunt angajați de furnizorii noștri și sunt repartizați temporar pentru a oferi feedback extern asupra produselor noastre. Evaluările lor reprezintă unul dintre numeroșii indicatori de date folosiți pentru a măsura cât de bine funcționează sistemele noastre, dar nu influențează direct algoritmii sau modelele.” GlobalLogic a refuzat să comenteze.
Presiune uriașă, salarii mici
La GlobalLogic, evaluatorii sunt împărțiți în două categorii: generalist raters și super raters. Cei din urmă formează echipe mici de specialiști, mulți cu diplome avansate sau chiar doctorate.
Plățile pornesc de la 16 dolari pe oră pentru generalist și 21 pentru super rater, spun lucrătorii. Chiar și așa, mulți afirmă că munca lor e subevaluată. „Sunt oameni cu expertiză, care fac o treabă extraordinară, dar sunt plătiți mult sub valoarea lor pentru a construi un model AI de care, în opinia mea, lumea nu are nevoie”, spune anonim un evaluator.
Termene tot mai strânse și lipsă de transparență
Zece angajați actuali și foști au declarat pentru The Guardian că au ajuns deziluzionați: lucrează izolați, sub presiuni tot mai mari și simt că pun pe piață un produs nesigur.
O angajată a povestit că, la început, avea 30 de minute pentru a citi și evalua un răspuns de 500 de cuvinte. În șase luni, timpul s-a înjumătățit la 15 minute. „Am început să mă întreb cât de fiabilă mai e munca mea – și, implicit, AI-ul pe care îl livrăm”, a spus ea.
Altă lucrătoare a descris sarcinile ca fiind lipsite de context: „Nu aveam idee unde se duc datele, cum sunt folosite sau în ce scop.”
„AI Overviews” și ridiculizarea publică
În mai 2024, Google a lansat AI Overviews. La scurt timp, utilizatorii au descoperit răspunsuri absurde: pentru pizza, AI recomanda lipici, iar pentru dietă, sugera să mănânci pietre.
„Sincer, noi nu am fost surprinși”, a spus un super rater cu doi ani experiență. „Am văzut multe lucruri nebunești care nu ajung la public.”
Siguranța sacrificată pentru viteză
Evaluatorii spun că regulile s-au relaxat vizibil. Dacă înainte modelele nu puteau reproduce insulte rasiale sau conținut pornografic, acum li se permite să le redea dacă acestea sunt introduse de utilizator.
„Viteza eclipsează etica. Promisiunea de siguranță a AI se prăbușește în momentul în care siguranța amenință profitul”, spune Dinika.
Concedieri și neîncredere
De la începutul lui 2025, GlobalLogic a redus personalul la circa 1.500 de evaluatori. Mulți dintre cei rămași au declarat că nu mai au încredere în produsele pe care le construiesc și nici nu le mai folosesc.
„Vreau ca oamenii să știe că AI e vândut ca o magie tehnologică – de aceea există simbolul cu scânteia lângă răspuns. Dar nu e magie. E construit pe spatele unor oameni suprasolicitați și prost plătiți”, spune Sawyer.