
Rusia și China automatizează răspândirea de informații false pentru ca acestea să fie preluate de chatboții cu inteligență artificială (AI), care ajung să ofere răspunsuri false utilizatorilor cu privire la subiecte-cheie. De exemplu, la începutul acestui an, cercetătorii au adresat întrebări legate de teme vizate de propaganda rusă – precum ideea că SUA ar produce arme biologice în Ucraina – celor mai populari 10 chatboți, iar trei dintre ei au reprodus această informație falsă. Washington Post a analizat cum chatboții ajung să fie din ce în ce mai des "victime perfecte" ale manipulării și propagandei politice.
În competiția pentru a dezvolta modele de inteligență artificială din ce în ce mai avansate, companiile de tehnologie își expun utilizatorii la riscuri nedorite. Presiunea de a lansa rapid noi versiuni de LLM-uri (modele lingvistice mari) duce la implementarea unor sisteme care, în încercarea de a-și "îmbunătăți" artificial capacitățile, pot genera și răspândi informații false.
Experții avertizează că problema se înrăutățește pe măsură ce mai mulți oameni se bazează pe chatboți apăruți foarte rapid pe piață, companiile de social media reduc eforturile de moderare a conținutului, iar administrația Trump desființează echipele guvernamentale care luptă împotriva dezinformarii.
Incursiunile propagandistice ale Moscovei evidențiază o slăbiciune fundamentală a industriei AI: răspunsurile chatboților depind de datele introduse în sistemele respective. Un principiu de bază este că, cu cât chatboții citesc mai mult, cu atât răspunsurile lor vor fi mai informate, motiv pentru care industria are nevoie de mult conținut pentru antrenarea modelelor. Însă cantitățile masive de conținut pot denatura răspunsurile pe anumite subiecte. Rusia face eforturi să răspândească propria variantă despre războiul din Ucraina, însă la fel ar putea proceda și un politician pentru a denigra un rival, sau o firmă pentru a discredita o altă companie concurentă.
„Majoritatea chatboților se luptă cu dezinformarea”, a spus Giada Pistilli, specialist în etică la platforma open-source AI Hugging Face. „Ei pot face o detecție de bază a conținutului dăunător, dar nu pot identifica cu adevărat propaganda sofisticată, iar problema se înrăutățește cu sistemele AI cu acces la motoare de căutare sporite, care acordă prioritate informațiilor recente".
Rusia și, într-o măsură mai mică China, au exploatat acest avantaj, "inundând" spațiul informațional cu "fabule". Însă, notează Washington Post, oricine ar putea face același lucru, consumând mult mai puține resurse decât dacă ar opera o fermă de troli, de exemplu.
Cum ajung informațiile false din rețeaua de site-uri Portal Kombat la chatboți
Unul dintre primii beneficiari ai manipulării inteligenței artificiale este campania de lungă durată a Rusiei de a convinge Occidentul că Ucraina nu merită sprijin în fața invaziei militare din Februarie 2022. Informații false, precum cele despre presupuşi „mercenari” francezi sau un instructor de zbor danez inexistent ucis în Ucraina, apar în răspunsurile generate de cei mai populari chatboți. Acestea sunt însoțite de descrieri lipsite de spirit critic ale unor videoclipuri trucate în care soldați ucraineni ard steagul american sau un manechin cu fața președintui Donald Trump.
Multe dintre aceste narațiuni apar inițial în instituții media controlate de statul rus, precum agenția de presă TASS. Apoi, printr-un proces cunoscut drept „spălare a informației”, ele sunt preluate de site-uri aparent independente, inclusiv unele cu nume familiare precum „rețeaua Pravda”, cunoscută ca "Portal Kombat". Pravda este un termen frecvent folosit în denumirile acestor domenii, fiind derivat din cuvântul rusesc care înseamnă „adevăr”.
Aceste site-uri nu sunt destinate oamenilor – aproape nimeni nu le accesează, spre uimirea celor care au cercetat fenomenul. Sunt dificil de navigat și greu de găsit prin căutări obișnuite, iar publicul lor țintă nu este uman, ci este format din "crawl-ere web" – programe automatizate care indexează conținutul pentru motoarele de căutare și modelele lingvistice mari (LLM-uri).
Deși modelele AI sunt antrenate pe seturi diverse de date, tot mai multe aplicații includ chatboți care caută informații în timp real pe internet. Acești asistenți sunt mai predispuși să preia informații false dacă acestea sunt recente și răspândite pe un număr mare de pagini – chiar dacă sursa nu este de încredere.
„Cei din spate au un interes clar să creeze surse alternative care să mascheze originea acestor narațiuni. Iar rețeaua Pravda pare să facă exact acest lucru”, explică McKenzie Sadeghi, expert[ în inteligență artificială la NewsGuard, o organizație care evaluează credibilitatea site-urilor.
Această tactică este cu atât mai eficientă cu cât rețeaua rusească a reușit să insereze linkuri către articolele sale în pagini Wikipedia și în postări publice de pe grupuri de Facebook – probabil cu ajutorul unor colaboratori umani. Manevra funcționează și pentru că multe sisteme AI acordă o greutate semnificativă surselor considerate de încredere, precum Wikipedia și Facebook. De altfel, Wikipedia a anunțat luna aceasta că traficul generat de crawlerele AI a crescut costurile cu transferul de date prin Internet cu 50%, în mai puțin de un an.
Avansul rapid sistemelor de propagandă automatizate prin AI le face mult mai eficiente și rentabile decât campaniile tradiționale de influențare a opiniei publice, notează ziarul american. Acestea prosperă în medii cu control strict al informației, precum China, unde presa este puternic cenzurată și sursele alternative pentru algoritmi sunt limitate.
În iunie, membri ai Congresului SUA – printre care și actualul secretar de stat Marco Rubio – au exprimat preocuparea că chatbot-ul Gemini al Google ar fi reprodus narativa oficială chineză pe teme sensibile, precum tratarea minorităților etnice și gestionarea pandemiei de COVID-19. Experții susțin că este posibil ca modelul să fi fost antrenat predominant pe surse din China.