Poliţia Română atrage atenţia că videoclipurile false create cu ajutorul inteligenţei artificiale - "deepfake-urile" - şi imaginile generate artificial au devenit instrumentele preferate ale autorilor infracţiunilor din domeniul criminalităţii informatice, fiind promovate masiv pe reţelele de socializare, iar cetăţenii de bună-credinţă sunt induşi în eroare de aceste "capcane", crezând că văd celebrităţi, experţi financiari sau persoane aflate la nevoie, conform Agerpres.
"Inteligenţa artificială (AI) a avansat în ultimii ani, permiţând crearea de videoclipuri şi imagini extrem de realiste. În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă faptul că acestea sunt utilizate ca un instrument de inducere în eroare a oamenilor, cu scopul de a obţine câştiguri financiare nelegale", informează un comunicat al Inspectoratului General al Poliţiei Române (IGPR).
Cele mai frecvente moduri de operare întâlnite în anul 2025 sunt:
- Trading scam şi investment fraud - videoclipuri deepfake cu oameni de afaceri de notorietate sau cu politicieni care "recomandă" platforme de investiţii crypto, forex sau "inteligenţă artificială miraculoasă" care promit multiplicarea banilor peste noapte. Victimele sunt direcţionate către site-uri false, unde depun bani spre a fi investiţi, dar care, în realitate, ajung la autori prin diferite scheme de transfer de monede.
- Scam-uri caritabile - deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrităţi care cer donaţii urgente. Oamenii donează prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori.
- Romance scam îmbunătăţit cu ajutorul AI - utilizarea de către infractori a unor profiluri false cu poze şi videoclipuri generate de AI cu persoane atractive, prin intermediul cărora dezvoltă relaţii emoţionale, apoi cer bani pentru "urgenţe medicale" sau "bilete de avion".
- CEO/CFO fraud (Business E-mail Compromise evoluat) - utilizarea de videocall-uri deepfake în care "şeful" cere transferuri urgente de bani.
- Impersonare celebrităţi pentru produse false - deepfake-uri cu diverse personalităţi care "oferă gratuit" produse.
"Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligenţă artificială, iar pierderile financiare globale se ridică la zeci de miliarde de dolari anual", arată sursa citată.
Un alt fenomen întâlnit în practică este crearea de imagini cu persoane complet fictive, generate de tool-uri - imagini care sunt perfecte şi descriu persoane frumoase, zâmbitoare, care par 100% reale, dar care nu există în realitate.
Aceste imagini sunt folosite masiv în moduri de operare precum "romance scams" şi "catfishing"; profiluri false de influenceri care promovează produse sau diverse tipuri de înşelătorii ori investiţii; crearea de "martori" în poveşti false de investiţii ("Uite câţi oameni s-au îmbogăţit!"); sau şantaj şi hărţuire (poze false cu persoane în situaţii compromiţătoare).
Utilizarea inteligenţei artificiale în scopuri ilegale poate duce la diverse consecinţe, atât din punct de vedere financiar, cât şi din punct de vedere al manipulării: pierderi financiare directe; traume emoţionale (oameni care donează ultimii bani pentru "copii bolnavi" inexistenţi sau se îndrăgostesc de persoane false); erodarea încrederii în media şi instituţii - "Dacă nimic nu mai e real, atunci nimic nu mai contează"; manipulare politică şi electorală (deepfake-uri cu candidaţi care spun lucruri pe care nu le-au spus niciodată); distrugerea reputaţiei personale (revenge porn deepfake, folosit în special împotriva femeilor); sau ameninţări la securitatea naţională (deepfake-uri cu lideri politici care declară război etc.).
"În acest sens, recomandăm prudenţă cetăţenilor şi oferim mai multe măsuri de contracarare şi protecţie privind recunoaşterea unui videoclip sau a unei fotografii făcute cu inteligenţa artificială", precizează IGPR.
Pentru videoclipuri deepfake, recomandările sunt: verificarea clipitului ochilor - în multe deepfake-uri vechi, clipitul era anormal, însă în anul 2025 acest aspect a fost îmbunătăţit considerabil, dar încă apar inconsistenţe; mişcările buzelor şi sincronizarea cu sunetul - adesea nu sunt perfecte, mai ales în limbi non-engleză; iluminarea şi umbrele - verificarea dacă lumina de pe faţă se potriveşte cu fundalul; reflexii în ochi şi dinţi - adesea lipsesc sau sunt nenaturale; mâinile şi degetele - încă o slăbiciune majoră a multor modele AI (aspect anormal al degetelor, prea multe sau prea puţine degete); fundal inconsistent sau obiecte "topite"; ochi asimetrici sau pupile anormale; păr anormal sau îmbrăcăminte care nu are sens fizic.
Ce măsuri de protecţie recomandă IGPR
IGPR recomandă mai multe măsuri de protecţie şi prevenire pentru cetăţeni - regula care se aplică pentru toate metodele de protecţie împotriva oricărei tentative de înşelăciune: dacă pare prea frumos ca să fie adevărat (îmbogăţire rapidă, cadouri de la celebrităţi, iubire perfectă în două săptămâni etc.), este fals!
"Nu da click pe link-uri din reclame sau mesaje nesolicitate. Nu transfera bani niciodată cuiva pe care l-ai cunoscut doar online. Verifică întotdeauna sursa oficială: dacă un om de afaceri, o persoană de notorietate sau orice altă personalitate promovează ceva, caută pe contul acesteia oficial de pe reţelele de socializare, verificat, şi vezi dacă a postat acolo.
Activaţi autentificarea în doi paşi (2FA) în aplicaţiile şi conturile importante, folosind o aplicaţie de tip "Authenticator" (nu doar SMS). Este necesară raportarea conţinutului suspect pe platformele pe care apare. Se pot folosi extensii de browser care detectează automat deepfake-urile. În cazurile în care aţi fost victima unei înşelăciuni în mediul online, sesizaţi cât mai rapid organele judiciare, întrucât o reacţie promptă poate sprijini în mod semnificativ desfăşurarea investigaţiilor", spune Poliţia.
Pe lângă scam-urile financiare şi caritabile deja cunoscute, infractorii şi grupările de dezinformare folosesc videoclipuri AI hiper-realiste pentru a induce în eroare populaţia în privinţa adevărurilor ştiinţifice fundamentale:
- Videoclipuri în care "astronauţi NASA" mărturisesc în lacrimi că "aselenizarea a fost filmată în studio" şi că "Pământul este plat".
- "Oameni de ştiinţă renumiţi" (de fapt deepfake-uri perfecte) declară că "vaccinurile conţin cipuri 5G" sau că "încălzirea globală este o minciună".
- "Medici celebri" recomandă tratamente minune împotriva cancerului cu bicarbonat şi lămâie.
- "Martori oculari" din Ucraina sau Orientul Mijlociu povestesc atrocităţi inventate, cu feţe şi voci perfect copiate.
"Acestea nu mai sunt doar postări izolate pe grupuri conspirative. În anul 2025, astfel de clipuri ajung în trend pe reţelele de socializare, sunt distribuite de conturi cu sute de mii de followeri şi sunt preluate chiar şi de televiziuni locale care nu verifică sursele", se mai arată în comunicat.