Antena 3 CNN Externe „Pornografia sărăciei”. Scandal după ce ONG-uri au folosit imagini generate de inteligența artificială în campaniile umanitare

„Pornografia sărăciei”. Scandal după ce ONG-uri au folosit imagini generate de inteligența artificială în campaniile umanitare

Sarah El-Ayoubi
1 minut de citit Publicat la 12:29 20 Oct 2025 Modificat la 12:29 20 Oct 2025
O imagine generată de inteligența artificială din campania din 2023 a organizației caritabile Plan International împotriva căsătoriilor între copii. Foto: Captură Plan International/YouTube

Un nou scandal lovește lumea organizațiilor umanitare: imagini false, create cu ajutorul inteligenței artificiale, care înfățișează copii înfometați, sate sărăcăcioase sau victime ale violenței sexuale, au început să fie folosite în campanii de conștientizare derulate de ONG-uri și agenții umanitare. Potrivit experților citați de The Guardian, fenomenul marchează o nouă eră a așa-numitului „poverty porn” (pornografia sărăciei), reprezentarea exagerată și stereotipică a sărăciei pentru a stârni emoție și a strânge donații, informează The Gurdian.

Imagini false, povești reale

Cercetătorul Arsenii Alenichev a identificat peste o sută de imagini generate de AI, folosite deja în campanii împotriva foametei sau abuzurilor. Scenele sunt aproape caricaturale: copii stând în noroi, o fată africană în rochie de mireasă cu o lacrimă pe obraz, pământ crăpat și boluri goale.

„Aceste imagini reproduc aceeași gramatică vizuală a sărăciei și alimentează prejudecăți rasiale și culturale”, a explicat el și numește fenomenul „poverty porn 2.0”.

Utilizarea acestor imagini este alimentată de costurile scăzute și de lipsa nevoii de consimțământ, spun specialiștii. „Pentru multe organizații, este mai ușor să folosească imagini false decât să obțină acordul unor persoane reale, aflate oricum în situații vulnerabile”, a spus Noah Arnold, reprezentant al organizației elvețiene Fairpicture, care promovează etica vizuală în comunicarea umanitară.

ONG-uri și instituții internaționale, implicate

Printre organizațiile care au apelat la astfel de imagini s-au numărat chiar și asociații  importante. În 2023, filiala olandeză a organizației Plan International a lansat o campanie video împotriva căsătoriilor timpurii folosind imagini AI ale unei fete abuzate, iar ONU a publicat un videoclip care recrea mărturii ale violenței sexuale din Burundi material care a fost retras după ce The Guardian a cerut explicații.

Reprezentanții ONU au recunoscut că materialul „a reprezentat o utilizare improprie a inteligenței artificiale”, admițând că îmbinarea dintre imagini reale și conținut sintetic poate afecta integritatea informațională.

Etica în fața tehnologiei

Specialiștii atrag atenția că proliferarea acestor imagini poate accentua discriminarea și poate distorsiona realitatea, mai ales dacă ele ajung să fie reutilizate pentru antrenarea altor modele AI.

„E trist că lupta pentru o reprezentare etică a oamenilor care trăiesc în sărăcie ajunge să includă acum și imagini care nici măcar nu sunt reale”, a declarat consultanta în comunicare Kate Kardol.

Plan International a anunțat că, începând din acest an, a adoptat reguli stricte care interzic folosirea AI pentru a ilustra copii reali, în încercarea de a proteja demnitatea și intimitatea acestora.

Citește mai multe din Externe
» Citește mai multe din Externe
TOP articole