Un nou scandal lovește lumea organizațiilor umanitare: imagini false, create cu ajutorul inteligenței artificiale, care înfățișează copii înfometați, sate sărăcăcioase sau victime ale violenței sexuale, au început să fie folosite în campanii de conștientizare derulate de ONG-uri și agenții umanitare. Potrivit experților citați de The Guardian, fenomenul marchează o nouă eră a așa-numitului „poverty porn” (pornografia sărăciei), reprezentarea exagerată și stereotipică a sărăciei pentru a stârni emoție și a strânge donații, informează The Gurdian.
Imagini false, povești reale
Cercetătorul Arsenii Alenichev a identificat peste o sută de imagini generate de AI, folosite deja în campanii împotriva foametei sau abuzurilor. Scenele sunt aproape caricaturale: copii stând în noroi, o fată africană în rochie de mireasă cu o lacrimă pe obraz, pământ crăpat și boluri goale.
„Aceste imagini reproduc aceeași gramatică vizuală a sărăciei și alimentează prejudecăți rasiale și culturale”, a explicat el și numește fenomenul „poverty porn 2.0”.
Utilizarea acestor imagini este alimentată de costurile scăzute și de lipsa nevoii de consimțământ, spun specialiștii. „Pentru multe organizații, este mai ușor să folosească imagini false decât să obțină acordul unor persoane reale, aflate oricum în situații vulnerabile”, a spus Noah Arnold, reprezentant al organizației elvețiene Fairpicture, care promovează etica vizuală în comunicarea umanitară.
ONG-uri și instituții internaționale, implicate
Printre organizațiile care au apelat la astfel de imagini s-au numărat chiar și asociații importante. În 2023, filiala olandeză a organizației Plan International a lansat o campanie video împotriva căsătoriilor timpurii folosind imagini AI ale unei fete abuzate, iar ONU a publicat un videoclip care recrea mărturii ale violenței sexuale din Burundi material care a fost retras după ce The Guardian a cerut explicații.
Reprezentanții ONU au recunoscut că materialul „a reprezentat o utilizare improprie a inteligenței artificiale”, admițând că îmbinarea dintre imagini reale și conținut sintetic poate afecta integritatea informațională.
Etica în fața tehnologiei
Specialiștii atrag atenția că proliferarea acestor imagini poate accentua discriminarea și poate distorsiona realitatea, mai ales dacă ele ajung să fie reutilizate pentru antrenarea altor modele AI.
„E trist că lupta pentru o reprezentare etică a oamenilor care trăiesc în sărăcie ajunge să includă acum și imagini care nici măcar nu sunt reale”, a declarat consultanta în comunicare Kate Kardol.
Plan International a anunțat că, începând din acest an, a adoptat reguli stricte care interzic folosirea AI pentru a ilustra copii reali, în încercarea de a proteja demnitatea și intimitatea acestora.