- Imagini AI cu sărăcie și violență circulă masiv pe Freepik și Adobe Stock, fiind cumpărate de ONG-uri
- Motivele: cost redus, rapiditate, și evitarea problemelor de consimțământ
- Rezultatul: stereotipuri rasializate și o „estetică a mizeriei” fără oameni reali
- Cazuri notabile: Plan International (Olanda) și un clip ONU retras pentru „utilizare improprie a AI”
- Experții cer transparență, reguli etice și etichetarea clară a conținutului generat de AI
Într-un colț ironic al internetului, AI-ul a început să producă sărăcie — una impecabil luminată, fără miros, fără lacrimi reale.
Advertisment
Potrivit unei investigații The Guardian (20 octombrie 2025), imagini generate de inteligență artificială care arată copii flămânzi, sate distruse sau victime ale violenței sexuale sunt folosite în campanii ale unor ONG-uri și vândute pe platforme precum Freepik și Adobe Stock.
„E peste tot”, spune Noah Arnold, de la organizația elvețiană Fairpicture, care promovează etica în comunicarea vizuală. „Unii le folosesc activ, alții doar experimentează, dar trendul e clar.”
Și dacă în trecut vorbeam despre „poverty porn” — fotografii șocante menite să provoace donații — acum intrăm în era „poverty porn 2.0”: aceleași clișee, dar fabricate digital.
Cum arată sărăcia „perfectă” în viziunea AI
Cercetătorul Arsenii Alenichev de la Institute of Tropical Medicine din Anvers a analizat peste 100 de astfel de imagini. Le-a găsit pe platforme populare de stock sub titluri precum „Photorealistic kid in refugee camp” sau „Asian children swimming in polluted river”.
Prețul? Aproximativ 60 de lire sterline pentru o licență pe Adobe Stock.
Rezultatul? O sărăcie fotogenică: piele crăpată, haine rupte, priviri spre cer — totul în stil HDR.
„Sunt atât de rasializate încât nici n-ar trebui permise online”, avertizează Alenichev. „Reiau exact cele mai vechi stereotipuri despre Africa sau Asia. Doar că acum le face o mașină.”
De ce o fac ONG-urile?
Simplu: e mai ieftin.
Și, spun unii, „mai sigur”. Nu e nevoie de deplasări, fotografi, acorduri de imagine sau probleme de consimțământ.
„Cu bugete reduse și presiuni de campanie, e tentant să alegi o imagine care nu implică o persoană reală”, explică Arnold. „Dar asta vine cu un preț moral.”
Și nu e o figură de stil. În 2023, filiala olandeză a Plan International a lansat o campanie împotriva căsătoriilor timpurii folosind imagini AI cu o fată rănită și un bărbat adult. ONG-ul spune că a vrut „să protejeze intimitatea fetelor reale”, dar ulterior a introdus o politică internă împotriva reprezentării copiilor prin AI.
Platformele dau din umeri: „E cerere mare, ce să facem?”
Pe Freepik, căutarea „poverty” returnează zeci de rezultate generate de AI. CEO-ul Joaquín Cuenca Abela spune că vina nu e a platformei:
„E ca și cum ai încerca să usuci oceanul. Dacă oamenii cer imaginile așa, nimeni nu poate opri valul.”
Compania spune că încearcă să „injecteze diversitate” și să evite stereotipurile în alte categorii, cum ar fi „avocați” sau „directori de corporații”. Dar pentru imaginile de sărăcie, recunoaște: „cererea globală e uriașă”.
Adobe a refuzat să comenteze — dar continuă să vândă fotografii AI de acest tip pe propria platformă.
Când și ONU greșește
Nici instituțiile internaționale nu sunt imune.
Anul trecut, Națiunile Unite au publicat un clip pe YouTube cu reconstituiri generate de AI ale violenței sexuale din Burundi, inclusiv „mărturia” unei femei create digital.
După ce The Guardian a cerut explicații, videoclipul a fost retras.
Un purtător de cuvânt ONU a admis:
„Am folosit un instrument aflat într-o evoluție rapidă. Ne-am dat seama că riscă să confunde realitatea cu ficțiunea.”
Pericolul invizibil: bias care se învață singur
Problema nu e doar de gust sau etică.
Aceste imagini devin parte din seturile de date care antrenează următoarele modele AI.
Cu fiecare imagine generată, prejudecățile se multiplică. Copiii negri în noroi, femei plângând în sate de lut — tipare care se repetă până când „frica și mila” devin estetice standard.
„E o spirală a erorii: imagini false care vor genera alte imagini false, tot mai departe de adevăr”, spune Alenichev.
Ce se poate face?
Unii experți cer reguli clare: etichetarea conținutului AI, acorduri de transparență pentru ONG-uri și interzicerea reprezentării copiilor prin imagini sintetice.
Plan International a adoptat deja un astfel de ghid.
Alții cer disclosure public: dacă o imagine e generată, publicul are dreptul să știe.
„Publicul nu e împotriva AI. Dar e împotriva manipulării”, spune consultanta în comunicare Kate Kardol. „Când suferința e inventată, empatia devine un act de marketing.”
Citește și
- OMS recomandă contactul piele pe piele imediat pentru bebelușii prematuri. Ce spun studiile
- Apple rupe tradiția. Primul MacBook Pro cu ecran tactil OLED vine în 2026–2027
- STUDIU. Problemele cognitive s-au dublat la americanii sub 40 de ani. Rata dizabilității la tineri a crescut de la 5,1% la 9,7%
Partenerii noștri