• Tot mai multe documentare folosesc materiale generate cu inteligență artificială – voci, imagini „de arhivă”, artefacte istorice inventate – fără să anunțe clar publicul
  • Organizații precum Archival Producers Alliance și Trust in Archives Initiative cer reguli noi: orice utilizare de AI într-un film factual să fie vizibil marcată, ideal chiar pe ecran
  • Generatoare video precum Sora și Sora 2 fac posibil pentru oricine să creeze „imagini de arhivă” credibile în câteva minute, ceea ce transformă orice clip într-un posibil deepfake
  • Fenomenul numit „liar’s dividend” îi ajută pe cei prinși în imagini reale să scape spunând „e AI, nu e autentic”, subminând puterea video-ului ca probă și a documentarului ca instrument de adevăr
  • De la standarde tehnice pentru verificarea sursei la ONG-uri care ajută activiștii să filmeze „pe bune”, există deja contra-măsuri – dar ritmul pieței de platforme de streaming și al tehnologiilor AI face lupta extrem de dificilă

Documentarul a trăit mereu dintr-un contract tacit cu publicul: știm că e montat, că are un unghi, dar plecăm de la ideea că lucrurile esențiale – imaginile, vocile, documentele – sunt autentice.

În ultimii ani, acel contract a început să se rupă în liniște.

Scandalul „Roadrunner”, filmul din 2021 despre Anthony Bourdain, a fost primul mare semnal: câteva fraze din „vocea” lui Bourdain au fost generate cu inteligență artificială, antrenată pe înregistrări reale ale chef-ului, fără ca acest lucru să fie menționat spectatorilor. Mulți au trăit sentimentul unei trădări: dacă nici vocea nu mai e sigură, ce mai e?

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

În 2023, producători de arhivă au fondat Archival Producers Alliance și au publicat o scrisoare deschisă către industrie. Lista lor era șocantă:

  • „voci istorice” create cu AI și prezentate ca înregistrări de epocă,
  • imagini „istorice” inventate,
  • articole de ziar fabricate,
  • „artefacte” care nu au existat niciodată.

Pe scurt: e foarte posibil să fi văzut în ultimii ani un documentar și să fi crezut că urmărești istorie brută, când de fapt o parte era synthetic media.

Vocea lui Bourdain, Sora 2 și noul limbaj al imaginilor „de arhivă”

Până nu demult, a produce un fals video credibil era un sport de echipă scump: platouri, efecte speciale, artiști VFX, timp.

Azi, cu generatoare video de tip Sora și Sora 2, lucrurile arată altfel. Scrii:

„filmare documentară, stil 16mm, cu mineri în timpul goanei după aur în California”

și primești un clip care arată exact ca o bucată de arhivă video din anii ’30: granulație, culori spălate, mișcare de cameră „de mână”, tot pachetul.

Aceeași tehnologie poate produce în câteva minute:

  • „filmări” din tranșee,
  • proteste „istorice”,
  • imagini de familie pseudo-retro,
  • „documente” care ar putea trece drept dovezi vizuale în orice montaj.

Iar platformele de streaming presează în direcția greșită:

  • cer documentare rapide, „din actualitate”,
  • bugetele sunt tăiate,
  • timpii de producție scurtați la maximum.

Tentant? Evident. Când n-ai acces la arhive reale, AI-ul pare soluția magică. Iar uneori nu e doar o opțiune, ci o indicație mai mult sau mai puțin explicită: „rezolvați cu AI, important e să arate bine”.

Problema nu este că se folosește inteligență artificială în sine – tehnologia poate fi utilă, de exemplu, pentru a curăța un sunet distrus sau a repara un cadru vechi. Problema apare când AI-ul e folosit pentru a inventa realitate, fără să fie spus clar:

  • nu ajuta, ci mistifică;
  • nu ilustrează, ci înlocuiește istoria.

„Liar’s dividend”: cum era deepfake îi ajută pe mincinoși

Există un efect secundar și mai pervers decât falsurile în sine: ceea ce doi juriști americani au numit „liar’s dividend” – dividendul mincinosului.

Pe măsură ce publicul află că deepfake-urile pot fi incredibil de convingătoare, devine mai ușor pentru cineva surprins într-un clip real să spună:

„Nu sunt eu. E AI. E fals.”

Și, brusc, explicația sună plauzibil.

Un exemplu recent: un clip cu un sac de gunoi aruncat aparent pe fereastră la Casa Albă a ajuns viral, iar un politician a grăbit să-l declare „AI”, indiferent ce spuneau comunicatele oficiale. Logica lui era cinică, dar lucidă:

„Dacă se întâmplă ceva rău, dai vina pe AI. Sau creezi ceva cu AI. Merge în ambele sensuri.”

În lumea asta:

  • confesiunea surprinsă „la microfon deschis”, ca în „The Jinx”,
  • imaginile de body-cam folosite în documentare precum „The Perfect Neighbor”,
  • cadrele de pe camerele de cască din filme de front precum „2000 Meters to Andriivka”

devin mult mai ușor de contestat. E suficient ca cineva să spună „pare prea cinematic, sigur e AI”, iar o parte din public va avea, măcar, un moment de îndoială.

Asta lovește în esența documentarului: genul care se baza exact pe forța imaginii ca probă. Într-o lume saturată de inteligență artificială, nici măcar realitatea filmată nu mai are garanția credibilității.

Cine încearcă să salveze arhivele (și cât de greu e, de fapt)

Nu toată lumea stă și privește cum se prăbușește încrederea în arhivă video. Există câteva inițiative importante, chiar dacă se luptă cu un val imens.

Archival Producers Alliance & Trust in Archives

Archival Producers Alliance, formată din producători de arhivă cu experiență, cere câteva reguli simple, dar radicale pentru industrie:

  • orice imagine, voce sau sunet generat cu inteligență artificială să fie dezvăluit clar;
  • când AI-ul „repară” sau „recompilează” materiale istorice, publicul trebuie să știe;
  • dacă se creează scene „imaginate”, filmul ar trebui să le marcheze vizual și textual, nu să le amestece discret printre arhive reale.

Din acest nucleu a apărut și Trust in Archives Initiative, care lucrează cu arhive, regizori și instituții pentru a găsi moduri de protejare și autentificare a materialelor originale, ca acestea să nu fie înghițite de oceanul de conținut sintetic.

Standardele de proveniență: C2PA și „content credentials”

Pe frontul tehnic, coaliția C2PA (Coalition for Content Provenance and Authenticity) construiește un standard deschis prin care fișierele media pot purta un fel de „pașaport digital”.

În teorie, asta înseamnă că:

  • poți vedea cu ce cameră a fost filmat un clip;
  • poți verifica cine l-a editat și cum;
  • poți afla dacă a fost generat în totalitate de un model AI.

Adobe, Microsoft, Google, OpenAI, marile agenții de presă – toți s-au arătat interesați. Unele camere foto, unele programe de editare încep să insereze aceste content credentials direct în fișiere.

Problema?

  • implementarea nu e uniformă,
  • multe platforme de streaming și rețele sociale nu afișează încă aceste informații,
  • hackeri și actori rău-intenționați găsesc deja metode de a șterge sau altera metadatele.

ONG-urile de teren: Witness & co.

La nivel de drepturi ale omului, organizații precum Witness lucrează direct cu activiști și martori ai abuzurilor:

  • îi ajută să filmeze în moduri care lasă „urme” tehnice greu de falsificat,
  • oferă ghiduri pentru stocarea și partajarea în siguranță a materialelor,
  • colaborează cu jurnaliști și instanțe pentru a valida autenticitatea filmărilor.

În multe documentare despre războaie, violență polițienească sau represiune, tocmai aceste filmări de pe teren – și infrastructura din jurul lor – fac diferența între „propagandă” și documentar solid.

Ce poți face tu, ca spectator, ca să nu te pierzi în ceață

Nu putem controla algoritmii marilor modele de inteligență artificială sau deciziile fiecărui regizor, dar avem mai multă putere decât pare.

1. Fii atent la dezvăluiri (sau la lipsa lor)

Un film serios ar trebui să indice clar dacă a:

  • generat voci,
  • creat imagini istorice cu AI,
  • reconstruit scene fără material original.

Dacă totul e ambalat ca „adevăr pur” dar arată suspicios de impecabil, merită un mic semn de întrebare.

2. Răsplătește documentarele care joacă cinstit

Banii și atenția ta contează:

  • mergi la cinema pentru un documentar bun, nu doar pentru blockbustere,
  • închiriază filme care pun accent pe rigoare și transparență,
  • urmărește recomandările festivalurilor și criticilor care iau în serios etica imaginilor.

Piața actuală, dominată de „crime, secte și scandaluri la kilogram”, există tocmai pentru că e urmărită masiv.

3. Nu lua pe nemestecate nici imaginile, nici dezmințirile

Dacă vezi un clip șocant:

  • încearcă să-i găsești sursa, filmul din care provine, contextul;
  • verifică dacă există articole, interviuri sau discuții despre cum a fost realizat.

Dacă cineva important spune „e fals, e AI”, nu-l crede pe cuvânt doar pentru că știi că deepfake-urile există. Cere dovezi, nu sloganuri.

4. Acceptă că documentarul se schimbă – și cere să se schimbe în față, nu pe ascuns

E probabil ca tot mai mulți cineaști să apară în propriile filme, să explice metodele, să arate „cum am lucrat”, să discute deschis folosirea inteligenței artificiale.

Un regizor poate minți, dar un astfel de gest de deschidere e un început de nou contract: nu mai pretindem obiectivitate absolută, dar ne asumăm să fim corecți și expliciți.

Citește și