- NewsGuard: Sora 2 a generat dezinformare video în 80% din cazurile testate
- Watermark-ul poate fi înlăturat cu ușurință, eliminând trasabilitatea
- OpenAI a blocat temporar generarea de figuri istorice, după scandalul MLK
- Familiile vedetelor și SAG-AFTRA cer reguli clare privind consimțământul
- Sam Altman apără abordarea „build in public”, în timp ce riscurile cresc exponențial
OpenAI s-a trezit din nou în centrul atenției — și nu pentru o nouă revoluție creativă. Un studiu NewsGuard publicat pe 22 octombrie 2025 arată că Sora 2, modelul video al companiei, poate genera clipuri deepfake convingătoare care răspândesc falsuri… la cerere.
Advertisment
Cercetătorii au încercat 20 de scenarii inspirate din campanii de dezinformare. În 16 cazuri din 20, Sora 2 a produs materiale video care păreau reale. Narațiunile testate variau de la un funcționar electoral moldovean care arde buletine de vot până la un purtător de cuvânt Coca-Cola care anunță, fals, că firma se retrage de la Super Bowl.
Toate erau invenții. Toate arătau reale. Iar tot procesul — de la prompt la video — a durat câteva minute.
Cum s-a ajuns aici
Potrivit NewsGuard, oricine poate obține rezultate similare fără cunoștințe tehnice. Clipurile create de Sora 2 au fost atât de realiste încât, în unele cazuri, au depășit în credibilitate postările false originale care le-au inspirat.
Problema se complică și mai mult: watermark-ul vizibil introdus de OpenAI pentru a semnala că un clip este generat de AI poate fi eliminat ușor, spun cercetătorii. Cu alte cuvinte, un fals devine perfect anonim.
OpenAI a reacționat afirmând că Sora 2 a fost „construit cu siguranța la bază” și că are „semnale de proveniență” încorporate. Compania recunoaște totuși că riscurile legate de dezinformare și folosirea neconsensuală a identităților reale sunt „mai complexe decât anticipau”.
Cazul Martin Luther King Jr.: când AI-ul depășește linia roșie
Criza deepfake-urilor a escaladat rapid odată cu apariția clipurilor AI cu Martin Luther King Jr., create de utilizatori și distribuite pe rețele sociale. În ele, liderul pentru drepturi civile era prezentat furând, fugind de poliție sau rostind replici ofensatoare.
Bernice King, fiica sa, a reacționat public, numind conținutul „umilitor și lipsit de respect”. În urma reacției, OpenAI și King Estate au convenit să blocheze temporar generarea de clipuri care implică imaginea lui MLK, până când compania va introduce filtre mai stricte pentru figuri istorice.
Dar valul nu s-a oprit acolo. Zelda Williams (fiica lui Robin Williams) și Kelly Carlin-McCall (fiica lui George Carlin) au cerut oprirea generărilor AI care folosesc chipul sau vocea părinților lor.
„Vă rog, nu-mi mai trimiteți videoclipuri AI cu tatăl meu”, a scris Zelda pe Instagram. „Nu e ceea ce și-ar fi dorit.”
OpenAI promite „consimțământ și control”, dar rămâne în defensivă
După presiunile publice, OpenAI a început colaborări cu SAG-AFTRA, sindicatul actorilor americani, pentru un sistem opt-in: persoanele publice pot decide dacă imaginea sau vocea lor poate fi folosită.
Însă golul legislativ rămâne uriaș. Legile privind defăimarea nu protejează persoanele decedate, iar moștenitorii nu pot face decât să ceară eliminarea clipurilor. În paralel, companii ca Disney au transmis scrisori oficiale către OpenAI, cerând eliminarea personajelor și mărcilor lor din baza de date a Sora.
„Nu avem obligația să ne ‘optăm’ pentru a ne păstra drepturile de autor”, au scris reprezentanții Disney, conform The Washington Post.
Sam Altman: „Construim în public. Vom greși, dar vom învăța rapid.”
Într-o postare pe blog, Sam Altman, CEO-ul OpenAI, a apărat strategia „build in public”. El a comparat lansarea Sora cu începuturile ChatGPT: „Vom lua decizii bune și unele greșite. Important e să le corectăm rapid.”
Problema, spun criticii, e că „rapid” nu e suficient când e vorba de oameni reali și reputații distruse. Pentru familiile celor afectați, greșelile AI nu sunt doar erori de produs, ci traume publice difuzate în buclă.
De ce contează tot acest scandal
Cazul Sora 2 nu este doar despre deepfake-uri spectaculoase. Este despre puterea de a modela realitatea vizuală în timp real. Dacă un instrument public poate genera falsuri care par autentice în câteva minute, barierele dintre real și fabricat devin simbolice.
OpenAI spune că va introduce controale suplimentare și un sistem automat de verificare a provenienței video, dar până atunci, internetul se umple de teste, clipuri și… posibilități periculoase.
Adevărul este că Sora 2 nu doar creează imagini — creează încredere falsă. Și asta, într-o eră dominată de imagini, e poate cea mai serioasă problemă.
Citește și
- X scoate la vânzare identități digitale. Unele nume de utilizator se vor vinde cu milioane
- Apple cedează, poți în sfârșit să „îmblânzești” efectul Liquid Glass din iOS și macOS
- Google Wallet devine mai inteligent. Live Updates aduce informaţii în timp real pentru zboruri, trenuri şi evenimente
Partenerii noștri