• Cele mai multe videoclipuri deepfake au fost depistate de DNSC pe YOUTUBE și META.
  • DNSC a lansat un ghid simplu ca să te ajute să nu cazi în capcană.
  • Alexandru spune „Mișcările ciudate ale buzelor sunt un indicator de recunoaștere”.

De la încheierea alegerilor prezidențiale, mediul online a fost inundat de videoclipuri false în care apar diverse persoane publice și politicieni. Ei îți face recomandări sau vor să îți vândă ceva, dar în realitate, totul e fals. Aceste deepfake-uri sunt îmbunătățite zilnic și în final pot păcăli chiar și cel mai atent ochi.

Oricine poate deveni ținta unui deepfake: o instituție publică, firma ta sau cineva din familie. E de-ajuns o poză de profil. Și totuși cine riscă mai mult? Cei care cad pradă deepfake-urilor sau cei care sunt subiectul lor?

Care sunt sunt cele mai mari riscuri asociate?

Alexandru Goga, expert A.I.: Datorită avansului pe care îl are inteligența artificială, toată lumea are din ce în ce mai mult la îndemână posibilitatea de a crea astfel de deepfake-uri. Deci, problema cea mai mare este că nu doar personaje importante, a căror imagine publică poate fi ușor preluată din rețelele sociale sau de pe alte postări, pot fi falsificate, ci chiar și persoane apropiate. O rudă, o cunoștință — putem fi păcăliți în sensul de a oferi date de conectare personală, date bancare sau alte informații care pot fi apoi folosite împotriva noastră.

Recomandări

VIAȚĂ VEȘNICĂ ÎN CLOUD
YOUTUBE ELIMINĂ DEEPFAKE LA CERERE
ȘTIINȚA PRINDE ARIPI

Este suficientă o singură poză de pe un profil social pentru ca inteligența artificială sau alte unelte video performante să creeze un deepfake. După cum menționează și DNSC, pentru a putea identifica deepfake-urile și pentru a ne proteja de acestea, ar trebui, în primul rând, să verificăm sursa și credibilitatea mesajului — să facem o simplă căutare pe internet pentru a verifica dacă informația este reală, să încercăm să contactăm acea persoană printr-o cale obișnuită pentru a vedea dacă este într-adevăr emitentul mesajului.

În plus, putem identifica anumite semnale, deoarece tehnologia nu a ajuns încă la gradul de perfecțiune dorit de cei care creează aceste falsuri: umbrele din imagine, mișcarea ochilor, felul în care cade lumina pe pupile sau alte părți ale feței, ori mișcările mâinilor — uneori necorelate în zona gâtului — pot trăda un deepfake. Chiar și imaginea mea, acum, ar putea fi un deepfake, dar faptul că există un fundal estompat duce la ideea că nu s-a depus un efort foarte mare în realizarea lui.

Dacă fundalul este foarte bine realizat, atunci înseamnă că inteligența artificială a încercat să îl estompeze corect, dar și acolo pot apărea semnale: mișcarea nenaturală a capului sau pixelii care se mișcă în jurul marginii capului pot indica un deepfake”.

Își pierd companiile și instituțiile credibilitatea odată ce ajung țintele unui deepfake?

Alexandru Goga, expert A.I.: Da, dar doar temporar. Au existat cazuri în care directori ai unor multinaționale au părut că transmit mesaje video, iar compania a pierdut valoare pe bursă. Dar a fost o chestiune de moment.

Nu există resurse suficiente, bine plasate, pentru a identifica rapid un deepfake. Cred că singura soluție eficientă ar fi ca orice rețea care transmite mesaje video să verifice acele mesaje înainte de distribuire. De exemplu, rețeaua cea mai cunoscută de mesagerie instantanee, WhatsApp, limitează transmiterea rapidă a mesajelor video către un număr mare de destinatari. Cred că o tactică viabilă în viitor ar fi asocierea fiecărui mesaj video cu o mică insignă, un logo care să-i certifice credibilitatea.

Și da, în final, autoritățile publice vor fi cele mai vulnerabile. O instituție prezidențială, un guvern, un reprezentant al statului va fi întotdeauna o țintă valoroasă pentru atacurile bazate pe deepfake-uri alimentate de avansul inteligenței artificiale”.