Ce este deepfake?

L-ai văzut pe Vladimir Putin anunțând pacea pe Twitter sau pe Mark Zuckerberg afirmând că deține „controlul total asupra miliardelor de date furate”? Sau poate ai asistat la scuzele americanului Jon Snow, care apare la finalul serialului Game of Thrones? Dacă ai răspuns măcar o singură dată cu „da”, atunci ai fost martor al unui produs deepfake. 

Bună, sunt Ana Sârbu, și astăzi, la Podcast cuMINTE, vorbim despre tehnologia secolului 21 care a răsturnat percepția întregii lumii despre modul în care poate fi manipulat un conținut media și anume fenomenul deepfake.

Pentru a crea un deepfake este utilizată tehnologia „deep learning” – o formă a Inteligenței Artificiale (AI), ai cărei algoritmi sunt folosiți pentru a schimba fețele oamenilor din conținuturile digitale și a crea, astfel, un fals cu aspect realist. Dacă o persoană vrea să pună anumite cuvinte în gura unui politician sau chiar să joace în rolul principal al serialului „Stăpânul Inelelor”, acest lucru a devenit posibil anume prin crearea unui deepfake.

Experții în domeniu consideră că deepfake-ul este mult mai periculos și cu un impact mult mai puternic decât știrile false cu care ne-am obișnuit în ultimii ani. Asta pentru că fenomenul cuprinde toate elementele unui produs media integrat: text + fotografie + video + audio. Combinația dintre inteligența artificială (deep learning) și fals (fake) are la bază un concept numit Generative Adversarial Network (rețea generativă adversarială), ce poate fi folosit pentru a reproduce imagini video și sunet superficial, care par a fi reale pentru ochiul uman.

Deepfake-urile s-au născut în 2017, când un utilizator al platformei Reddit a postat clipuri pentru adulți falsificate. În acele secvențe, fețele unor celebrități precum Gal Gadot, Taylor Swift, Scarlett Johansson și alții au fost înlocuite cu cele ale unor actori din filme pentru adulți.

În prezent, cercetătoarea în digital media Viorica Budu susține că videoclipurile false generate de Inteligența Artificială devin din ce în ce mai frecvente și mai convingătoare. „Atât în mass-media, cât și la nivel academic internațional, a apărut îngrijorarea că o dată cu era deepfake-ului ne îndreptăm către o infoapocalipsă, în care nu putem distinge ceea ce este real de ceea ce nu este. Într-un studiu cu numele «Deepfake și dezinformare, explorarea impactului video-ului politic sintetic asupra înșelăciunii, încrederii în știri», Cristian Vacari și Andrew Chadwick, în 2020, analizaseră evaluările oamenilor despre deepfake pe un eșantion reprezentativ al Regatului Unit. Aceștia constată că oamenii sunt mai predispuși să se simtă nesiguri, decât să fie induși în eroare de către deepfake. Aceștia mai concluzionează că deepfake-urile pot contribui la determinarea cinismului generalizat, intensificând și mai mult provocările recente la adresa cultivării civice online în societățile democratice”. 

Programele de AI, în momentul creării unui videoclip de tip deepfake, sunt setate să studieze clipurile video pentru a înțelege cum arată persoana dintr-o varietate de unghiuri și condiții de mediu, apoi să cartografieze persoana respectivă, adică să o copieze/replice pe corpul din videoclipul țintă, găsind caracteristici comune. 

„Inteligența artificială sau AI permite acum crearea în masă a ceea ce a devenit cunoscut sub denumirea de deepfake – videoclipuri sintetice care seamănă foarte mult cu cele reale. Acestea tind să înfățișeze oameni spunând și făcând lucruri pe care de fapt nu le-au spus sau nu le-au făcut vreodată. Probabil, cele mai recent exemplu relevant ar fi deepfake-urile președinților Zelenski și Putin, circulate pe Internet nu târziu după începutul războiului din Ucraina. În unul dintre videoclipurile deepfake, distribuit pe Twitter, care pare să-l arate pe președintele rus Vladimir Putin declarând pacea, a reapărut pe Internet. Nu mult după, Vladimir Zelenski apare în spatele unui podium spunându-le ucrainenilor să pună armele jos. Evident – într-un video deepfake. Capul lui pare prea mare și pixelat, iar vocea lui sună mai profund decât este în realitate. Pasul neconvingător în care era înfățișat Zelenski a fost ridiculizat de mulți, iar video-ul cu Putin a fost considerat satiră”.  

Dar este oare vorba doar despre videoclipuri? 

Nu. Tehnologia deepfake poate să genereze fotografii convingătoare, dar complet fictive. „O jurnalistă inexistentă Bloomberg, Maisy Kinsley, care avea un profil pe LinkedIn și Twitter, a fost probabil un deepfake. Un alt fals LinkedIn, Katie Jones, a susținut că lucrează la Centrul de Studii Strategice și Internaționale, dar se crede că este un fals deepfake creat pentru o operațiune de spionaj străină. Audio poate fi, de asemenea, falsificat pentru a crea fake-uri de voce sau clone de voce ale unor persoane publice”.

Un alt exemplu e din martie anul trecut, când șeful unei filiale din Marea Britanie a unei firme germane de energie a transferat aproape 200.000 de lire sterline într-un cont bancar din Ungaria, după ce a fost sunat de un fraudator care a imitat vocea directorului german. Asiguratorii companiei cred că vocea a fost un deepfake, deși dovezile sigure nu există până în prezent. 

„În contextul moldovenesc, echipa ProFact Moldova a depistat câteva tentative ale instituției media Sputnik Moldova de atribuire a unor identități false unor poze manipulate prin combinarea de multiple fotografii, prezentându-le drept editorialiști”, reamintește Viorica Budu.

În prezent, aplicații software precum FakeApp sau FaceSwap, Snapchat sau Facebook Messenger, utilizează această tehnologie în care fața reală a persoanei este suprapusă cu fața unei alte persoane sau animații. Chiar dacă majoritatea video-urilor false pot fi relativ ușor depistate, potrivit experților, această tehnologie avansează zilnic. Foarte curând ne va fi complicat să discernem dacă un anumit video este sau nu în realitate fals. 

Pe de altă parte, chiar dacă deepfake-urile pot părea inofensive, în realitate acestea pot avea efecte negative de lungă durată. Ele pot să distorsioneze discursul democratic, pot să manipuleze alegerile, să erodeze încrederea în instituții, pot pune în pericol siguranța publică și securitatea națională, aduc daune reputației persoanelor etc. 

Potrivit juristului Ilie Chirtoacă de la Centrul de Resurse Juridice din Moldova (CRJM), riscul principal al tehnologiilor deepfake este că, la un moment dat, prin conținutul audio sau video fals poate fi reflectat un fapt sau un eveniment în care o persoană spune și face orice. „Implicațiile drepturilor omului în acest caz sunt majore, în special asupra drepturilor civile și politice. Să ne imaginăm că, în timpul desfășurării unui scrutin electoral, din declarațiile unui politician care are șanse de a învinge conform ultimelor sondaje este creat conținut fals prin care această persoană instigă la ură, manipulează. Astfel, în final, pot fi manipulate rezultatele alegerilor. Fiindcă din cauza acestor declarații, ratingul acestei persoane va scădea. Faptul că ulterior va fi depistat că întreg video-ul este un fals – acest lucru este de natură secundară”, ne explică juristul. 

Ilie Chirtoacă spune că o altă posibilitate prin care poate fi afectată democrația ține de instigarea la ură: „Și tehnologiile deepfake pot fi utilizate pentru a exacerba realitățile, pentru a crește vrajba interetnică prin anumite declarații ale unor formatori de opinie, care nu s-au întâmplat în realitate. Aceste tehnologii pot afecta demnitatea umană, dreptul persoanei la reputație, deoarece prin conținut deepfake poate fi replicat un video sau audio prin care o persoană este pusă într-un film de adulți, cum s-a întâmplat deja, dar faptul că este fals este de a doua natură. Dar implicațiile pe care acest video le poate avea asupra rudelor persoanei, asupra părinților sunt majore”.

Juristul susține că este vorba de un furt de identitate, „care implică sancțiuni penale și care la momentul dat, în formula în care tehnologia deepfake nu a ajuns să fie reglementată nici în Republica Moldova, nici în regiune… Trebuie să fim atenți la capitolul reglementare, pentru că o reglementare simplistă poate în sine limita libertatea de exprimare și poate avea efecte negative. Putem vedea acest lucru în Rusia, unde pentru orice conținut considerat fals de către autorități o persoană poate primi sancțiune și până la 15 ani de închisoare”.

Cum sunt create deepfake-urile? Cercetătorii, dar mai ales studiourile care creează efecte speciale, au depășit demult limitele a ceea ce este posibil cu manipularea video și a imaginilor. 

Viorica Budu: „Este foarte greu să facem un deepfake bun pe un computer standard. De cele mai multe ori, acestea sunt create pe desktopuri de ultimă generație, cu plăci grafice puternice sau mai bine cu putere de calcul în Cloud. Acest lucru reduce timpul de procesare de la săptămâni, la zile, chiar la ore. Este nevoie și de expertiză, nu în ultimul rând pentru a retușa videoclipurile finale, pentru a reduce așa-numita pâlpâire și alte defecte vizuale. Acestea fiind spuse, o mulțime de instrumente sunt acum disponibile pentru a ajuta oamenii să facă deep fake-uri, mai multe companii le dezvoltă pentru consumatorul de rând cu sistem de operare în Cloud. Un exemplu aici ar fi aplicația gratuită pe telefonul mobil numită Zao, care le permite utilizatorilor să-și adauge fețele la o listă de personaje de televiziune și filme pe care sistemul s-a antrenat. Un alt exemplu este platforma care permite utilizatorilor să își producă propriile video după principiile deepfake. Această companie își numește produsul tehnologie deepfake responsabilă, menționând că fiecare defect generat pe instrumentul lor are un filigran clar vizibil, care indică faptul că videoclipul este un deepfake. De asemenea, sunt plasate urme clare de manipulare în datele video astfel încât să fie ușor de identificat ca fals. Ei zic că tehnologia deepfake că ar trebui să fie etichetată în mod clar”.

În timp ce videoclipurile deepfake de proastă calitate pot fi ușor depistate, identificarea unora poate fi o provocare totuși. S-ar descurca un om simplu oare? Să știți că există indicii ce vă pot ajuta să identificați falsurile profunde pe cont propriu și cu ajutorul AI. 

  1. Mișcarea nenaturală a ochilor. Mișcările ochilor care nu par naturale – sau lipsa mișcării ochilor, cum ar fi absența clipirii – sunt semnale că ar putea fi vorba de un deepfake. Este o provocare să reproduci actul de a clipi într-un mod care să pară natural. De asemenea, este dificil să reproduci mișcările oculare ale unei persoane reale și asta pentru că ochii cuiva urmăresc de obicei persoana cu care se discută. 
  2. Expresii faciale nenaturale. Când ceva arată dubios la o față ar putea semnala transformarea feței. Acest lucru se întâmplă atunci când o imagine a fost suprapusă peste alta.
  3. Poziționare incomodă a caracteristicilor faciale. Dacă fața cuiva este îndreptată într-o direcție, iar ochii – în alta, ar trebui să-ți pui întrebări. 
  4. Mișcări nenaturale ale corpului. Dacă cineva pare distorsionat atunci când se întoarce în lateral sau își mișcă capul sau dacă mișcările sale sunt sacadate și dezarticulate de la un cadru la altul, ar trebui să bănuiești că videoclipul este fals.
  5. Colorare nenaturală. Tonul anormal al pielii, decolorarea, iluminarea ciudată și umbrele deplasate sunt toate semne că ceea ce vezi este probabil fals.
  6. Păr care nu arată real. Nu vei vedea într-un deepfake păr creț sau vâlvoi. De ce? Imaginile false nu pot genera aceste caracteristici individuale.
  7. Dinți care nu arată tocmai real. Este posibil ca algoritmii să nu poată genera dinți individuali, așa că absența contururilor dinților individuali ar putea fi un indiciu.
  8. Încețoșare sau nealiniere. Dacă marginile imaginilor sunt neclare sau imaginile sunt nealiniate – de exemplu, acolo unde fața și gâtul se întâlnesc cu corpul – vei ști că ceva nu este în regulă.

Viorica Budu: „Firmele de tehnologie lucrează acum la sisteme de detectare care urmăresc să semnalizeze falsurile ori de câte ori acestea apar. Dar multe sisteme de detectare existente au o slăbiciune serioasă, funcționează cel mai bine pentru celebrități, deoarece se pot antrena ore întregi pe filmări disponibile gratuit. The Guardian listează câteva elemente care ar ajuta la depistarea acestor tipuri de deepfake și anume faptul că cercetătorii americani descoperiseră că fețele deepfake nu clipesc în mod normal. Dar îndată ce cercetarea a fost publicată, producătorii de deepfake-uri au remediat problema și au redus clipirea. Cam așa este natura jocului – de îndată ce o slăbiciune este dezvăluită, aceasta este remediată. La fel, deepfake-urile de proastă calitate sunt mai ușor de observat, sincronizarea buzelor poate fi proastă sau pielea poate fi neregulată, poate exista acea fâlfâire a fețelor transpuse, detalii fine cum ar fi părul, mai ales acolo unde și șuvițele sunt vizibile, bijuteriile și dinții prost redați pot fi de asemenea un element de detectare a deepfake-urilor. La fel cum și efectele ciudate de lumină, cum ar fi iluminarea inconsecventă și reflecțiile asupra irisului. Însă, cum în alte părți ale lumii, unde știința nu este atât de dezvoltată, jurnaliștii și grupurile pentru drepturile omului accesează aceste instrumente pentru a detecta sau a dezminți deepfake-uri”

Giganții rețelelor sociale, cum sunt Facebook și Instagram, au creat un departament special pentru detectarea și informarea internauților despre falsurile distribuite pe social media. Deepfake Detection Challenge a fost conceput de compania Meta, care deține cele două platforme, pentru a măsura progresul în tehnologia de detecție deepfake. În special, acest lucru a fost vizibil la începutul războiului din Ucraina, când postările vedetelor sau persoanelor publice de la Moscova conțineau informații false sau eronate despre ceea ce se întâmplă în țara vecină. Meta blura postarea și anunța internauții despre faptul că această informație este falsă și a fost verifică de echipa lor. Meta colaborează cu mai multe organizații care luptă cu falsurile. 

 

Chiar dacă fenomenul de deepfake pare să aibă doar efecte negative, cercetătoarea Viorica Budu afirmă că există și o parte bună. „Deepfake-urile sunt adeseori utilizate în industriile creative, multe sunt distractive, iar unele chiar sunt de ajutor. Spre exemplu, clonarea vocii deepfake poate restabili vocile oamenilor atunci când le pierd din cauza unor boli, videoclipurile deepfake pot anima galerii și muzee. Spre exemplu, în Florida, muzeul Dali are un deepfake al pictorului suprarealist, care își prezintă arta și își face selfie-uri cu vizitatorii”

Și ca să încheiem pe o notă pozitivă, nu am decât să-mi exprim optimismul că tu, drag ascultător al acestui podcast, nu ai cum să cazi în plasa deepfake-urilor și asta inclusiv pentru că ne asculți lună de lună. Filtrează cuMINTEa trează! Urmărește-ne pe Google Podcasts, Apple Podcasts și SoundCloud. Toate bune!

Podcastul cuMINTE este realizat de Centrul pentru Jurnalism Independent cu sprijinul organizației Black Sea Trust, un proiect al Fondului German Marshall al Statelor Unite. Opiniile exprimate în acest material nu le reprezintă neapărat pe cele ale Black Sea Trust sau ale partenerilor săi.