Ce este deepfake, fenomenul pentru care poți face până la 5 ani de închisoare în România

Termenul a apărut inițial în 2017 pe Reddit, o platformă de conținut generat de utilizatori, și reprezenta numele unuia dintre membri care producea clipuri porno false cu vedete. O întreagă comunitate s-a format în jurul acestor materiale video, creând aplicații software care permiteau oricui să adauge automat fața unei persoane pe corpul alteia. Reddit a închis comunitatea într-un final, dar tehnologia deja se răspândise, algoritmii fiind folosiți pentru a falsifica clipuri cu politicieni și actori.

Aplicații pentru editarea manuală a imaginilor sau clipurilor video au existat de zeci de ani. Ce aduce nou deepfake și, în același timp, periculos, este ușurința cu care poți falsifica realitatea – procesul este mult mai ieftin și mai rapid. Anterior deepfake, aveai nevoie de un calculator performant și ceva studii universitare pentru a falsifica un clip video într-un mod realistic. Acum, cu o conexiune la internet și imaginile potrivite, aproape oricine o poate face.

Cum funcționează deepfake

Realizarea unui clip deepfake începe cu un set vast de fotografii cu persoana respectivă. Asta înseamnă că vedetele sunt mult mai ușor de falsificat decât o persoană obișnuită, datorită numărului mare de imagini disponibile online cu astfel de personalități. Imaginile sunt ulterior procesate de un software cunoscut sub numele de rețea neurală (neural network), care produce conexiuni statistice între imagini și aspectul respectivului personaj pe care vrei să-l falsifici.

Dacă vrei ca persoana din clip să spună lucruri pe care nu le-a spus niciodată, trebuie să programezi software-ul să învețe asocierile dintre anumite cuvinte și forma gurii personajului în momentul în care le pronunță. Pentru a lipi fața de corpul în mișcare al unui alt individ, trebuie, din nou, să programezi software-ul să învețe asocierile dintre față și corp.

Pentru a face clipul să pară cât mai real, trebuie să faci software-ul să concureze cu o copie a sa: o versiune generează imaginile, cealaltă încearcă să găsească părțile false. Această tehnică se numește Generative Adversarial Networks (GAN) sau Rețele Adversare Generative și este cea mai pură formă de deepfake, producând imagini unice, nu doar combinații de fotografii existente cu ajutorul algoritmilor de machine learning.

Programul care generează imaginile va continua să se îmbunătățească până când va găsi o cale să învingă rețeaua care detectează falsurile, producând imagini fidele statistic, adevărate halucinații digitale, chiar dacă unele încă par dubioase pentru ochiul uman. Procesul poate dura de la câteva ore, la câteva zile, în funcție de abilitățile celui care le execută și capabilitățile tehnice ale calculatorului folosit.

Un calculator poate genera imagini cu un câine spre exemplu, care pot fi corecte din punct de vedere statistic, dar în același timp să nu înțeleagă foarte bine nuanțele vizuale ale blănii animalului. De aceea, în prezent, imaginile GAN pot fi oarecum ciudate, dar acest lucru se va schimba în viitor, pe măsură ce tehnologia va evolua.

De ce este periculoasă această tehnologie

Consecințele răspândirii la scară largă a acestor falsuri ieftine pot fi grave. Impactul pe care îl pot avea asupra societății clipurile false cu politicieni, dar credibile pentru o mare parte din populație, este dificil de gestionat: de la pierderea încrederii în mass-media la posibile perturbări electorale.

Aceste tehnologii pot fi folosite și pentru a intimida și hărțui oameni, prin crearea unor clipuri false cu ei în situații jenante. Sau poate fi o unealtă perfectă pentru marketeri și agențiile de publicitate care pot crea deepfake, ajustând automat imaginile dintr-ul clip promoțional pentru un engagement maxim: fețele actorilor așezate peste corpuri ce reprezintă idealuri de frumusețe personalizate pentru fiecare consumator în parte.

Cum luptăm cu deepfake

Totuși, orice naș își are nașul! Oamenii de știință nu au stat degeaba și au reușit să creeze programe software care să contracareze fenomenul deepfake. Este și cazul aplicației dezvoltate de cei de la USC Information Sciences Institute din California care reușește să identifice materialele deepfake cu o acuratețe de 96%.

Un software standard folosit pentru detectare analizează clipul cadru-cu-cadru pentru a identifica orice semn de manipulare. Tehnica dezvoltată de cercetătorii de la USC necesită mai puțin timp și o putere de calcul mai redusă. Software-ul analizează întreg materialul dintr-odată, ceea ce-i permite să proceseze informația mult mai rapid. Așază cadrele unele peste celelalte și verifică eventualele neconcordanțe în mișcările personajului și ale clipului. Poate fi o abatere ușoară în mișcarea pleoapei sau un gest nenatural al buzelor, lucruri insesizabile cu ochiul liber, pe care cercetătorii le numesc amprente softbiometrice.

Majoritatea algoritmilor deepfake încă nu reușesc să reproducă fidel mișcările umane, din acest motiv aplicațiile de detecție, precum cea creată de USC, au succes în depistarea falsurilor.      

Ce riscă creatorii de deepfake

În ceea ce privește răspunderea penală pentru creatorii de materiale deepfake, în prezent, legea nu are o încadrare specifică pentru acest fenomen. În Marea Britanie, aceștia pot fi acuzați de hărțuire, în Statele Unite ale Americii de furt de identitate, cyberstalking (hărțuire cibernetică) și pornografie de răzbunare.

Fenomenul deepfake este încă în stadiu incipient, astfel că domeniul legislativ încă este extrem de lacunar în ceea ce privește modul efectiv prin care faptele de acest tip să fie pedepsite, au declarat pentru Digital-Business.ro specialiștii în drept informatic din cadrul Societății de Avocatură „Cuculiș & Asociații’’.

Conform acestora, pentru a se putea constata comiterea unei fapte penale prin crearea și, respectiv, punerea la dispoziția publicului sau oricăror persoane ce nu sunt vizate de respectivele imagini și sunete, organele penale din România pot începe urmarirea penală pentru stabilirea modului de comitere a unor fapte penale de tipul:

1. „Alterarea integrității datelor informatice” prevăzută de art. 362 din Codul Penal, ce prevede o pedeapsă cu închisoarea de la 1 la 5 ani, infracțiune ce poate fi comisă prin modificarea fotografiilor sau înregistrărilor audio sau video, respectiv alterarea lor, acțiuni ce pot conduce la deturnarea mesajului pe care acestea îl transmiteau în varianta originală;

2. „Falsul informatic” prevăzută de art. 325 din Codul Penal, cu o pedeapsă cu închisoarea de la 1 la 5 ani, infracțiune similară cu cea descrisă anterior, diferența majoră fiind că prezenta infracțiune se comite prin denaturarea unor date, ce devin necorespunzătoare adevărului, în scopul de a fi utilizate în vederea producerii unei consecințe juridice. Putem să considerăm că orice atingere adusă persoanei vizate de respectivele date poate constitui producerea unei consecințe juridice;

3. „Falsificarea unei înregistrări tehnice” prevăzută de art. 324 din Codul Penal, pedepsită cu închisoarea de la 6 luni la 3 ani sau cu amendă. Probabil că practica judiciară va stabili această faptă ca fiind incidentă în mai toate cazurile de utilizare a sistemelor de Inteligență Artificială (AI) pentru crearea unor clipuri de tip deepfake, întrucât conține mai toate elementele de întocmirea a materialelor false. Acest punct de vedere vine, în special, pentru că textul amintit pedepsește contrafacerea și alterarea unei înregistrări tehnice sau prin determinarea atestării unor împrejurări necorespunzătoare adevărului prin respectiva înregistrare. În cadrul alineatului 3 al articolului menționat regăsim și explicația termenului de „înregistrare tehnică”;

4. „Înșelăciunea” în formă agravată, prevăzută de art. 244 alin. (2) din Codul Penal, cu o pedeapsă cu închisoarea de la 1 la 5 ani. Această infracțiune se comite implică folosirea de mijloace frauduloase pentru inducerea în eroare a unei persoane (sau mai multe), prin prezentarea ca adevarată a unei fapte mincinoase sau viceversa, în scopul de a obține un folos patrimonial injust și prin pricinuirea unei pagube. Odată eliberat în spațiul virtual public fără disclaimer, oricare ar fi mediul online abordat, videoclipul va induce în eroare persoanele ce-l vizionează, iar eventualele prejudicii se pot produce imediat, raportat la faptele evocate. Astfel că rămâne de constatat doar folosul material obținut, dacă este cazul, pentru a se putea pedepsi infracțiunea comisă.

Recent, un prădător sexual își racola victimele online, folosind un cont fals și spunând că este de fapt o persoană publică din România. Desigur, acesta nu a folosit un asemenea dispozitiv sau program de modificare, însă conceptul este cam același. Depinde în cele din urmă în ce mod sunt folosite programele de prelucrare a imaginilor, pentru a face diferența între fapta civilă delictuală, fapta penală sau pamflet – au menționat specialiștii de la „Cuculiș & Asociații’’

Așadar, înainte de a te apuca să creezi clipuri de tip deepfake, avocații te sfătuiesc să iei în considerare eventualitatea comiterii unor astfel de fapte penale, ce pot naște drepturi patrimoniale în favoarea persoanei vătămate, în sensul acoperirii prejudiciului pe care aceasta îl poate suferi și dovedi. Ca atare, este recomandat întotdeauna să obții acordul expres al persoanei vizate, prin stabilirea în concret a tuturor datelor ce vor fi emanate de clipul realizat.

Microsoft și Sony lansează camere video cu Inteligență Artificială



Urmărește-ne și pe Google NEWS