Totul a început în zona pornografiei, la începutul lui 2018, când pe Reddit a fost publicată o aplicaţie ce permitea înlocuirea feţei unui actor dintr-un film pornografic cu faţa unui star la alegere. Astfel, o serie de celebrităţi care niciodată nu s-ar filmat în situaţii intime, au devenit staruri în filme pornografice.

Dar ăsta a fost începutul. A fost semnalul că se poate face mai mult. Şi aşteptările nu au fost înşelate :) După mai multe încercări mai mult sau mai puţin spectaculoase, o nouă aplicaţie de tip "DeepFake" a devenit subiect principal de presă: Zao, o aplicaţie chinezească ce permite să-ţi inserezi propria faţă într-o serie de fragmente de filme puse la dispoziţie de autorii aplicaţiei. Realismul înlocuirii lui DiCaprio ori Marlyn Monroe cu feţe diverse ale utilizatorilor aplicaţiei este uluitor, după cum se poate vedea într-un videoclip mai jos, în comparaţie cu rezultatele obţinute  cu alte aplicaţii, ceea ce arată potenţialul pe care această aplicaţie îl are pentru utilizări de alt gen în viitor.

 

Ce impact vor avea aplicațiile de tip "DeepFake" în viitor?

În videoclipul de mai jos o să puteţi asculta cazul unei jurnaliste indiene a cărei carieră a fost distrusă prin folosirea unui videoclip DeepFake.

Dar acesta este doar începutul. Atunci când va fi realmente imposibil de distins între o înregistrare reală şi o înregistrare contrafăcută, modul în care vom percepe lumea se va schimba fundamental.

Mulţi cred că problema principală va fi aceea că vom crede orice bazaconie publicată sub forma unei înregistrări video. Dar aşa cum publicul a fost educat destul de repede cu privire la FakeNews, va fi educat şi cu privire la DeepFake. Problema fundamentală este că ne vom pierde încrederea în realitatea celor pe care le vedem şi auzim. Iar, pe de altă parte, orice înregistrare poate deveni subiect de controversă, dat că devine legitim să conteşti orice înregistrare.

Înainte însă ca majoritatea să se obişnuiască cu DeepFake, probabil că vor fi multe situaţii în care DeepFake va avea consecinţe neplăcute, dacă nu tragice. Se pot imagine situaţii, înregistrări falsificate integral, dar extrem de credibile, în care diverşi lideri ar putea îndemna la rebeliune, atacuri teroriste ori ar fi "expuşi" în diverse situaţii care ar indica acte de corupţie, infidelitate şamd.

Pe măsură ce aplicaţiile de tip DeepFake se înmulţesc şi îmbunătăţesc, vor apărea şi aplicaţii care să identifice înregistrările false. Cine va câştiga această cursă este greu de spus.

 

Ce e nou cu DeepFake?

Înregistrările modificate, fie că sunt ele video, fie că sunt audio, nu sunt ceva nou. Vă amintiţi, probabil, cazul din 2017 când au apărut în presă înregistrări false cu vocea şefei DNA de la acea vreme. Ori poate vă mai amintiţi controversa din 2009 privind lovirea unui copil de un fost preşedinte pe timpul campaniei electorale în anul 2004.

Ceea ce deosebeşte o înregistrare trucată "clasică" de DeepFake sunt următoarele:
: calitatea înregistrării false;
: uşurinţa cu care se poate realiza un material DeepFake (de către orice, oricând, fără cunoştinţe tehnice deosebite, fără costuri);
: dificultatea în a dovedi falsul.

 

Cum DeepFake va afecta adevărul şi democraţia

 

 

 Viitorul aplicaţiei Zao: Cum o aplicaţie chinezească de creare DeepFake a devenit virală

 

 

 

 

Videoclipurile DeepFake devin înfricoşător de reale

 

 

Write comments...
symbols left.
You are a guest ( Sign Up ? )
or post as a guest
Loading comment... The comment will be refreshed after 00:00.

Be the first to comment.