Prawda czy fałsz – czym jest deepfake?

, Social media

Deepfake to nagranie wideo, które zostało zmodyfikowane poprzez podmianę twarzy. Jest to możliwe, dzięki technologii opartej na sztucznej inteligencji oraz uczeniu maszynowym.

Początki deepfake

Pierwsze zmodyfikowane w taki sposób nagrania zaczęły pojawiać się w internecie pod koniec 2017 roku. Wtedy to użytkownik portalu Reddit o nazwie deepfakes zamieścił tam fragmenty filmów pornograficznych, w których zamienił twarze tak aby przedstawiały znane aktorki. To właśnie od jego nicka, będącej grą słów (deep machine learning i fake), przyjęła się nazwa samego zjawiska. Oczywiście, narzędzia, które pozwalają na manipulację obrazem czy dźwiękiem istnieją już od dawna. Różnica tkwi gdzieś indziej. Zamiast człowieka, który musi ręcznie dopasować każdy element aby wyglądał na prawdziwy, pracę wykonuje tu specjalnie wytrenowana sztuczna inteligencja.

W internecie dostępnych jest już wiele darmowych programów. Pozwalają one na stworzenie deepfake’a każdej osobie, której komputer spełnia odpowiednie wymagania sprzętowe. To dlatego na początku 2018 roku przez media społecznościowe przetoczył się trend na podmienianie twarzy aktorów w filmach na wizerunek Nicolasa Cage’a. To jedno z bardziej niewinnych wykorzystań tej technologii, pojawiły się jednak też inne.

Pierwszym z nich jest wspomniana już modyfikacja filmów pornograficznych i wykorzystywanie w tym celu wizerunków kobiet bez ich zgody. Problem nie dotyczy już tylko znanych osobistości. Każdy może stać się ofiarą takiej przeróbki. Nie brakuje osób, które z własnej inicjatywy bądź na zlecenie przerobią filmik tak, aby przedstawiał byłą dziewczynę w kompromitującej sytuacji. Aby temu zapobiec, w lutym tego roku w stanie Wirginia w USA przyjęto poprawkę prawną, która klasyfikuje dystrybuowanie takich deepfake’ów jako wykroczenie.

Kto czego nie powiedział

Z drugiej strony jest polityka i fake news. W kwietniu 2018 serwis Buzzfeed opublikował filmik stworzony przez reżysera Jordana Peele’a na którym widać przemawiającego Baracka Obamę. Na początku wideo wygląda na tak prawdziwe, że aż trudno uwierzyć, że to w rzeczywistości deepfake. Dopiero pod koniec okazuje się, że tak naprawdę za to, co wydaje się kwestią Obamy odpowiedzialny jest Jordan Peel. Jego celem jest ostrzeżenie oglądających przed zagrożeniem, jakie może nieść ze sobą wykorzystanie tej technologii. 

Jak łatwo jest zmanipulować nagranie widać również na filmiku zamieszczonym w serwisie YouTube w marcu 2019, na którym zaprezentowany jest przerobiony skecz z programu Jimmiego Fallona, wyemitowany w NBC w 2016 roku. Pierwsza połowa to oryginał, w którym Fallon gra Donalda Trumpa natomiast komik Dion Flynn wciela się w Baracka Obamę. Reszta filmu przedstawia to samo nagranie, ale już przerobione na deepfake, z prawdziwymi twarzami prezydentów. 

Kolejnym przykładem jest nagranie zamieszczone na Instagramie, na którym założyciel Facebooka, Mark Zuckerberg opisuje “prawdziwą” nikczemną moc tego portalu. Ten konkretny deepfake, stworzony przez Billa Postersa i Daniela Howe’a, pojawił się jako odpowiedź na politykę Facebooka, który wcześniej odmówił usunięcia zmanipulowanego filmu przedstawiającego amerykańską Spiker Izby Reprezentantów Nancy Pelosi w złym świetle. Zamiast tego jedynie obniżył jego zasięgi. Deepfake z Zuckerbergiem stanowił niejako prowokację. Ostatecznie też nie został on usunięty. Rzecznik prasowy Instagrama potwierdził, że jeżeli zostanie on uznany na nieprawdziwy, jego zasięg zostanie ograniczony. 

Ruchome obrazy

Nie wszystkie sposoby na wykorzystanie technologii stojącej za deepfake’ami mają złe intencje. W maju 2018 laboratorium Samsung IA w Moskwie przy użyciu tych samych metod “ożywiono” Mona Lisę. Opublikowane zostały też ruszające się portrety Marilyn Monroe czy Alberta Einsteina. Dowodzi to, że do modyfikacji wystarczy tylko jedno zdjęcie. Tak zaawansowana technologia nie jest jednak ogólnodostępna. Przynajmniej na razie nie ma obawy, że zostaną w taki sposób wykorzystane na przykład prywatne zdjęcia opublikowane w mediach społecznościowych. 

Deepfake w praktyce

Na ten moment nie istnieje udowodnione wykorzystanie deepfake jako narzędzia w walce politycznej, wydaje się to jednak tylko kwestią czasu. Aby temu zapobiec, badacze tworzą własne narzędzia, które pozwolą na identyfikację i rozpoznanie fałszywych nagrań. Taki projekt prowadzi między innymi amerykańska Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności, na zlecenie Pentagonu. W grę znów wchodzi uczenie maszynowe. Jednak w tym przypadku sztucznej inteligencji dostarczane są przykłady przerobionych filmów, tak, aby później umiała ona go wychwycić.

Nie brakuje jednak sceptycznych głosów. W swoim artykule dla The Verge, Russell Brandom przekonuje, że deepfakes nie są aż tak poważnym problemem, jakim malują je media. Jako przykład podaje kampanie dezinformacyjne zorganizowane przy okazji takich wydarzeń jak wybory prezydenckie we Francji i zamieszki na tle religijnym na Sri Lance czy w Mjanmie. W żadnym z tych przypadków nie zdecydowano się jednak na użycie zmodyfikowanego wideo. Według Brandoma, deepfakes są po prostu zbyt łatwe do zidentyfikowania przez odpowiednie algorytmy. Takie zresztą zostały już nawet zaimplementowane przez Facebooka. Ponadto, tak naprawdę nie są w stanie osiągnąć nic, czego nie mogą już zrobić rozpowszechnione fake newsy. Czas pokaże, czy Brandom miał rację, czy deepfake’i staną się realnym problemem.