
Spis treści
Deepfake stanowi jedno z najnowszych zagrożeń dezinformacyjnych w światowej sieci. Fałszywy obraz i dźwięk, który dzięki retuszom przeprowadzanym z pomocą SI wygląda na autentyczny, może stać się nowym i jeszcze gorszym obliczem fake newsów.
Czym jest deepfake?
Deepfake to zbitka wyrazowa powstała z terminów deep learning (pol. głębokie uczenie, podkategoria uczenia maszynowego algorytmów sztucznej inteligencji) oraz fake (pol. falsyfikat). Oznacza spreparowane z użyciem technik SI materiały audiowizualne, w których sztucznie wygenerowane twarze, głosy i gesty przybierają postać autentycznych osób. Wykorzystywana w tym celu sieć neuronowa analizuje wzorce mowy oraz mimiki, by na ich podstawie wykreować syntetyczną postać zdolną do wypowiadania się w sposób niemal tożsamy z „oryginałem”.
Po raz pierwszy termin ten pojawił się na platformie Reddit w okolicach końca 2017 roku – podforum r/deepfakes służyło w tamtym czasie do wymiany amatorsko wykonanych deepfake’ów. Najpopularniejszymi z nich były sfałszowane, kompromitujące filmy pornograficzne wykorzystujące wizerunki znanych celebrytek, w ogóle niezwiązanych z branżą erotyczną.

Zasada działania algorytmów deepfake
Kluczowym dla popularyzacji deepfake’ów był rozwój technologii GAN (ang. Generative Adversarial Network, pol. Generatywne Sieci Współzawodniczące) opracowanej przez Iana Goodfellowa, pracownika Apple, w 2014 roku. GAN wykorzystuje dwie przeciwstawne sieci neuronowe, przypominające w swojej strukturze układ nerwowy ludzkiego mózgu – generatora oraz dyskryminatora.
Sieci te w błyskawicznym tempie zbierają i analizują informacje na podstawie zestawu danych (zdjęć, filmów, nagrań), którymi zostały „nakarmione” przez programistę. Generator ma za zadanie tworzyć syntetyczne materiały, natomiast dyskryminator porównuje te falsyfikaty do otrzymanych wcześniej danych. Na podstawie wyników porównań, generator uczy się tworzyć coraz dokładniejsze kopie – proces trwa, dopóki druga z sieci nie jest w stanie odróżnić podróbek od autentycznych obrazów.
Sprawdź też: Deep blue vs Kasparov. Sztuczna inteligencja według Kasparowa – szachisty, który przegrał z AI
Dlaczego deepfake może być niebezpiecznym narzędziem?
Sposoby na to, jak zrobić deepfake, są coraz powszechniejsze, a dostęp do wiedzy na temat generatywnych sieci neuronowych już od dłuższego czasu nie leży wyłącznie w gestii ośrodków badawczych i akademickich. Już sam początek zjawiska, mający miejsce na Reddicie, pokazał, że deepfakes mogą stanowić realny środek przemocy wobec kobiet, tworząc zupełnie nową odmianę tzw. revenge porn. Inną formą molestowania, do jakiej już została użyta ta technologia, jest m.in. seksualizacja dzieci poprzez fabrykowanie materiałów pornograficznych z udziałem nieletnich.
Przemoc seksualna nie jest jedynym zagrożeniem, jakie niesie za sobą pojęcie deepfake. Odbywające się w 2020 roku w Indiach wybory rozsławił fakt zastosowania materiału deepfake przez polityka Manoja Tiwariego, na którym kandydat krytykuje swoją konkurencję i zachęca do głosowania na swoje ugrupowanie. Przemawia on w spreparowanym filmie w języku haryanvi – dialekcie, którym Tiwari nie posługuje się na co dzień, a którym w Indiach mówi około 10 milionów ludzi. Materiał wzbudził kontrowersje na temat tego, w co aktualnie można jeszcze wierzyć w internecie.
Przeciwdziałanie i obrona przed deepfake
Jak do tej pory, jednymi z najpopularniejszych filmów typu deepfake były te, których zadaniem było szerzenie świadomości na temat tego zjawiska. Przykładem jest wideo użyte w brytyjskiej kampanii wyborczej, przedstawiające Jeremy’ego Corbyna i Borisa Johnsona popierających wzajemnie swoje kandydatury. Kolejny popularny deepfake to materiał Jordana Peele we współpracy z Buzzfeed, w którym Barrack Obama wieńczy ostrzeżenie na temat deepfake’ów sloganem „stay woke, bitches!”.
Na przestrzeni ostatnich dwóch lat sprawą deepfake’ów postanowiły zająć się również rządy. Teksas był w 2019 roku pierwszym stanem, który zadecydował o zakazie tworzenia deepfake’ów w celach związanych z kampaniami wyborczymi. W tym samym roku Kalifornia wprowadziła podobny zakaz, obowiązujący na 60 dni przed wyborami, a Wirginia całkowicie zakazała deepfake’owej pornografii. Pod koniec grudnia 2020 roku Kongres USA przyjął ustawę zobowiązującą agencję federalną National Science Foundation do badań w dziedzinie deepfake’ów. Akt zakłada również wsparcie National Institute of Standards and Technology na polu metodologii pracy z tą technologią. Dokument ten stawia szczególny nacisk na możliwości identyfikacji i rozpoznania autentyczności w internecie.
W przypadku krajów Unii Europejskiej najobszerniejszym i najbardziej aktualnym dokumentem przeciwko deepfake’om jest rezolucja Sztuczna inteligencja w sektorze edukacji i kultury oraz w sektorze audiowizualnym z 19 maja 2021 roku. Akt omawia zagrożenia związane z deepfake’ami, sposoby szerzenia świadomości na ich temat oraz kwestię rosnącej trudności w wykrywaniu i odróżnianiu fałszu od prawdy w sieci. W projekcie unormowania prawnego SI Komisji Europejskiej technika deepfake określona została jako technologia „ograniczonego ryzyka”. Oznacza to, że wszelkie podmioty korzystające z deepfake’ów są objęte wymogami przejrzystości oraz obowiązkiem informowania odbiorców o nieautentycznej naturze swojego dzieła.
Jak wykryć deepfake?
Najczęstszymi zakłóceniami w materiałach deepfake są oczywiście te związane z ludzką twarzą. Sieci GAN wciąż nie są doskonałe pod względem konsekwencji w swoich kreacjach – należy szukać w deepfakes nienaturalnie wyglądających zmarszczek oraz zaburzonej korelacji między kolorem ust a resztą skóry. Warto pamiętać, że technika ta wciąż boryka się z realistycznym oddaniem naturalnego zarostu, tak samo jak nie potrafi jeszcze w pełni odwzorować zjawisk fizycznych. Wskazówką są tu nienaturalne cienie, refleksy okularów oraz ruchy postaci.
Niepokój związany z deepfake’ami, oprócz potencjalnych przemocowych zastosowań, wynika pośrednio z nierównego tempa prac nad SI. Niestety, prawne rozwiązania, a nawet sami naukowcy nie zawsze są w stanie nadążyć za rozwojem poszczególnych dziedzin sieci neuronowych. W końcu – jeśli twórcy sieci neuronowych prześcigają się w kreacji coraz dokładniejszych kopii ludzkich twarzy, kto zajmie się udoskonaleniem technik ich wykrywania?
W świetle takiej zdolności technicznej, demokracja traci jakikolwiek sens.