Wybierz kontynent

Fałszywki groźne, ale w pewnym sensie - pożyteczne

Fałszowanie informacji wizualnej, zdjęć i innych obrazów, nie jest wcale nowym zjawiskiem. Przecież to groźba fałszerstw a nie co innego, sprawiła, iż w średniowiecznej Europie do weryfikacji autentyczności listów i innych przesyłek wykorzystano wosk plombujący i pieczęcie herbowe. Podobnemu celowi w starożytnych Chinach służyły pieczęcie, pilnie strzeżone, gdyż ich kradzież i nielegalne wykorzystanie mogły wyrządzić szkody większe niż współczesne deepfakes.

Fot. (CC) cottonbro studio via Pexels

 

Kilka lat temu anonimowy użytkownik serwisu Reddit zamieścił w internecie film wideo przedstawiający aktorkę Gal Gadot znaną z głównej roli w „Wonder Woman” w sytuacji intymnej ze swoim przyrodnim bratem. Film nie był prawdziwy. Autor fałszywki wykorzystał film porno i umieścił twarz aktorki w miejscu twarzy gwiazdy porno. Od tego bezczelnego i prymitywnego oszustwa zaczęła się zawrotna kariera generowanych za pomocą algorytmów sztucznej inteligencji filmików deepfake (ang. „głębokie fałszerstwa”)

 

Tylko kwestią czasu było, by dowcipni użytkownicy oprogramowania i rozwiązań, które oferuje Google umieścili w kolejnych filmach porno swoich kolegów/koleżanki z klasy, znajomych z Facebooka itd. Deepfakes stały się też doskonałym w ich mniemaniu narzędziem zemsty na byłych narzeczonych, na osobach, które w taki czy inny twórcom podpadły. Dla ofiar tego procederu fejkowa pornografia mogła i wciąż może mieć całkiem poważne konsekwencje, wykraczające poza ogólne straty moralne. „Revenge porno” z wykorzystaniem deepfakes zaczęto ścigać. Tropiły je i tępiły nie tylko administracje serwisów internetowych, ale również przez wymiar sprawiedliwości i wynajęci prawnicy.

 

Co łączy Jeżowa z Rolling Stonesami?

Fałszowanie informacji wizualnej, zdjęć i innych obrazów, nie jest wcale nowym zjawiskiem. Przecież to groźba fałszerstw a nie co innego, sprawiła, iż w średniowiecznej Europie do weryfikacji autentyczności listów i innych przesyłek wykorzystano wosk plombujący i pieczęcie herbowe. Podobnemu celowi w starożytnych Chinach służyły pieczęcie, pilnie strzeżone, gdyż ich kradzież i nielegalne wykorzystanie mogły wyrządzić szkody większe niż współczesne deepfakes.

Fałszerstwa fotografii, fotomontaże i podróbki filmów są tak stare, a może i starsze, niż mass media. Czymże jeśli nie fejkiem nazwiemy Jeżowa znikającego ze słynnego zdjęcia ze Stalinem. Z tej sztuczki, jeśli było trzeba, korzystali inni, niekoniecznie źli politycy i pracujący dla nich propagandyści. Chociażby np. Rolling Stonesi, którzy usunęli Billa Wymana z fotografii okładkowej płyty, po tym jak opuścił zespół. Jest spora kolekcja nagrodzonych prestiżowymi nagrodami fotografii, które były fotomontażami, manipulacjami, czy wręcz fałszywkami. A więc nihil novi…

Tym, co można by określić jako nowość w nowoczesnych, opartych na algorytmach AI fałszywkach, jest fakt, że podróbki na niezłym poziomie technicznym mogą być stosunkowo łatwo i szybko wykonane przez… właściwie przez każdego.

 

Barack Obama rzuca przekleństwami Donalda Trumpa

Od kilku miesięcy znanym przykładem sugestywnego deepfake jest film z byłym prezydentem Barackiem Obamą „rzucającym wiąchę” pod adresem prezydenta Trumpa. Gdyby nie było wiadomo, że wideo jest dziełem Jordana Peele’a i serwisu Buzzfeed, stworzonym, aby ostrzec ludzi przed techniką „deepfakes”, to można się dać nabrać.

Z drugiej strony niewątpliwie zafascynował nas potencjał techniki pozwalającej umieścić cyfrową imitację młodej księżniczki Lei w zakończeniu „Łotra 1”, w ramach „uzupełnień fabularnych” sagi „Gwiezdne Wojny”. Lea na ekranie to w zasadzie taki sam deepfake, jak podkładanie główek w revenge porn.

Bywa to jednak swoista zabawa. Mniej znany jest u nas przypadek umieszczania oblicza Nicolasa Cage'a we fragmentach filmów, w których nie występował, w tym m. in. w „Poszukiwaczach Zaginionej Arki”. W tym przypadku chodzi o stosunkowo niewinne internetowe figle. Mimo wszystko jednak, pomimo wielu pozytywnych lub neutralnych przykładów, technika „głębokich fałszerstw” budzi poważne niepokoje, także w kręgach służb dbających o bezpieczeństwo całych państw i narodów.

 

Zagrożenie bezpieczeństwa narodowego

Nad rozwojem technik, które automatycznie, szybko i niezawodnie wykryją zmanipulowane filmy i fotografie pracuje specjalny zespół w Departamencie Obrony USA. Zdaniem przedstawicieli departamentu, rozwój tego rodzaju technik może zagrozić bezpieczeństwu narodowemu. Program DARPA Media Forensics pochłonął jak do tej pory około 68 milionów dolarów.

Wcześniej weryfikacją filmów i obrazów zajmowali się przeważnie ludzie. Analitycy przeróżnych służb badali obrazy o charakterze propagandowym. Organy ścigania i FBI analizowały od lat filmy będące często materiałem dowodowym w przestępstwach. Program Media Forensics mocno zautomatyzowałby proces i miałby na celu dostarczenie analitykom narzędzia ułatwiającego ich pracę. Niezależnie od sukcesu prac nad technikami wykrywania, które w DARPA potrwają jeszcze prawie dwa lata, trzeba jasno powiedzieć, że oszuści z natury są krok do przodu niż reakcja na ich działania. O tym także pisało kilka lat temu trzech członków Kongresu amerykańskiego w alarmistycznym liście wystosowanym do Daniela Coatsa, dyrektora amerykańskiego wywiadu.

„Hiperrealistyczne fałszerstwa cyfrowe - popularnie nazywane ‘deepfakes’ bazują na wyrafinowanych technikach uczenia maszynowego do tworzenia przekonujących obrazów osób, które robią lub mówią rzeczy, których nigdy nie robiły, bez ich zgody lub wiedzy,” czytamy w liście. „Przez zatarcie granicy między faktem a fikcją, technika ‘deepfakes’ może podważyć zaufanie społeczne do nagranych obrazów i filmów jako obiektywnych obrazów rzeczywistości”.

Adam Schiff, Stephanie Murphy  i Carlos Curbelo zwrócili się do szefów wywiadu z prośbą o przygotowanie raportu, który wskazywałby Kongresowi, jakie kroki zaplanował w celu zwalczania rozpowszechniania podrobionych klipów. „Podrobione filmy wideo, obrazy lub dźwięk mogą być wykorzystywane do szantażu lub do innych złych celów,” napisali. „Mogą być one również wykorzystywane przez podmioty zagraniczne lub krajowe do rozpowszechniania błędnych informacji”.

 

Fałszowanie obrazu i głosu

Pojęcie „deepfake” to angielskojęzyczne złożenie pochodzące od terminów deep learning („głębokiego uczenie”) i fake („fałszerstwo”). Wykorzystuje sztuczną inteligencję do analizy i syntezy fałszywych obrazów. Do tworzenia fałszywych filmów wykorzystywana jest najczęściej technika uczenia maszynowego zwana „generatywną siecią kontradyktoryjną” (GAN), w której jedna sieć neuronowa „recenzuje” wyniki pracy drugiej.

Niepornograficzne, czyli mniej kontrowersyjne deepfakes można łatwo znaleźć na popularnych serwisach wideo, takich jak YouTube lub Vimeo. Techniki te zostały m. in. wykorzystane do podrobienia znanych polityków na portalach wideo lub czatach. Na przykład twarz argentyńskiego prezydenta Mauricio Macriego zastąpiono twarzą Adolfa Hitlera, a twarz Angeli Merkel zastąpiono twarzą Donalda Trumpa.

Od lat dostępna jest aplikacja FakeApp. Aplikacja umożliwia użytkownikom stosunkowo łatwe tworzenie i udostępnianie filmów z zamienionymi twarzami. Program wykorzystuje sztuczną sieć neuronową i moc procesora graficznego oraz od trzech do czterech gigabajtów przestrzeni dyskowej do generowania filmów-fałszywek. Aby uzyskać szczegółowe informacje, program potrzebuje dużo materiału wizualnego dotyczącego osoby, która ma być wstawiona. Oprogramowanie wykorzystuje platformę AI TensorFlow firmy Google.

 

Automatyzacja deepfejków

Technika umożliwiająca deepfakes wciąż się rozwija. Naukowcy z Uniwersytetu Carnegie Mellon opracowali technikę, która może automatycznie generować fałszywki, bez interwencji człowieka. Dzięki sztucznej inteligencji i maszynowemu uczeniu się, system może kopiować mimikę twarzy podmiotu w jednym filmie wideo, a następnie mapować dane na obrazy w innym. Barack Obama może być łatwo przekształcony w Donalda Trumpa, a Jarosław Kaczyński – w Donalda Tuska.

Na tym samym Uniwersytecie Carnegie Mellon profesor Alan Black specjalizuje się w syntezie mowy. Demonstrował w amerykańskiej telewizji, jak to działa. Po przeczytaniu przez prowadzącego program kilku linijek z podaniem różnych pór dnia, Black miał już próbkę głosu, którą wprowadził do syntezatora, który mówił już sam głosem prezentera, rzeczy których on nigdy nie powiedział. Black nazywa to „Photoshopem dla głosu”.

System imitujący głos i to w wielu językach zademonstrowała na filmie opublikowanym w YouTube brytyjska firma Synthesia. „Chciałabym zademonstrować, jak dzięki technologii Synthesia mogę  płynnie mówić w 7100 językach,” mówi uśmiechnięta kobieta na filmie. Następnie widzimy tę samą osobę mówiącą to samo zdanie po francusku, chińsku i portugalsku.

 

Zespół redakcyjnego reagowania na fejki

 „Kończy się świat, w którym polegaliśmy na materiale wideo w celu bezspornego dowiedzenia czegokolwiek,” powiedział niedawno Ian Goodfellow, inżynier pracujący nad systemami AI w Google w wywiadzie dla serwisu „MIT Technology Review”.

W redakcji „The Wall Street Journal” powstała „wewnętrzna grupa zadaniowa”, kierowana przez zespoły ds. etyki i standardów oraz badań i rozwoju. Grupa ta, WSJ Media Forensics Committee, składa się z edytorów wideo, zdjęć, informatyków i redaktorów, którzy zostali przeszkoleni w zakresie wykrywania głębokich fałszywek. Oprócz tropienia i zwalczania deepfakes organizują seminaria szkoleniowe z reporterami, opracowują przewodniki dla newsroomów i współpracują z instytucjami akademickimi, takimi jak Cornell Tech, w celu określenia metod wykorzystania technologii do zwalczania tego problemu.

„Istnieją techniczne sposoby weryfikacji, czy materiał filmowy został zmodyfikowany, takie jak analiza klatek i przejść w programie do edycji wideo w celu wyszukania nienaturalnych kształtów i dodanych elementów, czy też wyszukiwanie wcześniejszych źródeł materiału wideo,” mówiła na łamach „WSJ” Natalia V. Osipova, członkini zespołu.

Jeśli np. film jest w internecie, ale osoba go publikująca jest nieznana, to powinna zapalić się nam lampka alarmowa. Dokładne zbadanie opisu, historii materiału, poszukiwanie wcześniejszych wersji, może od razu wyjaśnić sprawę. Bardziej zaawansowani sprawdzają meta dane filmu wideo lub obrazu za pomocą narzędzi takich jak InVID. Weryfikacji można dokonać także we współpracy z organizacjami firmami i za pomocą wyspecjalizowanego oprogramowania weryfikującego treść. Znane są już takie programy jak TruePic i Serelay, które wykorzystują technikę blockchain do uwierzytelniania zdjęć. Jeśli nie te zaawansowane narzędzia to czasem wystarczą wyszukiwarki obrazów, takie jak Tineye lub Google Image Search, które powinny znaleźć starsze wersje obrazów i filmów.

Samo wyszukiwanie i narzędzia techniczne mogą nie wystarczyć. Warto wytrenować biegłość w rozpoznawaniu szczegółów twarzy, np. wnętrza jamy ustnej, które w deepfakes często jest rozmyte, lub nienaturalnych wzorców mrugania oczami.  W tle materiału filmowego mogą znajdować się szczegóły wskazujące na manipulacje, podobnie jak dziwne migotanie, rozmycie i nienaturalne oświetlenie. Wszystko to mogą być wskaźniki podrobionych materiałów filmowych. W przypadku dźwięku należy uważać na nienaturalną intonację, nieregularne oddychanie, metaliczne odgłosy i inne, rzucające się w… uszy, zmiany. To wszystko są wskazówki, że dźwięk mógł być wygenerowany przez sztuczną inteligencję. Należy jednak pamiętać, że artefakty obrazu, usterki i niedoskonałości mogą być również wprowadzane przez kompresję wideo. Dlatego też czasami trudno jest ostatecznie stwierdzić, czy film został sfałszowany, czy nie.

 

Szczepionka na fałsz

„Jesteśmy blisko rzeczywistości, w której sam fakt, że widzieliśmy coś na firmie nie będzie oznaczać jednoznacznie, że to się wydarzyło,” mwóił ekspert w dziedzinie danych John Gibson podczas konferencji Mindshare Huddle. Jak dodał, techniki te będą rozwijać się szybciej niż komukolwiek się wydaje. Z drugiej strony, jak zauważył „deepfakes mogą być dobrą rzeczą dla zaufanych marek informacyjnych, bo ludzie będą bardziej skłonni, by im ufać. Będą ufać kanałowi, a nie samej wiadomości.” Zauważył także, że wykorzystanie narzędzi detekcji do wykrywania fałszywych filmów może stać się codzienną częścią życia zawodowego dziennikarza już w ciągu następnych kilku lat.

Z drugiej strony, wielu komentatorów dochodzi do paradoksalnego wniosku, że głębokie fałszerstwa obrazu i filmu, nie muszą być aż takim złem, jak się na pierwszy rzut oka wydaje. Podważenie bowiem zaufania do tego, co „przecież widzimy na własne oczy” to nie najgorsza lekcja sceptycyzmu i krytycyzmu dla łatwowiernej publiczności. I dla mediów oczywiście też.

Epidemia fake newsów i korowody ludzi, którzy bezkrytycznie wierzą w najgłupsze manipulacje i zwykłe kłamstwa, zdemaskowała nas, odbiorców medialnego i internetowego przekazu. Choć nie jesteśmy skłonni się do tego przyznać, w jakiś przedziwny sposób wierzymy w każde słowo, które wypowiadają np. politycy lub inne osoby publiczne, próbujące nam coś np. sprzedać. Połykamy bezkrytycznie najbardziej zafałszowaną strawę dla mózgu, choćby dlatego, że słuchając czy oglądając nie odczuwamy dysonansu poznawczego lub dajemy się po prostu uwieść całkowicie pozamerytorycznymi aspektami przemówienia, rozmowy, reklamy itp.

Inaczej mówiąc, jako odbiorcy, jesteśmy od dawna oszukiwani przez manipulatorów na dziesiątki sposobów, nie zauważając tego. Bezczelność fałszywek deepfakes i szum medialny wokół tego zjawiska w każdym myślącym człowieku powinien budzić zmysł krytyczny, otrząsnąć go z łatwowierności, w której drzemał przez całe lata, konsumując przygotowany dla niego przez specjalistów pokarm komunikacyjny. Deepfakes można porównać do szczepionki, choć ta analogia nieco zawodzi, gdy mamy do czynienia z fałszywkami ze sporym potencjałem szkodliwości. Z drugiej strony liczy się ostateczny efekt, czyli nabyta odporność na fałszywki i ściemy.

Zaszczepiony w taki sposób, bardziej krytyczny i wyczulony na manipulację odbiorca to dla dziennikarzy i mediów bardzo dobra wiadomość. Bo przecież wszystkim chodzi o prawdę, rzetelność, obiektywizm i uczciwe przekazywanie faktów, czyż nie?

O Autorze

Mirek Usidus Redaktor

Redaktor naczelny miesięcznika m.technik ("Młody Technik"). Dziennikarz i przedsiębiorca. Weteran Internetu. Współtwórca „Rzeczpospolitej" Online, portalu TVP, i wielu innych serwisów internetowych, ostatnio przede wszystkim fact-checkingowego - #FakeHunter.

© PowiemPolsce.pl

Miejsca Polaków na świecie

Miejsca Polaków na świecie

Zapisz się do newslettera

Jesteś tutaj