Deepfake

Lidové rčení říká, že jsme něco viděli na vlastní oči. Apoštol Tomáš chtěl vidět Kristovy rány a sáhnout si do nich. Fixace na zrak, na to, že jsme něco viděli, je v naší kultuře silně zakořeněná a není možné se jí snadno zbavit. Máme zkušenost s optickými klamy, ale ty mají charakter jisté taškařice nebo výstřednosti a jen málokdy se týkají něčeho, co by zásadně ovlivnilo to, co víme, čemu věříme nebo jak se chováme. 

Digitální technologie ale stále zřetelněji ukazují, že taková představa je zavádějící a že na „vlastní oči“ a „vlastní uši“ se spoléhat rozhodně nemůžeme. S rozvojem neuronových sítí se v poslední době začaly objevovat první aplikace, které slouží pro „namapování“ jednoho mluvčího na druhého, ať již na videu nebo audiu. V praxi to může znamenat, že například bývalý president Obama může říkat věci, které ve skutečnosti hlásá Trump, Zeman nebo třeba Bagdádí. Vidíte video, které mluví jako Obama, má hlas jako Obama, ale říká věci, které by daná osoba zřejmě nikdy neřekla. A právě pro takovou manipulaci s realitou se vžil výraz Deepfake. 

V současnosti se má za to, že jde asi o jednu z nejsilnějších a nejhůře odhalitelných manipulativních technik v online prostředí. Tím, jak se zlepšují neuronové sítě, je spojování dvou mluvčích stále snazší a také přesvědčivější. Například Adobe uvádí, že k tomu, aby si jeho algoritmus dokonale osvojil něčí hlas, potřebuje přibližně jeho dvacetiminutový záznam. Jinými slovy – pokud člověk někde hovořil tak, že dvacet minut jeho hlasu (a nemusí jít o souvislý projev) je někde zaznamenáno, je možné jeho ústy říkat v podstatě cokoli. Podobným nástrojem je kanadský Lyrebird, který si můžete dokonce zdarma vyzkoušet

Německý projekt Face2Face umí snadno manipulovat v reálném čase obraz z Youtube. Asi nejznámějším je FakeApp, což je bezplatný nástroj, který umožňuje spojit dvě videa do jednoho, tak jako v našem příkladu s Obamou. Jediné, co potřebujete, je trochu výkonnější počítač (běžný herní počítač ale stačí). Důležité je, že si aplikace poradí i s takovými subtilními detaily, jako je třeba stín za mluvčím. Pokud chcete, můžete si takové videa (nebo audia) vytvořit také. 

Podobně je možné také vytvářet zcela falešné fotografie lidí (ukázky jsou k dispozici také). Mimo tyto audiovizuální nástroje existují ještě boti, kteří fungují na sociálních sítích. S jejich pomocí je možné si koupit lajky na Instagramu nebo fanoušky na Facebooku. Podobě se tyto algoritmické struktury infiltrují mezi přátele, takže se mohou podílet na sdílení obtížně rozpoznatelné reklamy nebo třeba na politickém marketingu. 

Proč? 

Deepfake od počátku nebyl zamýšlený jako nástroj manipulace nebo záměrného matení lidí. Pokud bychom měli rozkrývat pozadí jeho vývoje, tak se tradičně na prvním místě objevuje pornografie, kde může vést k významnému snížení nákladů nebo větší variabilitě jednotlivých videí. Je zde také inspirace zábavním průmyslem, a to především průmyslem filmovým. Technologie, které slouží pro Deepfake jsou současně spojené s mnoha akademickými i korporátními výzkumy v oblasti zpracování přirozeného jazyka a obrazu. Mohou sehrát také významnou roli například ve vzdělávání, kde umožní tvořit humanoidní avatary. 

Největší dnešní obavy ze zneužití směřují především do oblasti politického marketingu, kde je možné politikům vkládat do úst věci, které nikdy neřekli (nebo třeba předstírat jejich opilost v rozhovorech), což je nesmírně náročné na případné vyvracení a danou osobu to trvale poškodí. Lze se setkat také s obavami z útoků na osobnost například v podobě „instalace“ obličeje jedné osoby, na nahé tělo osoby jiné v pornografickém snímku atp. 

Celkově je tedy nutné opustit koncept toho, že pokud něco vidíme ve videu, je to skutečně pravdivé a zaručené. Ostatně sami si můžete vyzkoušet, že to tak není. Deepfake každopádně patří mezi dnes asi nejvíce obávané dezinformační prostředky, protože jejich odhalování je nesmírně obtížné. 

Co s tím? 

Nabídnout nějaký jednoduchý recept, jak odhalit Deepfake, je nesmírně náročné, přesto se pokusíme dát alespoň pár bodů k úvaze: 

> Zkuste si sami nějaký Deepfake vyrobit – získáte zkušenost, jak se to dělá, a možná i lepší oko na to, co by mohlo být podezřelé. 

> Neviděli jste už někde tento projev? Pokud je vám nějaká scéna povědomá, ale nespojujete si ji s řečí, může to být významný indikátor pro podezření. 

> Méně věřte informacím na sociálních sítích. Právě sociální sítě budou klíčovým prostorem, kde se budou tyto dezinformace šířit. 

> Snažte se sdělení ověřovat na oficiálních webech. Například politici mají své webové stránky a pokud se na nich o zásadním projevu nic nedozvíte, je jisté riziko, že nemusí být autentický. 

> Zvažujte kontext i lexikum. Například slovní projev presidenta Klause je z hlediska jeho slovní zásoby natolik specifický, že i to vám může napovědět, zda jde o podvod či nikoli. Stejně tak pokud bude video na Parlamentních listech nebo Sputniku, je jistá šance, že nemusí být autentické. Zkuste také přemýšlet, zda by měl daný člověk motivaci právě toto říkat nebo dělat. 

Současné systémy se stále vylepšují, ale nejsou všemocné. Například z usměvavého videa je obtížné udělat smutné nebo naštvané a naopak. Obecně je ale potřeba zřejmě i k videu a audiu přistupovat tak, jak jsme si zvykli pracovat s fotkami – téměř každá může být upravená ve Photoshopu, a proto není rozumné jim bez kritické reflexe věřit. Současně je jasné, že nejnebezpečnější dezinformace budou ty, které budou velice blízko pravdy a běžného projevu dané osoby a provedou jen drobné korekce či posuny. Protože nikoho nenapadne dané video zkoumat nebo jinak systematicky hodnotit.