Deepfake

Digitální technologie ukazují, že na „vlastní oči“ a „vlastní uši“ se spoléhat úplně nemůžeme. S rozvojem neuronových sítí se začaly objevovat první aplikace, které slouží pro „namapování“ jednoho mluvčího na druhého, ať již na videu nebo audiu. V praxi to může znamenat, že například bývalý prezident Obama může říkat věci, které ve skutečnosti hlásá Trump, Zeman nebo třeba Bagdádí. Vidíte video, které mluví jako Obama, má hlas jako Obama, ale říká věci, které by daná osoba zřejmě nikdy neřekla. A právě pro takovou manipulaci s realitou se vžil výraz deepfake.

Upravit text Aktivity Prezentace Podcast

Jednoduše můžeme říci, že deepfake je digitální objekt, ve kterém je člověk vložen do stávajícího obrazu nebo upraven do podoby, která neodpovídá jeho původnímu aktu. Co to znamená? Představte si, že máte video s guvernérem ČNB, v němž oznamuje snížení úrokové sazby, což je výrok, na který bude reagovat měna i akciové trhy. Pokud by se vám podařilo video upravit tak, aby na něm říkal, že se úroková sazba bude zvyšovat, a toto video jste dostatečně dobře dostali „do oběhu“, pak můžete reagovat nákupy a prodeji, na kterých vyděláte ohromné peníze. Lidé jsou zvyklí, že když někdo hovoří jako František, vypadá jako František a pohybuje se jako František, je to František. To jistě může být pravda, ale také nemusí. Potíž deepfake je v tom, že se najednou nemůžeme spolehnout ani na vlastní oči, ani na selský rozum.

Pro práci s deepfake se využívají neuronové sítě, které dokáží analyzovat obraz a pak s ním vhodně manipulovat. Jak to funguje, můžete jednoduše vidět například na projektu This Person Does Not Exist, který dělá vlastně velice jednoduchou věc – vezme dohromady několik fotek lidí, zprůměruje je a vytvoří z nich nového člověka, byť takového, který nikdy neexistoval.

Mezi nejčastější způsoby možného zneužití se u deepfake uvádí tvorba hoaxů a manipulativních zpráv, ale také osobní pomsta – je poměrně snadné pomocí neuronové sítě nasadit na tělo herečky nebo herce ve filmu pro dospělé hlavu někoho, kdo vám není po chuti, nebo jde naopak o celebritu, která by jistě v takovém filmu nehrála. Všechny tyto příklady jasně ukazují, že deepfake je způsob, kterým můžeme manipulovat s realitou. Měnit lež na pravdu, a to způsobem, který je poměrně těžko odhalitelný.

V současnosti se má za to, že jde asi o jednu z nejsilnějších a nejhůře odhalitelných manipulativních technik v online prostředí. Například Adobe uvádí, že k tomu, aby si jeho algoritmus dokonale osvojil něčí hlas, potřebuje přibližně jeho dvacetiminutový záznam. Jinými slovy – pokud člověk někde hovořil tak, že dvacet minut jeho hlasu (a nemusí jít o souvislý projev) je někde zaznamenáno, je možné jeho ústy říkat v podstatě cokoliv. Podobným nástrojem je kanadský Lyrebird, který si můžete dokonce zdarma vyzkoušet

Podobně je možné také vytvářet zcela falešné fotografie lidí (ukázky jsou k dispozici také). Mimo tyto audiovizuální nástroje existují ještě boti, kteří fungují na sociálních sítích. S jejich pomocí je možné si koupit lajky na Instagramu nebo fanoušky na Facebooku. Podobě se tyto algoritmické struktury infiltrují mezi přátele, takže se mohou podílet na sdílení obtížně rozpoznatelné reklamy nebo třeba na politickém marketingu. 

Bez popisku
Bez popisku

Podívejte se například na tento deepfake gif herečky Amy Adams a Nicolase Cage. Zdroj: Wikiwand.com - Deepfake.

I proto se dnes hovoří o jakési renesanci klasických médií, která budou svá videa podepisovat a kódovat tak, že budou garantovat kvalitu a autentičnost právě na úkor manipulátorů. Nabídnout nějaký jednoduchý recept, jak odhalit deepfake, je nesmírně náročné, přesto se pokusíme dát alespoň pár bodů k úvaze: 

  • Zkuste si sami nějaký deepfake vyrobit – získáte zkušenost, jak se to dělá, a možná i lepší oko na to, co by mohlo být podezřelé.
  • Neviděli jste už někde tento projev? Pokud je vám nějaká scéna povědomá, ale nespojujete si ji s řečí, může to být významný indikátor pro podezření. 
  • Méně věřte informacím na sociálních sítích. Právě sociální sítě budou klíčovým prostorem, kde se budou tyto dezinformace šířit. 
  • Snažte se sdělení ověřovat na oficiálních webech. Například politici mají své webové stránky a pokud se na nich o zásadním projevu nic nedozvíte, je jisté riziko, že nemusí být autentický.

 

RNDr. Michal Černý, Ph.D.

řešitel projektu, asistent na KISKu

 

Používáte starou verzi internetového prohlížeče. Doporučujeme aktualizovat Váš prohlížeč na nejnovější verzi.

Další info