Čtyři způsoby, kterými můžeme čelit deepfakes

Deepfakes neboli umělý obrazový a zvukový materiál, jímž se mohou šířit dezinformace, už není hudbou budoucnosti. Existují ovšem preventivní kroky, které můžeme jako uživatelé internetu podniknout, aby nás tato nová technologie nezastihla nepřipravené.

Tvář Toma Cruise v deepfake videu z TikToku

Začátkem tohoto roku vydala FBI varování, ve kterém uvádí, že škodliví aktéři „budou v příštích 12 až 18 měsících téměř jistě využívat syntetický obsah pro kybernetické a zahraniční vlivové operace.“ Většina z nás zná takový syntetický obsah pod pojmem deepfake, což je složenina slov deep learning (hluboké učení) a fake (podvrh). Jedná se o formu umělých médií, která se poprvé objevila na internetových fórech koncem roku 2017 a od té doby našla své místo převážně v zábavě.

V současné době se většinou setkáte s deepfakes vytvořenými a sdílenými pro komediální účely. Miliony lidí si stáhly některou z mnoha aplikací, které dokáží prohodit jejich obličeje s tvářemi oblíbených filmových hvězd nebo superhrdinů. A přestože mohou být výsledky někdy až děsivě realistické, sdílí je s přáteli pro pobavení.

Uživatelé jsou v dnes spíše oklamáváni takzvanými fake news neboli informacemi, jejichž kontext byl pouze pozměněn, než informacemi, které byly falešně syntetizovány, uvádí se ve zprávě FBI. To se však jistě změní s pokroky v umělé inteligenci a strojovém učením, jež budou stále sofistikovanější a dostupnější. Tato technologie se nakonec vyvíjí tak rychle, že některé deepfakes už nelze pouhým okem rozeznat od autentických videí.

Čtyři problematické hlavy

Deepfakes jsou v podstatě novým typem falešných zpráv, tedy obsahem vytvořeným s cílem dezinformovat nebo záměrně klamat. Falešné zprávy nejsou ničím novým, existovaly vždy. Hlavní rozdíl spočívá v tom, že nyní se díky rychlosti, s jakou mohou nástroje založené na AI usnadňovat sdílení informací online, mohou falešné zprávy šířit rychleji a ve větším měřítku, a tak způsobovat větší škody.

Manipulace s obrazovým materiálem existuje již desítky let – například Stalin nechával notoricky mazat své politické nepřátele z fotografií. A podobné postupy, staré i sto let, najdeme i v kinematografii: už v roce 1898 použil Georges Méliès ve svém slavném němém filmu Čtyři problematické hlavy několikanásobnou expozici předmětů na černém pozadí, aby vytvořil dojem oddělených hlav.

Jenže dnes nosíme nástroje k vytváření deepfakes v kapse. Na trhu je k dispozici široká škála bezplatných aplikací, které uživatelům dovolují napodobovat celebrity a filmové postavy. Ačkoli většina z nás by speciální efekty z roku 1898 dokázala rozpoznat stejně snadno jako kamaráda převlečeného do kostýmu Sněhurky, profesionální deepfakes jsou dnes vytvářeny tak, aby byly co nejpřesvědčivější – a často jsou velmi vydařené. Na internetu se letos například objevila řada videí, kde se figurant vydává za amerického herce Toma Cruise, a výsledky jsou až neuvěřitelně bezchybné.

Rostoucí svět deepfakes

Jaká technologie za tímto fenoménem vlastně stojí? Společnosti pracující s deepfakes využívají různé metody strojového učení, mezi něž patří generativní adverzní síť neboli GAN. Tato metoda proti sobě staví dvě neuronové sítě, kde jedna je generátorem a druhá diskriminátorem. Jinými slovy, jedna neuronová síť se učí generovat deepfakes, zatímco její protějšek se učí rozeznávat, zda je obrázek pravý, nebo falešný – jako hra na policisty a zloděje, kde se obě sady neustále zlepšují proti té druhé.

„Po milionech pokusů se diskriminátor stává stále lepším a lepším v rozpoznávání deepfakes a je schopen dosáhnout nečekaných výsledků,“ říká Martin Černý, vedoucí globální partnerské sítě české společnosti Cogniware, která pro národní bezpečnostní složky vyvíjí specializovaný software Insights, který pomáhá při vyšetřování falešných zpráv. Zaměřují se na textové dezinformace, ale nedávno pracovali na zakázkovém projektu, jehož cílem bylo vyvinout řešení pro identifikaci deepfake videí.

Christoph Kirsch
Související

Christoph Kirsch: Většina lidí nerozumí technologiím. To je děsivé

Pokud chcete vědět, jak přesvědčivá tato technologie může být, podívejte se na tuto ukázku ze vzdělávacího segmentu České televize, kde simulovali působivou imitaci moderátora Daniela Stacha.

Deepfakes se však nezaměřují jen na zábavná videa – stále častější a také nebezpečnější jsou i zvukové deepfakes. V jakékoli podobě mají potenciál být zneužity zahraničními a kriminálními kybernetickými aktéry, jak varovala již zmíněná FBI. Jejich motivace? Spear phishing neboli získávání citlivých obchodních informací, vyděračský software (ransomware), vytváření falešných profilů na sociálních sítích nebo šíření škodlivých narativů.

Chraňte svá data, chraňte sami sebe

Aby českou společnost s těmito novými hrozbami seznámil, připravila pražská AI společnost DataSentics ve spolupráci s Českou televizí vzdělávací seriál pro děti Futuretro, který osvětluje nebezpečí fake news a deepfakes. „Je důležité zvyšovat povědomí o těchto technologiích a připomínat si, že musíme být obezřetní, pokud jde o pravdivost mediálního obsahu. To se týká i videí bez ohledu na to, jak realisticky se mohou jevit. Vždy se na ně musíme dívat v širším kontextu,“ říká Jakub Trusina, jeden z datových vědců společnosti DataSentics.

Chránit se můžeme také tím, že budeme svědomitě minimalizovat množství osobního obsahu, který sdílíme online, upozornil Martin Černý z Cogniware. „Čím více fotografií a videí sdílíme online, tím více dat poskytujeme škodlivým aktérům, kteří s nimi mohou pracovat při vytváření přesných deepfakes. Ale platí to i pro další formy falešných zpráv.“

To neznamená, že musíme okamžitě mazat své oblíbené aplikace pro výměnu obličejů – jako konzumenti médií si však musíme více uvědomovat potenciální nebezpečí, které umělá inteligence a obsah generovaný pomocí strojového učení mohou přinést jak jednotlivcům, tak celé společnosti.

Mnoho firem po celém světě aktivně pracuje na řešení problémů, které tyto technologie představují, ať už prostřednictvím vývoje lepších detekčních algoritmů, jež pomáhají přesně rozpoznat falešný obsah, nebo tvorbou vzdělávacího obsahu a zvyšování povědomí. Přestože většina deepfake videí stále není dostatečně přesná, lze najít mnoho příkladů, které ukazují, jakým směrem se tato technologie vyvíjí. A jaké škody může v blízké budoucnosti napáchat.

Jak se chovat online?

Orientace v online světě plném hoaxů se může zdát skličující. Nezapomínejte ovšem, že kdysi analytici doporučovali uživatelům zrušit e-mailovou komunikaci jako jediný způsob, jak skoncovat se spamem. Přestože spam zůstává problémem, naučili jsme se jeho rizika snížit na minimum díky chytrým algoritmům a široké informovanosti. Jak se tedy přesně chránit před deepfakes?

Omezte obsah, který zveřejňujete online

Aby mohl někdo vytvořit realistický deepfake, musí trénovat algoritmus pomocí mnoha hodin skutečných video nebo audio záznamů. Proto to důležité minimalizovat množství videí a fotografií, které člověk zveřejňuje na sociálních sítích – jedině tak nebude nikdo moci vytvořit váš deepfake.

Vzdělávejte se

Udržování povědomí o nejnovějších technologických pokrocích je velmi důležité, stejně jako pochopení výzev, které tyto technologie představují.

Ověřujte si zdroje

Ujistěte se, že používáte kvalitní zdroje, a v případě pochybností si informace ověřte na různých spolehlivých platformách. V současné době je oprávněná zdravá skepse, pokud jde o obsah, který se objevil z neznámých zdrojů.

Vybavte se zpětným vyhledáváním obrázků

Vyhledávání pomocí obrázků vám může potenciálně pomoci odhalit falešné video nebo profil na sociálních sítích. Pokud budete mít štěstí, můžete na internetu najít podobné obrázky, které odhalí skutečný kontext zkoumaného obsahu.