Na videu vytvořeném pomocí umělé inteligence by mohlo být vidět, jak americký prezident řekl nebo udělal něco šokujícího. Bylo by to velmi uvěřitelné, a v nejhorším případě by to mohlo ovlivnit volby, vyvolat násilí na ulicích, nebo dokonce mezinárodní ozbrojený konflikt.
Naštěstí existuje nová technika, s jejíž pomocí se může Trump či další šéfové vlád a prominenti chránit před podobnými „deep fakes“. U nové metody je prostřednictvím strojového učení biometricky analyzován individuální styl, v němž osoba mluví a pohybuje se.
Technika byla vyvinutá výzkumníky z Kalifornské univerzity v Berkeley a univerzitou jižní Kalifornie – autoři v této souvislosti mluví o tzv. „měkké biometrické signatuře“. S nástrojem, který je k dispozici, extrahují pohyby tváře a hlavy různých osob. S pomocí Generative Adversial Network (GAN) vytvoří vlastní „deep fakes“ Trumpa, Baracka Obamy, Bernieho Sanderse, Elizabeth Warrenové nebo Hillary Clintonové.
problémy pro politiku
V testu uměla technika rozpoznat mnoho různých „deep fakes“ s nejméně 92procentní úspěšností, mezi nimi i takové, u nichž byla vyměněna tvář. Navíc si poradila také s artefakty v souborech, které vznikly, když bylo video nově komprimováno, což pro jiné techniky představuje problém. Svou vlastní metodu chtějí vědci ještě vylepšit, když zohlední také charakteristický styl mluvy osob. Práce, představená v červnu na konferenci o strojovém učení v Kalifornii, byla financována společností Google a armádním výzkumným centem DARPA.
Problém pro politiky celosvětově (a také pro jakéhokoli jiného člověka) spočívá v tom, že s pomocí umělé inteligence bude směšně jednoduché vytvářet falšovaná videa. Nepravdivé zprávy, falšované profily na sociálních sítích a manipulovaná videa již dnes ovlivňují informace a diskuze o politice. Obavy vyvolává zejména skutečnost, že falšované mediální obsahy by mohly být využity k tomu, aby se v prezidentských volbách v roce 2020 rozšiřovaly manipulativní informace.