Sobota 27. dubna 2024, svátek má Jaroslav
130 let

Lidovky.cz

Falšování obrazu a zvuku vyvolává ve společnosti nedůvěru

  7:57
Díky umělé inteligenci lze vytvářet Deepfake, fotografie nebo videa, jež vypadají autenticky, ale ve skutečnosti jde o podvod. Sdělení Janova evangelia, že na počátku bylo slovo, už v době digitalizace neplatí – ztratilo kvůli fake news exkluzivitu i důvěryhodnost.

Strach. foto: Ilustrace Richard CortésČeská pozice

Na videu na portálu BuzzFeed bývalý prezident USA Barack Obama říká: „Donald Trump je naprostý idiot.“ Herec a režisér Jordan Peele, který se na jeho natočení podílel, následně varuje před technologií falšující zvuk a obraz. Díky umělé inteligenci lze vytvářet Deepfake, fotografie nebo videa, jež vypadají autenticky, ale ve skutečnosti jde o podvod.

Na podzim 2017 zveřejnil na sociální síti Reddit pseudonym Deepfakes pornografická videa hereček Emmy Watsonové a Scarlett Johanssonové. Poměrně rychle se ukázalo, že jde o podvrh, ale zároveň odstartovala další fáze manipulace informacemi. Na konci ledna 2018 se objevila aplikace FakeApp, jež mění ve videích obličeje.

Ta se zdokonalila natolik, že umožňuje zesnulým „zmrtvýchvstání“ nebo vytvořit kompromitující materiály na známé osobnosti nebo politiky. Značně se zlepšil i software manipulující mluveným slovem, které s obrazem, jenž je mu přizpůsoben, vytváří iluzi, že jde o skutečný záznam. Pohyb rtů, mimika a výraz obličeje vypadají přirozeně.

Oprávněné obavy

Sociální sítě jsou plné profilů s ukradenými fotografiemi skutečných lidí, což zjednodušovalo odhalení. V budoucnu však bude mnohem těžší falešné profily odhalit. Americká firma Nvidia vyvinula software vytvářející fotografie lidí, kteří neexistují, a výsledky zveřejnila na internetové stránce thispersondoesnotexist.com. Srovnání s bankami fotografií nic nepřinese, proto věrohodnost falešných profilů roste.

Obavy, že pomocí Deepfake bude možné kompromitovat politické protivníky, ovlivňovat společnost nebo manipulovat firemními videokonferencemi, jsou oprávněné. DARPA, agentura Ministerstva obrany USA pro pokročilé výzkumné projekty, bere tuto hrozbu natolik vážně, že vytvořila program MediFor na forenzní audit médií.

Obavy, že pomocí Deepfake bude možné kompromitovat politické protivníky, ovlivňovat společnost nebo manipulovat firemními videokonferencemi, jsou oprávněné. DARPA, agentura Ministerstva obrany USA pro pokročilé výzkumné projekty, bere tuto hrozbu natolik vážně, že vytvořila program MediFor na forenzní audit médií, který dokáže odhalit, zda je fotografie nebo video autentické, což se odehrává na třech úrovních.

Nejprve analyzuje, zda existují stopy digitální manipulace. Pak je zkoumána fyzikální stránka – odpovídají-li například stíny v obličeji světelným zdrojům v okolí nebo zůstává-li prostor na fotografii a konfigurace fotoaparátu, který jej zachytil, i na dalších fotografiích stejná. A nakonec je srovnán obsah videa nebo fotografie s jinými zdroji. V případě fotografie v přírodě je zjišťováno, odpovídá-li počasí danému dnu a místu.

Vyvolání politických nálad

Manipulace fotografiemi nebo filmovými záběry není nová. Z minulosti je známý případ komunisty Vladimíra Clementise, jenž byl poté, co byl popraven, z fotografií s Klementem Gottwaldem vyretušován. I jednoduché manipulace fotografiemi mohou vyvolat politické nálady ve společnosti reagující na citlivá témata, jako je migrace – pomocí dat získaných z analýzy sociálních sítí ji lze předpovídat.

I jednoduché manipulace fotografiemi mohou vyvolat politické nálady ve společnosti reagující na citlivá témata, jako je migrace – pomocí dat získaných z analýzy sociálních sítí ji lze předpovídat

Pokud například v krizových regionech prudce klesnou ceny domácích zvířat, třeba koz, lze usoudit, že je jich na trhu nadbytek kvůli odchodu. Podobným signálem je růst ceny kanystrů na vodu nebo potřeb na delší cestu. Pašerácké mafie navíc slibují, že po příchodu do Evropy čeká na migranty dům a pole. Takové informace podpořené falešnými fotografiemi o cíli cesty mohou migraci zesílit a urychlit.

Výroky politiků o klimatických změnách nebo o vojenském konfliktu mohou otřást akciovými trhy na celém světě. Záznamy násilných demonstrací z minulosti nebo z jiné země mohou být důvodem k tvrdému zásahu policie nebo vyhlášení represivních opatření.

Na tiskové konferenci na konci loňského roku se střetl americký prezident Donald Trump a novinář televizní stanice CNN Jim Acosta, který navzdory několika vyzváním odmítl odevzdat mikrofon, přičemž se dotkl asistentky, která mu jej chtěla vzít. Následně Bílý dům zveřejnil video, jímž se snažil ukázat, že Acosta byl agresivní. Analýza videa však odhalila, že sekvence s fyzickým kontaktem s asistentkou, byla zrychlena. Trumpova poradkyně Kellyanne Conwayová však manipulaci videem popřela.

Zesílení informačního proudu

Nejen politici, ale i firmy používají zmanipulované obrazové záznamy – například k získání kapitálu. Biotechnologický startup Theranos slibující inovaci krevních testů podváděl investory falšováním výsledků i zavádějícími obrazovými a zvukovými záznamy. To, že informace přináší výhodu, souvisí od pradávna s mocí.

S rozšířením hodin v minulosti si v arabském světě informaci, kolik je hodin, nechávala vládnoucí elita dlouho pro sebe, protože jí sloužila ke kontrole poddaných. V Evropě se sice hodiny dávaly na kostelní věže, nikoliv však kvůli předání informace, ale aby obyvatelé věděli, kdy mají přijít na mši a kdy začíná a končí práce.

Sledování internetu, jak dělá Rusko, Čína nebo Irán, je jednou možností, která ale vyžaduje velké personální, finanční a technologické investice do jeho kontroly, dezinformačních center a trollů. Mnohem efektivnější je informační proud zesílit a pomocí fake news jej učinit nedůvěryhodným.

Dlouhou tradici mají texty jen pro vyvolené, k nimž běžný smrtelník nemá přístup. Totalitní režimy považovaly psané slovo za důležité. V nacistickém Německu se knihy veřejně pálily a v komunistických zemích byli šiřitelé zakázané literatury pronásledováni. V době globalizace s obrovským množstvím dat se vztah k informaci nezměnil – nadále představuje výhodu. Změnilo se však řešení.

Sledování internetu, jak dělá Rusko, Čína nebo Irán, je jednou možností, která ale vyžaduje velké personální, finanční a technologické investice do jeho kontroly, dezinformačních center a trollů. Mnohem efektivnější je informační proud zesílit a pomocí fake news jej učinit nedůvěryhodným.

Dokonce renomované informační instituce, jako jsou deníky The Washington Post nebo Guardian, šířily falešnou zprávu v případě syrské lesbické blogerky Aminy Abdallah Arrafové z Damašku v roce 2011. Ve skutečnosti šlo a Američana Toma MacMastera žijícího ve Skotsku a podvod vyšel najevo, když se zjistilo, že na fotografiích není Arrafová.

Internet nic nezapomíná

Sdělení Janova evangelia, že na počátku bylo slovo, přestalo v době digitalizace platit. Slovo, tedy text, ztratilo v době fake news nejen exkluzivitu, ale i důvěryhodnost. Zprávy nejsou považované za zdroj informací, ale za pokus o dezinformaci a podvod. Navíc si nikdo nemůže být jistý, že to, co dnes bylo řečeno a odpovídá politické korektnosti, bude politicky korektní i v budoucnu. Internet nic nezapomíná a pravdivá, nebo zfalšovaná svědectví vydává i po několika letech.

Nikdo si nemůže být jistý, že to, co dnes bylo řečeno a odpovídá politické korektnosti, bude politicky korektní i v budoucnu. Internet nic nezapomíná a pravdivá, nebo zfalšovaná svědectví vydává i po několika letech.

Naposledy se o tom přesvědčil rakouský vicekancléř Heinz-Christian Strache, jehož pád odstartovalo tajně natočené video z roku 2017. Na události je pozoruhodné, že Strache ani další členové politické elity stále nepochopili, že žijí v digitální době. Nedostatek představivosti, že může být při setkání nahráván, zaráží. Strache v duchu 20. století tvrdí, že šlo o rozhovor pod vlivem alkoholu.

Čím více jsou politici zkorumpovaní, a klesá důvěra ve zpravodajství, tím více lidí věří konspiračním teoriím, což Deepfake převádí do obrazu. Dosavadní základy společenské komunikace nebo právní argumentace, například „očitý svědek“ či „viděl jsem to na vlastní oči“, nejsou důvěryhodné. Záznamy bezpečnostních kamer nebo rozhovory s politiky v době Deepfake zpochybňuje nedůvěra.

Lepší kontrola

Nedůvěra se stala součástí společnosti a tlačí na demokratické instituce. Profesor práva na Harvardově univerzitě Ronald Sullivan mladší společně se svou ženou Stephanie Robinsonovou jsou první Afroameričané ve vedení studentské koleje Wintroph House. Pracovní smlouva jim však nebude prodloužena, protože Sullivan se stal členem týmu obhájců filmového producenta Harveyho Weinsteina obviněného ze sexuálního obtěžování a znásilnění.

Společnost, která pochybuje, zda to, co čte, je pravdivé, a to, co vidí, reálné a není si jistá svou národní nebo osobní identitou, lze mnohem lépe kontrolovat než v autoritativních režimech, kde je represe daná

Argument, že i opovrženíhodný člen společnosti má právo na obhajobu, neuspěl a vedení Harvardovy univerzity se se Sullivanem rozloučilo. Znepokojuje, že se na americké akademické půdě nejen neprosadila zásada, že o trestní vině v právním státě rozhodují nezávislé soudy, ale že i vedení natolik důležité instituce, jako je Harvardova univerzita, se této neúctě k právu podřídilo.

Vedle nedůvěry k textu a obrazu existuje i nejistota ohledně vlastní identity. Být ženou nebo mužem nemá stejný společenský a biologický význam jako před několika lety, ale jde o sociální konstrukt, který neodráží, ale vytváří realitu. Společnost, která pochybuje, zda to, co čte, je pravdivé, a to, co vidí, reálné a není si jistá svou národní nebo osobní identitou, lze mnohem lépe kontrolovat než v autoritativních režimech, kde je represe daná.

Autor: