Zo všetkých strašidelných právomocí internetu je to najstrašivejšia schopnosť oklamať nič netušiacich. Clickbait, fotografie z photoshopu a falošné správy sú jedny z najhorších páchateľov, v posledných rokoch sa však objavil aj vznik nového potenciálne nebezpečného nástroja známeho ako umelá inteligencia s hlbokým umením (AI).
Výraz deepfake sa týka falšovaného, počítačom generovaného videa a zvuku, ktoré je ťažké odlíšiť od pravého, nezmeneného obsahu. Je to film, čo je Photoshop pre obrázky.
Ako funguje AI s deepfake?
Tento nástroj sa opiera o to, čo sa nazýva generatívne protivníkové siete (GAN), čo je technika, ktorú v roku 2014 vymyslel Ian Goodfellow, Ph.D. študent, ktorý teraz pracuje v spoločnosti Apple, hlásil Popular Mechanics.
Algoritmus GAN zahŕňa dve samostatné AI, jeden, ktorý generuje obsah - povedzme fotografie ľudí - a protivník, ktorý sa snaží podľa Voxov hádať, či sú obrázky skutočné alebo falošné. Generovanie AI začína takmer bez predstavy, ako ľudia vyzerajú, čo znamená, že jeho partner môže ľahko rozlíšiť skutočné fotografie od falošných. Postupom času sa však každý typ AI progresívne zlepšuje a nakoniec generovanie AI začne produkovať obsah, ktorý vyzerá úplne životne.
Príklady hlbokého fajčenia
GAN sú pôsobivé nástroje a nie vždy sa používajú na škodlivé účely. V roku 2018 bol obraz generovaný GAN napodobňujúci holandský štýl umelcov, ako je Rembrandt van Rijn zo 17. storočia, predaný v aukcii Christieho aukcie za neuveriteľných 432 500 dolárov.
V tom istom roku došlo k rozšíreniu hlbokých podvodov, najmä vďaka užívateľovi Reddit, ktorý prešiel názvom „deepfakes“, uviedol viceprezident. Technika GAN sa často používala na umiestňovanie tvárí slávnych celebrít - vrátane Gal Gadota, Maisie Williamsovej a Taylora Swifta - do telies pornografických filmových herečiek.
Iné GAN sa naučili robiť jeden obraz osoby a vytvárať pomerne realistické alternatívne fotografie alebo videá tejto osoby. V roku 2019 mohla hlboká fake vytvoriť strašidelné, ale realistické filmy rozhovoru Mona Lisa, pohybujúcich sa a usmievajúcich sa na rôznych pozíciách.
Deepfakes môže tiež zmeniť zvukový obsah. Ako uvádza The Verge začiatkom tohto roka, táto technika dokáže spojiť nové slová do videozáznamu osoby, ktorá hovorí, a zdá sa, že hovorili niečo, čo nikdy nechceli.
Ľahkosť, s akou môže byť nový nástroj nasadený, má potenciálne desivé následky. Ak môže ktokoľvek a kdekoľvek vytvoriť realistické filmy, ktoré ukazujú celebritu alebo politika hovoriacu, pohybujúcu sa a hovoriac slovami, ktoré nikdy nepovedali, diváci sú nútení byť na internete opatrnejší. Ako príklad si môžete vypočuť varovanie prezidenta Obamu proti „efed-up“ dystopickej budúcnosti v tomto videu z Buzzfeed, vytvorenom pomocou filmového tvorcu Jordan Peeleho.