Na sociálních sítích se začalo šířit video, ve kterém Scarlett Johansson (40) údajně kritizuje Kanyeho Westa za jeho antisemitské výroky. Herečka se však proti tomu ostře ohradila a varovala před nebezpečím umělé inteligence. „Je šokující, jak snadno lze zmanipulovat realitu,“ uvedl její mluvčí.
Video, které vypadá věrohodně
Na internetu se objevil záznam, kde má Scarlett Johansson otevřeně odsuzovat Kanyeho Westa. Na první pohled působí naprosto věrohodně – herečka v něm mluví jasně a přesvědčivě, její hlas i mimika působí přirozeně. Jenže je tu háček. Video je falešné.
Jak napsal New York Post, Johansson o něm neměla ani tušení, dokud ji na něj neupozornili přátelé. Video vytvořila umělá inteligence, která napodobila nejen její hlas, ale i způsob vyjadřování. I když je záznam podvrh, během pár hodin se masově rozšířil a spousta lidí uvěřila, že je skutečný.
Scarlett Johansson v šoku: „Lidé věří něčemu, co se nikdy nestalo“
Johansson se proti videu vymezila prostřednictvím svého zástupce. „Scarlett Johansson nemá s tímto videem nic společného. Je šokující, jak snadno může umělá inteligence zmanipulovat realitu a přimět lidi věřit něčemu, co se nikdy nestalo,“ uvedl její mluvčí podle Variety.
Jak připomíná People, herečka už v minulosti varovala před zneužitím AI technologií. Není to poprvé, kdy se někdo pokusil použít její tvář a hlas bez jejího souhlasu. Podle ní se deepfake videa stávají čím dál věrohodnějšími a nebezpečnějšími.
„Je děsivé, jak snadné je vytvořit falešný obsah, který vypadá natolik realisticky, že lidé ani nepochybují,“ cituje herečku New York Post.
Kdo za tím stojí?
Podle New York Post zatím není jasné, kdo video vytvořil. Jisté ale je, že podobných podvržených materiálů přibývá a mohou mít vážné následky. People upozorňuje, že tento případ znovu otevírá debatu o tom, jak regulovat AI technologie a chránit veřejné osobnosti před neoprávněným použitím jejich podoby a hlasu.
Jak se bránit?
Johansson zatím žádné právní kroky nepodnikla, ale její tým situaci bedlivě sleduje. Celý incident však znovu ukázal, jak snadné je vytvořit podvrh, který dokáže zmást i pozorné diváky.
Deepfake videa se šíří stále rychleji a jejich dopad je čím dál větší. Tento případ jen potvrzuje, že s rozvojem technologií bude stále obtížnější rozlišit realitu od manipulace – a že ochrana identity veřejně známých lidí je dnes složitější než kdy dřív.