
Falešný rozhovor s Jiřím Procházkou, podvodníci použili AI nástroje
Sociálními sítěmi se opět šíří finanční podvod, který zneužívá obsah CNN Prima NEWS i jméno bojovníka Jiřího Procházky. Ten po úpravě hlasu za pomocí nástrojů umělé inteligence tvrdí, že „rozdá fanouškům 50 milionů korun“, ve skutečnosti ale může příliš důvěřivé lidi připravit o peníze. A s čím dál větší dostupností nástrojů umělé inteligence se podobná podvodná videa budou objevovat čím dál častěji. „To je všeobecně jedno z rizik AI – každý se může najednou stát expertem, včetně podvodníků,“ varoval Andrej Jenčo, specialista na umělou inteligenci ze společnosti Millennium.
Podvodníci opět zneužili videorozhovor z Vídně, který publikovala redakce CNN Prima NEWS loni v květnu. V něm hlas českého samuraje sliboval, že „rozdá mezi svými fanoušky 50 milionů korun přes svou mobilní aplikaci“ jako gesto po svém vítězství v UFC. Rozhovor doprovázely doplňující záběry českých bankovek i ukázka sázkové hry Perfect Game, která ve skutečnosti obere nepozorné lidi o peníze. Jak reportér Ondřej Němec, tak Jiří Procházka zní velice autenticky.
MOHLO VÁM UNIKNOUT: Pozor, kyberpodvodníci zneužívají Stanjuru a CNN Prima NEWS. Lákají na falešné investice
„Video, které vidíme, není celé generované umělou inteligencí. Je tam nějaká snaha o změnu hlasové stopy a úpravu mimiky, aby to vypadalo, že daná osoba opravdu říká to, co říká. S mimikou ale má AI problém. A co se týče obsahu, to je přesně výzva dnešní doby – objem informací, který na nás teče, za posledních 20 let narostl astronomickým způsobem. Vidíme, že všeobecně máme problém je vyhodnocovat a ověřovat si je,“ řekl Jenčo redakci CNN Prima NEWS.
Vyzval proto k obezřetnosti, mnohdy stačí jednoduchá úvaha ve správném kontextu – a nemusí se to týkat jen deepfake videí s Procházkou, ale například deepfake podvodům s prezidentem Petrem Pavlem. „Je prezident oprávněný propagovat nějaký produkt nebo slevu? Co to video říká, co po mně chce, abych udělal?“ pokračoval odborník na AI.
Pozor na prsty a mimiku
Doporučil také se zaměřit na části videa, s nimiž má umělá inteligence větší problémy. „Typickou věcí jsou prsty, toho si všimne většina lidí, i když se ty AI modely zlepšují. Dále mohou být ve videu objekty, které tam nepatří, zašumělé přechody,“ dodal. Samotnou indicií může ovšem být i informace šířená ve videích, která se snaží šokovat a překrucuje již existující skutečnost.
Velkým problémem je také samotný fakt, že AI nástroje všech druhů jsou v současnosti nejen dostupné, ale také poměrně jednoduché k osvojení. „Potřebujete jen ovládat některý z nástrojů, které jsou dostupné pro široké spektrum lidí. To je všeobecně jedno z rizik AI – každý se může najednou stát expertem, včetně podvodníků,“ varoval.
Firmy, média i veřejně známé osoby by se podle Jenča měly aktivně zapojovat do osvěty a případně upozornit veřejnost, když se někdo pokusí zneužít jejich jméno. „Například bankovní instituce to dnes aktivně dělají. Informují klienty o tom, že se někdo za ně snaží vydávat a připravit vás o peníze,“ uzavřel expert na umělou inteligenci.
MOHLO VÁM UNIKNOUT: Podvodnici z Ostravska dopadli v dovolenkovém ráji. Z lidí stačila vytahat miliony