Videa s umělou inteligencí zaplavila sociální sítě. Nikdo na to nebyl připravený


Aplikace jako Sora od OpenAI klamou miliony uživatelů, kteří si myslí, že videa vytvořená umělou inteligencí jsou skutečná, i když obsahují varovné štítky. Ukazuje se tak, jak snadno lze v dnešní době lidi manipulovat. Podle odborníků se za dva měsíce od uvedení aplikace Sora na trh objevila řada podvodných videí na TikToku, síti X, YouTube, Facebooku a Instagramu. Tato záplava vyvolala obavy z nové generace dezinformací a padělků, píše web New York Times.

Většina velkých společností provozujících sociální sítě má zásady, které vyžadují oznámení použití umělé inteligence a obecně zakazují obsah určený k oklamání. Tyto ochranné mechanismy se však v poslední době ukazují jako nedostatečné vzhledem k technologickému pokroku, který představují nástroje OpenAI, píše web New York Times.

MOHLO BY VÁS ZAJÍMAT: Kurýři jako roboti. Obědy v pražském Karlíně doručují autonomní vozítka

Zatímco mnoho videí jsou hloupé memy nebo roztomilé, ale falešné obrázky dětí a domácích mazlíčků, jiné mají za cíl podněcovat nenávist, která často charakterizuje politickou debatu na internetu. Objevily se například v zahraničních operacích, jako je například probíhající kampaň Ruska zaměřená na diskreditaci Ukrajiny.

Falešná videa byla použita také k zesměšnění prezidenta Donalda Trumpa. Jedno video na TikToku ukazovalo Bílý dům, přičemž hlas, který v něm mluvil, zněl jako americký prezident. Ve videu se objevily nadávky, které mířily na Trumpův kabinet kvůli zveřejnění dokumentů týkajících se Jeffreyho Epsteina, zneuctěného finančníka a odsouzeného sexuálního delikventa. Podle společnosti NewsGuard, která sleduje dezinformace, bylo video, které nebylo označeno jako AI, zhlédnuto během několika dní více než třemi miliony lidí.

Vědci volají po zlepšení podmínek

Vědci, kteří se zabývají podvodným používáním videí, uvedli, že nyní je na společnostech, aby udělaly více pro to, aby lidé věděli, co je skutečné a co není. „Mohly by se zlepšit v moderování obsahu, pokud jde o dezinformace a nepravdivé informace. Je jasné, že to nedělají,“ řekl Sam Gregory, výkonný ředitel organizace Witness, která se zabývá lidskými právy a zaměřuje se na hrozby spojené s technologiemi. „Mohly by se také více snažit o proaktivní vyhledávání informací generovaných umělou inteligencí a jejich označování,“ dodal.

Dosud se platformy spoléhaly hlavně na to, že tvůrci sami uvedou, že obsah, který zveřejňují, není skutečný. Ti tak ale nečiní vždy. Ačkoli existují způsoby, jak platformy jako YouTube, TikTok a další mohou detekovat, že video bylo vytvořeno pomocí umělé inteligence, ne vždy na to diváky hned upozorní. „Měli by být připraveni,“ řekla o společnostech provozujících sociální média Nabiha Syedová, výkonná ředitelka Mozilla Foundation, neziskové organizace zabývající se bezpečností technologií, která stojí za prohlížečem Firefox.

Společnosti stojící za nástroji umělé inteligence tvrdí, že se snaží uživatelům jasně sdělit, jaký obsah je generován počítači. Sora i konkurenční nástroj nabízený společností Google s názvem Veo vkládají do videí, která produkují, viditelný vodoznak. Sora například na každé video umisťuje štítek „Sora“. Obě společnosti také přidávají neviditelná metadata, která lze přečíst počítačem a která určují původ každého padělku. Cílem je informovat lidi, že to, co vidí, není skutečné, a poskytnout platformám, které je zobrazují, digitální signály pro jejich automatickou detekci.

TikTok, zřejmě v reakci na obavy ohledně přesvědčivosti falešných videí, minulý týden oznámil, že zpřísní pravidla týkající se zveřejňování informací o používání umělé inteligence. Slíbil také, že vytvoří nové nástroje, které uživatelům umožní rozhodnout, kolik syntetického – na rozdíl od skutečného – obsahu chtějí. YouTube připojuje malý štítek, který označuje, že videa vytvořená umělou inteligencí byla „upravena“. „Diváci stále více požadují větší transparentnost ohledně toho, zda je obsah, který sledují, upravený nebo syntetický,“ řekl Jack Malon, mluvčí YouTube. Štítky se však někdy mohou objevit až poté, co videa již zhlédly tisíce nebo dokonce miliony lidí, a někdy se dokonce neobjeví vůbec.

Řešení vyžaduje úsilí celého ekosystému

Web The New York Times jedno z videí analyzoval a zjistil, že téměř dvě třetiny z více než 3 000 uživatelů, kteří video komentovali, reagovaly, jako by bylo skutečné. Nepravé účty – včetně těch řízených zahraničními či škodlivými aktéry – výrazně ovlivňují šíření obsahu na sociálních sítích. Nebylo však jasné, zda hrály roli i v diskusích kolem těchto videí. Společnost OpenAI ve svém prohlášení uvedla, že zakazuje klamavé nebo zavádějící používání aplikace Sora a podniká kroky proti porušovatelům zásad. Společnost také podotkla, že její aplikace je jen jednou z desítek podobných nástrojů schopných vytvářet stále realističtější videa – z nichž mnohé nepoužívají žádná bezpečnostní opatření ani omezení použití. „Videa generovaná umělou inteligencí jsou vytvářena a sdílená prostřednictvím mnoha různých nástrojů, takže řešení klamavého obsahu vyžaduje úsilí celého ekosystému,“ uvedla společnost.

Mluvčí společnosti Meta, která vlastní Facebook a Instagram, uvedl, že není vždy možné označit každé video generované umělou inteligencí, zejména proto, že se tato technologie rychle vyvíjí. Společnost podle mluvčího pracuje na vylepšení systémů pro označování obsahu.

Alon Yamin, generální ředitel společnosti Copyleaks, která detekuje obsah vytvořený umělou inteligencí, podotkl, že sociální média nemají žádný finanční zájem omezovat šíření těchto videí, dokud na ně uživatelé klikají. „Z dlouhodobého hlediska, jakmile 90 procent provozu obsahu na vaší platformě tvoří umělá inteligence, vyvstávají otázky ohledně kvality platformy a obsahu,“ řekl pan Yamin. „Z dlouhodobého hlediska tedy možná budou existovat větší finanční pobídky k moderování obsahu vytvořeného umělou inteligencí. Z krátkodobého hlediska to však není hlavní priorita,“ sdělil.

Dva bývalí úředníci dnes již zrušeného úřadu ministerstva zahraničí, který bojoval proti zahraničním vlivovým operacím, James P. Rubin a Darjan Vujica, v článku v časopise Foreign Affairs uvedli, že pokroky v oblasti umělé inteligence zesilují snahy o podkopání demokratických zemí a rozdělení společností. Popsali příklad videí vytvořených umělou inteligencí v Indii, která haněla muslimy, aby podnítila náboženské napětí. Jedno z nedávných videí na TikToku ukazovalo muže, který na ulici připravoval rýži s vodou z kanálu. Ačkoli video mělo vodoznak Sora a jeho autor uvedl, že bylo vytvořeno umělou inteligencí, bylo široce sdíleno na síti X a Facebooku a uživatelé ho komentovali, jako by bylo skutečné.

MOHLO VÁM UNIKNOUT: Ruský trapas. Robot chodil jako opilý, pak se skácel k zemi. Videu se smějí i v Moskvě