
Prodejům aut se daří nejvíce za posledních pět let. Zlato drží Škoda, nejvíce rostl Ford
Starší modely umělé inteligence mají více „levičáckou“ orientaci, uvedl ve vysílání CNN Prima NEWS ředitel datového úseku skupiny Prima Jan Lajka. Připomněl, že před vypuštěním systému AI do světa anotuje velké množství lidí, jejichž přesvědčení se otiskne do postupů modelu. Lajka mimo jiné zmínil případ, kdy vývojáři pohrozili technologii smazáním, pokud nezačne „páchat zlo“.
Sociálními sítěmi se opět šíří finanční podvod, který zneužívá obsah CNN Prima NEWS i jméno bojovníka Jiřího Procházky. Ten po úpravě hlasu za pomocí nástrojů umělé inteligence tvrdí, že „rozdá fanouškům 50 milionů korun“, ve skutečnosti ale může příliš důvěřivé lidi připravit o peníze. A s čím dál větší dostupností nástrojů umělé inteligence se podobná podvodná videa budou objevovat čím dál častěji. „To je všeobecně jedno z rizik AI – každý se může najednou stát expertem, včetně podvodníků,“ varoval Andrej Jenčo, specialista na umělou inteligenci ze společnosti Millennium.
Rozvoj umělé inteligence a na ní založených chatovacích botů se projevuje nejen ve světě technologií, ale také v lidském soukromí. Někteří lidé s AI probírají složité vztahy se svými blízkými nebo ulehčují svému svědomí. Podle sociologa Vojtěcha Bednáře může být takové chování nesmírně nebezpečné. Popsal, proč člověk ztrácí obvyklé zábrany, když se svěřuje umělé inteligenci. Co však tato technologie nikdy nenabídne?
Provozovatel Facebooku a Instagramu plánuje navrátit funkci rozpoznávání tváří. Od technologie si slibuje lepší boj s podvodnými reklamami využívající identity celebrit a též větší zabezpečení účtů svých uživatelů. Staronový systém však budí kontroverze ohledně zneužití, píše web ABC.
Jak by si vláda premiéra Petra Fialy (ODS) vedla ve známkování jako ve škole? Šlo by o „typického“ trojkaře. Připomíná to průzkum, který ukázala agentura STEM na úterní tiskové konferenci Centra pro informovanou společnost (CIS). Zatímco nejvíce jedniček kabinet nasbíral díky postoji k Izraeli nebo odvaze „činit nepopulární kroky“, pětky naopak obdržel za boj s rostoucími cenami potravin či krocení státního dluhu. Špatně ovšem dopadla i komunikace směrem k občanům, u čehož CIS zdůraznil, že je jedním z důvodů, proč se Česku nedaří potírat dezinformace a hybridní hrozby.
„Děkuji, že jste jako vaši soudruzi na Slovensku,“ vzkazuje ruský prezident Vladimir Putin v deepfake videu, které připravilo Centrum pro informovanou společnost (CIS). Chce tím upozornit na nebezpečí hybridních hrozeb a na nepříliš efektivní boj českých úřadů s dezinformacemi. Experti upozorňují na slovenský scénář, v němž hybridní kampaně měly velký vliv i na volby. Podle nich může Česku příští rok hrozit obdobný průběh.
Investujte své úspory, nainstalujte si novou aplikaci a užívejte si pohádkové příjmy prakticky bez práce. Těmito lákavými slovy podvodníci nabádají nepozorné lidi na internetu a zneužívají i tváře CNN Prima NEWS prostřednictvím deepfake videí. A bohužel, používají čím dál pokročilejší nástroje, které moderátorům i reportérům klonují hlas a vkládají jim do úst vlastní slova. Jak falešná videa poznat? Na co si dát pozor? Redakce CNN Prima NEWS připravila ve spolupráci s experty pět základních rad, kterých byste se měli držet, abyste se nestali obětí podvodu.
Deepfake. Pojem, který s čím dál dostupnějšími a sofistikovanějšími technologiemi dělá vrásky na čele nejen expertům, ale i politikům. S blížícími se evropskými volbami tomu nebude jinak – dezinformační kampaně se už nyní ve velkém spoléhají na videa s upraveným obrazem i naklonovaným hlasem kandidátů. Navíc jde o opovážlivě levnou službu. „Ceny začínají na dvou dolarech za video, za 100 dolarů si lze zaplatit více videí a pokusů. Vytváření podvodného obsahu je tak znepokojivě dostupné,“ varují odborníci z kyberbezpečnostní agentury Check Point.
Rozdávám 50 milionů korun, láká údajně MMA bijec Jiří Procházka v rozhovoru pro CNN Prima NEWS. Ve skutečnosti ovšem jde o falešné video, které má z příliš důvěřivých lidí vylákat peníze. Podvodníci použili nástroje umělé inteligence, aby téměř perfektně replikovali hlas zúčastněných. Jak se vyvarovat podobných podvodů? Klíčové faktory popsal redakci CNN Prima NEWS Tomáš Hubínek, expert na AI a ředitel technologické společnosti BigHub.
Ke tvorbě deepfake videa stačí dvě minuty, přiblížila ve vysílání CNN Prima NEWS Barbara Zitová, vedoucí oddělení zpracování obrazové informace ÚTIA AV ČR. Zdůraznila však, že aplikace vyžadují zpravidla povolení, takže není možné použít k podvodnému videu „kohokoliv, kdo je na internetu“. Expertka rovněž popsala, jak může umělá inteligence pomoci v objasňování snímků s UFO.
Multiplatforma CNN Prima NEWS vytáhla do boje proti takzvaným deepfake videím. Moderátorka Pavlína Wolfová podobně jako její další kolegové se stala nechtěným nástrojem podvodníků využívajících takzvanou umělou inteligenci k oklamání lidí. Nyní moderátorka varuje v novém spotu veřejnost před propracovanými metodami internetových zlodějů. V posledních měsících byla terčem nekalých praktik i samotná značka CNN Prima NEWS. Také proto redakce varuje co největší množství lidí, aby šmejdům lačnícím po penězích důvěřivých lidí ideálně nikdo nenaletěl.
Většina Čechů neví, co znamená pojem deepfake. Deepfake je zdánlivě reálný, umělou inteligencí vytvořený obraz, zvuk nebo video, které se nezakládá na pravdě. Populace má i poměrně nízké povědomí o tom, jak fungují jazykové modely založené na umělé inteligenci, jako je ChatGPT. Vyplývá to z průzkumu, který pro Středoevropskou observatoř digitálních médií (CEDMO) při Univerzitě Karlově udělala agentura Median. Zúčastnilo se ho přes tři tisíce lidí starších 16 let. O průzkum informovali zástupci CEDMO.