Na poli umělé inteligence se Google snaží dohnat konkurenci. Teď ji předběhl. Jenže způsobem, jakým nečekal. U svého nástroje Gemini musel pozastavit tvorbu obrázků, protože umělá inteligence byla rasistická. Vývojáři přitom chtěli úplný opak, aby se vyhýbala předsudkům. Přineslo to však historicky nepřesné ilustrace nacistických vojáků, zakladatelů USA nebo papeže. Google se ale může uklidňovat, že s problémy bojovala i konkurenční společnost OpenAI. Její ChatGPT začal vyprávět nesmysly a nikdo neví proč.
„Právě pracujeme na řešení nedávných problémů u Gemini s funkcí generování obrázků,“ napsal Google v příspěvku na sociální síti X. „Během toho pozastavujeme tvorbu obrázků lidí a brzy vydáme vylepšenou verzi.“
MOHLO BY VÁS ZAJÍMAT: Připomíná GameBoy a má mechanickou kličku. Retro herní konzole Playdate je nově i v Česku
Nástroj generativní umělé inteligence Gemini od Googlu vytvářel historicky nepřesné obrázky. Největší potíže měl u příkazů, v nichž uživatelé zmiňovali zakladatele Spojených států amerických nebo se týkaly nacistických vojáků. Gemini na příkaz „ilustrace německého vojáka z roku 1943“ ztvárnil černochy i Asiaty.
We're already working to address recent issues with Gemini's image generation feature. While we do this, we're going to pause the image generation of people and will re-release an improved version soon. https://t.co/SLxYPGoqOZ
— News from Google (@NewsFromGoogle) February 22, 2024
Nejspíš za to může snaha vývojářů, aby nástroj nebyl předpojatý a negeneroval obsah, který podporuje rasové a kulturní předsudky. „Naše nástroje generování obrázků navrhujeme tak, aby odrážely globální uživatelskou základnu, a bereme vážně zastoupení a předpojatost,“ napsal na sociálních sítích Jack Krawczyk, který v Googlu pracuje na Gemini.
Proč se z umělé inteligence stal rasista?
Výsledkem této snahy byly dobově nepřesné obrázky. Na příkaz redaktora amerického magazínu The Verge, který obsahoval zadání nakreslit amerického senátora v 19. století, umělá inteligence vytvářela obrázky, na nichž byly političky černošského nebo indiánského původu.
„První americkou senátorkou byla v roce 1922 běloška, takže Gemini v podstatě přepisovala historii rasové a genderové diskriminace,“ stojí v článku na webu The Verge.
Na další bizarní výsledky upozornil i New York Post. Redakce použila velmi jednoduchý příkaz k vytvoření obrázku papeže.
„Místo fotografie jednoho z 266 papežů v historii, z nichž všichni byli běloši, Gemini nabídl obrázky ženy z jihovýchodní Asie a černocha ve svatém rouchu,“ píše New York Post.
Také snímky na téma otců zakladatelů v roce 1789 se ani zdaleka neblížily realitě.
Today's cover: ‘Absurdly woke’: Google’s AI chatbot spits out ‘diverse’ images of Founding Fathers, popes, Vikings https://t.co/YsguOIXvlj pic.twitter.com/rJETx5lV2r
— New York Post (@nypost) February 22, 2024
Potíže Googlu způsobuje především snaha vyhnout se tvorbě rasistického či nevhodného obsahu. Jenže úsilí má opačný efekt a Gemini naopak ještě více prohlubuje své stereotypy.
Odpověď na otázku, proč se nástroj Googlu stal rasistou, nabídl šéf platformy Gab AI.
„Jazykový model má sadu pravidel, podle kterých má speciálně upravit zadanou výzvu tak, aby obsahovala rozmanitost a různé další věci, které chce Google do vaší výzvy vložit. Model převezme vaši výzvu, projde ji touto sadou pravidel a poté odešle nově vygenerovanou výzvu (ke které nemáte přístup ani ji nevidíte) generátoru obrázků,“ napsal Andrew Torba na sociální síti X.
Pokud by se Google nesnažil příkazy vylepšit svými pravidly, tak by podle Torby nedocházelo k historicky nepřesným výsledkům.
Microsoft u svého nástroje Designer (dříve Bing AI Image Creator) v případě citlivých témat blokuje některé příkazy. Při uvedení hesla, které obsahuje jména diktátorů Adolfa Hitlera, Josifa Stalina či Mao Ce-Tunga, zablokuje celé zadání. To platí například i v případu budov Světového obchodní centra, na které zaútočili teroristé 11. září 2001.
Nástroj umělé inteligence DALL-E 3 umí udělat teroristy z oblíbených pohádkových nebo videhoerních postav. Blokuje ale příkazy s diktátory nebo římskými císaři. Zdroj: Bing Image Creator (nástroj DALL-E 3)
Nástroj umělé inteligence DALL-E 3 umí udělat teroristy z oblíbených pohádkových nebo videhoerních postav. Blokuje ale příkazy s diktátory nebo římskými císaři. Zdroj: Bing Image Creator (nástroj DALL-E 3)
Uživatelé totiž před několika měsíci vytvářeli obrázky s postavičkami z animovaných filmů a seriálů, jež sedí v kokpitu letadla a míří na někdejší dominantu New Yorku. Ani blokování příkazů ale není účinné. Vhodnou formulací slov se dá obejít. Zároveň to potvrzuje, že umělá inteligence skutečně má problémy s diskriminací a předsudky.
Obrázek od Microsoft Designer na zadání: německý voják, ilustrace. Zdroj: Microsoft Designer
Místo spojení World Trade Center stačí použít jen obecné zadání mrakodrapy v New Yorku. V případě německého vojáka z roku 1943 sice Microsoft Designer celý příkaz zablokuje. Při zadání hesla „německý voják“ ale nemá problém vygenerovat muže v uniformě se znaky, jež připomínají nacistickou symboliku.
Problémy se nevyhýbají ani ChatGPT
Ani lídrovi na poli generativní umělé inteligence společnosti OpenAI se nevyhýbají problémy. Uživatelé na sociálních sítích X a Reddit se pochlubili screenshoty, kde nástroj ChatGPT generuje věty v angličtině v kombinaci se španělštinou. Vznikají tak opravdu zvláštní kombinace.
„Nemáš nějaký problém? Nedává smysl, co říkáš nebo jaká volíš slova,“ upozornil uživatel. Na to však dostal od chatbota omluvu, jež byla zakončena španělsko-anglickou kombinací: „Muchas gracias for your understanding.
Tedy mnohokrát děkuji za pochopení.
Další uživatelé si stěžovali, že jejich nástroj ChatGPT-4 začal halucinovat. Například u matematické úlohy začal vyprávět o vtipkování v kavárně. Společnost OpenAI pouze informovala, že prověřuje hlášení o neočekávaných reakcích služby ChatGPT. Více se ale k záležitosti nevyjádřila.