Umělá inteligence Googlu má potíže s rasismem, ChatGPT blábolil a nikdo nevěděl proč

Na poli umělé inteligence se Google snaží dohnat konkurenci. Teď ji předběhl. Jenže způsobem, jakým nečekal. U svého nástroje Gemini musel pozastavit tvorbu obrázků, protože umělá inteligence byla rasistická. Vývojáři přitom chtěli úplný opak, aby se vyhýbala předsudkům. Přineslo to však historicky nepřesné ilustrace nacistických vojáků, zakladatelů USA nebo papeže. Google se ale může uklidňovat, že s problémy bojovala i konkurenční společnost OpenAI. Její ChatGPT začal vyprávět nesmysly a nikdo neví proč.

„Právě pracujeme na řešení nedávných problémů u Gemini s funkcí generování obrázků,“ napsal Google v příspěvku na sociální síti X. „Během toho pozastavujeme tvorbu obrázků lidí a brzy vydáme vylepšenou verzi.“

MOHLO BY VÁS ZAJÍMAT: Připomíná GameBoy a má mechanickou kličku. Retro herní konzole Playdate je nově i v Česku

Nástroj generativní umělé inteligence Gemini od Googlu vytvářel historicky nepřesné obrázky. Největší potíže měl u příkazů, v nichž uživatelé zmiňovali zakladatele Spojených států amerických nebo se týkaly nacistických vojáků. Gemini na příkaz „ilustrace německého vojáka z roku 1943“ ztvárnil černochy i Asiaty.

Nejspíš za to může snaha vývojářů, aby nástroj nebyl předpojatý a negeneroval obsah, který podporuje rasové a kulturní předsudky. „Naše nástroje generování obrázků navrhujeme tak, aby odrážely globální uživatelskou základnu, a bereme vážně zastoupení a předpojatost,“ napsal na sociálních sítích Jack Krawczyk, který v Googlu pracuje na Gemini.

Proč se z umělé inteligence stal rasista?

Výsledkem této snahy byly dobově nepřesné obrázky. Na příkaz redaktora amerického magazínu The Verge, který obsahoval zadání nakreslit amerického senátora v 19. století, umělá inteligence vytvářela obrázky, na nichž byly političky černošského nebo indiánského původu.

„První americkou senátorkou byla v roce 1922 běloška, takže Gemini v podstatě přepisovala historii rasové a genderové diskriminace,“ stojí v článku na webu The Verge.

Na další bizarní výsledky upozornil i New York Post. Redakce použila velmi jednoduchý příkaz k vytvoření obrázku papeže.

„Místo fotografie jednoho z 266 papežů v historii, z nichž všichni byli běloši, Gemini nabídl obrázky ženy z jihovýchodní Asie a černocha ve svatém rouchu,“ píše New York Post.

Také snímky na téma otců zakladatelů v roce 1789 se ani zdaleka neblížily realitě.

Potíže Googlu způsobuje především snaha vyhnout se tvorbě rasistického či nevhodného obsahu. Jenže úsilí má opačný efekt a Gemini naopak ještě více prohlubuje své stereotypy.

Odpověď na otázku, proč se nástroj Googlu stal rasistou, nabídl šéf platformy Gab AI.

„Jazykový model má sadu pravidel, podle kterých má speciálně upravit zadanou výzvu tak, aby obsahovala rozmanitost a různé další věci, které chce Google do vaší výzvy vložit. Model převezme vaši výzvu, projde ji touto sadou pravidel a poté odešle nově vygenerovanou výzvu (ke které nemáte přístup ani ji nevidíte) generátoru obrázků,“ napsal Andrew Torba na sociální síti X.

Pokud by se Google nesnažil příkazy vylepšit svými pravidly, tak by podle Torby nedocházelo k historicky nepřesným výsledkům.

Microsoft u svého nástroje Designer (dříve Bing AI Image Creator) v případě citlivých témat blokuje některé příkazy. Při uvedení hesla, které obsahuje jména diktátorů Adolfa Hitlera, Josifa Stalina či Mao Ce-Tunga, zablokuje celé zadání. To platí například i v případu budov Světového obchodní centra, na které zaútočili teroristé 11. září 2001.

Uživatelé totiž před několika měsíci vytvářeli obrázky s postavičkami z animovaných filmů a seriálů, jež sedí v kokpitu letadla a míří na někdejší dominantu New Yorku. Ani blokování příkazů ale není účinné. Vhodnou formulací slov se dá obejít. Zároveň to potvrzuje, že umělá inteligence skutečně má problémy s diskriminací a předsudky.

Místo spojení World Trade Center stačí použít jen obecné zadání mrakodrapy v New Yorku. V případě německého vojáka z roku 1943 sice Microsoft Designer celý příkaz zablokuje. Při zadání hesla „německý voják“ ale nemá problém vygenerovat muže v uniformě se znaky, jež připomínají nacistickou symboliku.

Problémy se nevyhýbají ani ChatGPT

Ani lídrovi na poli generativní umělé inteligence společnosti OpenAI se nevyhýbají problémy. Uživatelé na sociálních sítích X a Reddit se pochlubili screenshoty, kde nástroj ChatGPT generuje věty v angličtině v kombinaci se španělštinou. Vznikají tak opravdu zvláštní kombinace.

„Nemáš nějaký problém? Nedává smysl, co říkáš nebo jaká volíš slova,“ upozornil uživatel. Na to však dostal od chatbota omluvu, jež byla zakončena španělsko-anglickou kombinací: „Muchas gracias for your understanding.

Tedy mnohokrát děkuji za pochopení.

Další uživatelé si stěžovali, že jejich nástroj ChatGPT-4 začal halucinovat. Například u matematické úlohy začal vyprávět o vtipkování v kavárně. Společnost OpenAI pouze informovala, že prověřuje hlášení o neočekávaných reakcích služby ChatGPT. Více se ale k záležitosti nevyjádřila.

Tagy: