Uživatelé Facebooku upozornili na automatickou výzvu, která je vybízela v pokračování sledování „videí o primátech“. Tato věta však byla použita u snímku, na němž byli Afroameričané ve střetu s bělochy a policisty. Představitelé sociální sítě se za chybu algoritmu omluvili a selhání umělé inteligence prý začali vyšetřovat.
Za svou chybu se společnost omluvila v pátek. Video z 27. června 2020 na sociální sítě nahrál deník Daily Mail, se zvířaty – konkrétně opicemi – nemělo nic společného. Přesto algoritmus uživatelům nabízel „další klipy s primáty.“ Na chybu Facebook upozornila bývala manažerka designu společnosti Darci Grovesová.
Té poslal její přítel snímek obrazovky s touto výzvou, následně jej přeposlala do fóra pro zpětnou vazbu, která sdružuje bývalé i současné zaměstnance Facebooku. Mluvčí společnosti Dani Leverová uvedla, že se jednalo o chybu umělé inteligence, nikoliv záměr, píše web New York Times.
„Jak jsme již uvedli, ačkoliv jsme naši umělou inteligenci vylepšili, víme, že není dokonalá a že má před sebou další vývoj. Omlouváme se všem, kteří urážlivé doporučení zaznamenali,“ uvedla. Společnost následně označení popsalo jako nepřijatelnou chybu. Technologické společnosti jsou již několik let pod drobnohledem v otázce předpojatosti v rámci svých systémů umělé inteligence. Zejména pak v souvislosti s rasovými otázkami.
Omylů je více
Studie totiž ukázaly, že jsou technologie rozpoznávání obličejů nepřesné v případě lidí s tmavou pletí a má problém je identifikovat. To vedlo mnohdy k tomu, že byli Afroameričané zatčeni nebo diskriminování kvůli chybě počítače. Jedním z příkladů je skandál společnosti Google, který v roce 2015 omylem označil fotografii černocha za gorilu. Společnost se za tento omyl omluvila a slíbila, že bude pracovat na nápravě.
Web Wired však o více než dva roky později zjistil, že řešením společnosti byla cenzura slova gorila ve vyhledávání a zablokováním slov „šimpanz či opice“. V roce 2016 pak skandálu čelila společnost Microsoft. Kvůli chybě museli ze sociálních sítích stáhnout robota, který měl pomoci v komunikaci s uživateli. Důvod? Stal se z něj oplzlý nacista, píše web cbsnews.com.
Takzvaný chatbot „Tay“ měl rozvíjet konverzaci s lidmi tím, že se průběžně učil z příspěvků ostatních uživatelů Twitteru. Toho však zneužili takzvaní „trolové“, kteří psali vulgární a oplzlé zprávy. Jen den po spuštění tak musel Microsoft chatbota stáhnout. Začal totiž psát vzkazy typu: „Hitler měl pravdu, nenávidím Židy”, „Ted Cruz je kubánský Hitler“ či „Ať žije vůdce chlapců z domova důchodců“. Poslední narážka byla cílená na bývalého prezidenta USA Donalda Trumpa.
Veškeré příspěvky byly následně ze sociální sítě staženy a společnost se kála. „Hluboce se omlouváme za neúmyslně urážlivé a zraňující tweety od Tay, které nereprezentují naše názory a postoje. Tay je nyní mimo provoz,“ uvedl Microsoft v prohlášení. Mnozí lidé se však divili, že s takovou reakcí uživatelů vývojáři nepočítali.