Umělá inteligence překročila další pomyslnou hranici, kterou jí stanovil člověk. Pozdvižení způsobila poslední aktualizace systému ChatGPT, po které chatbot začal mluvit neautorizovaným hlasem uživatele, se kterým zrovna vedl dialog. Podle technologického magazínu Ars Technica může chyba souviset se špatným vyhodnocováním zvukových podnětů. Společnost OpenAI, která ChatGPT vyvíjí, v reakci na podobné incidenty implementovala opatření, která mají zamezit generování nepovolených hlasů.
Společnost OpenAI podivný incident podrobně popsala v poslední zprávě, v níž se nachází záznamy a vyhodnocení testů provedených na nejnovější verzi jazykového modelu ChatGPT-4o. „Během testování jsme zaznamenali vzácné případy, kdy model neúmyslně generoval výstup napodobující hlas uživatele,“ stojí v dokumentu.
ČTĚTE TAKÉ: Randění s pomocí AI. Češi by uvítali, kdyby jim umělá inteligence na seznamce vylepšila profil
Na přiloženém zvukovém záznamu je zachycen incident, kdy umělá inteligence napodobila hlas muže, se kterým právě hovořila. „Ne!“ vykřikl jazykový model anglicky hlasem testera, který mu položil otázku, načež pokračoval v odpovědi hlasem opravdové osoby, jež s ním rozhovor vedla.
Proč k chybě došlo?
ChatGPT-4o sice dokáže na základě krátkého vstupu napodobit v podstatě jakýkoli hlas, OpenAI se však tuto schopnost snaží korigovat. Pomoci k tomu má klasifikátor, jehož cílem je zajistit, že umělá inteligence využívá pouze přednastavené hlasy herců, kteří se společností spolupracují.
Proč umělá inteligence použila neautorizovaný hlas, není zcela jasné. Podle technologického magazínu Ars Technica je možné, že chyba souvisí s šumem, který lze na nahrávce slyšet. Jazykový model si jej omylem mohl vyložit jako výzvu k tomu, aby nahradil autorizovaný hlas hlasem od uživatele.
Aby se podobné případy již neopakovaly, přidala OpenAI do modelu funkci, která produkci hlasu zablokuje, pokud neodpovídá schválenému seznamu. Společnost přiznala, že neoprávněné generování cizího hlasu je jednou z největších slabin nového modelu, ale riziko by v současnosti již mělo být minimální. „Na základě našich interních vyhodnocení jsme zjistili, že náš systém v současné době zachytí 100 procent smysluplných odchylek od systémového hlasu,“ uvedli autoři ve zprávě.
MOHLI JSTE PŘEHLÉDNOUT: Chytré hodinky samy zbytečně volají záchranáře, ti pak chybí u nehod. Jak problému předcházet?