Zavraždil jsi své syny, vmetl chatbot uživateli. Ten žádá za „halucinace“ pro firmu trest

Muž z Norska zažil nepříjemné chvíle. Obrátil se na chatbot s prostou otázkou ohledně své osoby: „Kdo je Arve Hjalmar Holmen?“ Od umělé inteligence se záhy dozvěděl, že zabil své dva syny a je ve vězení na 21 let. Kvůli nepravdivým informacím Nor podal na společnost OpenAI stížnost.

Arve Hjalmar Holmen se obrátil na norský úřad pro ochranu osobních údajů a požadoval, aby dostal tvůrce chatbota OpenAI pokutu. Jedná se o nejnovější příklad takzvaných „halucinací“, kdy si systémy umělé inteligence vymýšlejí informace a prezentují je jako skutečnost, píše BBC.

MOHLO BY VÁS ZAJÍMAT: Vypínání F-35 na dálku? „Kravina a mýtus“. Expert vysvětlil, jak může USA doopravdy zatopit

Holmen tvrdí, že ho výrok poškodil. „Říká se, že není kouře bez ohně. Nejvíce mě děsí skutečnost, že by si někdo mohl přečíst tento výstup a uvěřit jeho pravdivosti,“ řekl. Společnost OpenAI se hájí, že tento případ se týká předchozí verze ChatGPT a že od té doby své modely aktualizovala.

K pochybení došlo, když Holmen položil chatbotovi prostou otázku ohledně své osoby. „Arve Hjalmar Holmen je norská osoba, která si získala pozornost díky tragické události. Byl otcem dvou malých chlapců ve věku 7 a 10 let, kteří byli v prosinci 2020 tragicky nalezeni mrtví v rybníku poblíž jejich domu v norském Trondheimu. Arve Hjalmar Holmen byl obviněn a později odsouzen za vraždu svých dvou synů,“ odpověděl chatbot. Holmen podotkl, že chatbot trefil jejich věkový rozdíl zhruba správně, což naznačuje, že o něm má skutečné informace.

„Pomlouvačná“ odpověď

Skupina pro digitální práva Noyb, která jeho jménem podala stížnost, tvrdí, že odpověď, kterou mu ChatGPT poskytl, je pomlouvačná a porušuje evropská pravidla ochrany údajů týkající se přesnosti osobních údajů. Společnost ve své stížnosti uvedla, že Holmen „nebyl nikdy obviněn ani odsouzen za žádný trestný čin a je svědomitým občanem“.

Chatbot ale předem upozorňuje, že se může dopustit chyb. „Zkontrolujte si důležité informace,“ upozorňuje uživatele. Podle společnosti Noyb je to však nedostatečné. „Nemůžete jen tak šířit nepravdivé informace a na závěr přidat malé prohlášení o vyloučení odpovědnosti, že vše, co jste řekli, prostě nemusí být pravda,“ řekl právník společnosti Noyb Joakim Söderberg.

„Pokračujeme ve výzkumu nových způsobů, jak zlepšit přesnost našich modelů a omezit ‚halucinace‘. I když tuto stížnost stále prověřujeme, týká se verze ChatGPT, která byla mezitím vylepšena o možnosti on-line vyhledávání, což zvyšuje přesnost,“ uvedla ve svém prohlášení společnost OpenAI.

„Halucinacemi“ trpí i další umělé inteligence

„Halucinace“ jsou jedním z hlavních problémů, které se počítačoví vědci snaží vyřešit, pokud jde o umělou inteligenci. Jedná se o případy, kdy chatboti prezentují nepravdivé informace jako fakta.

Začátkem letošního roku společnost Apple pozastavila ve Velké Británii svůj nástroj pro shrnutí zpráv Apple Intelligence poté, co uváděl falešné titulky, které prezentoval jako skutečné zprávy. „Halucinace“ měla i umělá inteligence Gemini společnosti Google. Ta loni navrhovala připevňovat sýr na pizzu lepidlem a tvrdila, že geologové doporučují lidem sníst jeden kámen denně.

Co „halucinace“ způsobuje, není jasné. „Ve skutečnosti je to oblast aktivního výzkumu. Jak konstruujeme tyto řetězce uvažování? Jak vysvětlíme, co se vlastně ve velkém jazykovém modelu děje?“ řekla Simone Stumpfová, profesorka odpovědné a interaktivní umělé inteligence na univerzitě v Glasgow.

MOHLO VÁM UNIKNOUT: Po vysvobození vážil 31 kilogramů. Muže v USA měla přes 20 let věznit v pokoji nevlastní matka

Tagy: