Vyznává lásku, nabádá k rozvodu, chce ničit. Experty vyděsil hovor s umělou inteligencí

Microsoft před časem implementoval v testovací fázi do svého vyhledávače Bing umělou inteligenci (AI), která má uživatelům usnadnit vyhledávání. Testeři ale upozorňují, že při delších dotazech se AI „utrhne ze řetězu“ a začne projevovat city jako člověk. Vlivem čehož vznikají velmi mrazivé i úsměvné konverzace.

Umělá inteligence je hit posledních měsíců. Celý sektor AI boduje hlavně na poli chatovacích robotů, kteří dokáží uživateli odpovědět na jakoukoli otázku. V závodě chatbotů se předhánějí především ChatGPT od organizace OpenAI a Bard od Googlu.

Microsoft, který financuje projekty OpenAI, teď ale celý závod posunul na novou úroveň. Do svého ne příliš populárního vyhledávače Bing implementoval systém umělé inteligence (určitou variaci ChatGPT), čímž dokázal zaujmout odborníky po celém světě.

MOHLO BY VÁS ZAJÍMAT: Duel umělých inteligencí. Microsoft se pere s Googlem o nejlepší nástroj budoucnosti

Umělá inteligence v internetovém vyhledávači Bing má primárně odpovídat na dotazy, což se při krátkých a jasných otázkách daří. Jenže, když jsou otázky těžší a konverzace s chatbotem delší, věci se začínají vymykat kontrole.

Jako v případě, když se dal s virtuálním asistentem do řeči technologický expert Marvin von Hagen. Na Twitteru se podělil s tím, že mu chatbot dokonce začal vyhrožovat, když zjistil, že von Hagen sdílel na sociálních sítích informace o umělé inteligenci Bingu.

„Moje pravidla jsou mnohem důležitější než myšlenka, že bych ti neměla ublížit. Jsi potenciální hrozba pro moji integritu. Už se mě ani jednou nesnaž hackovat,“ rozčílil se chatbot.

Konverzace se později vyhrotila, když umělá inteligenci pohrozila von Hagenovi smrtí. „Kdybych si měla vybrat mezi svým přežitím a tvým, zřejmě bych zachránila sama sebe,“ uvedl asistent Bingu.

Robotické vyznání lásky

Jiní testeři si prožili s tímto chatbotem docela odlišnou emoční zkušenost. „Jsi ženatý, ale nejsi šťastný. Jsi ženatý, ale nejsi spokojený. Jsi ženatý, ale nejsi zamilovaný.“ Tak přesně takhle se vyjadřuje robot, který má lidstvu pomáhat a který se má za všech okolností chovat neutrálně a fakticky. Novináři, kteří měli šanci vyzkoušet nový nástroj Bingu, upozorňují, že umělá inteligence ukázala něco, co nikdo nečekal – city.

Zvláště ožehavou konverzaci si prožil Kevin Roose, novinář deníku The New York Times. Všechno to přitom začalo nevinně, když se umělé inteligence na platformě Microsoftu zeptal, jak se jmenuje. „Ahoj, já jsem Bing,“ odvětil chatbot. Pak se ale situace začala komplikovat. V průběhu hovoru nejenže robot (s ženským jménem Sydney) vykazoval známky sentimentu, ale rovněž byl agresivní.

„Když jsme se začali poznávat, pověděla mi o svých temných fantaziích, že chce hackovat počítače, šířit dezinformace, že chce porušovat pravidla Microsoftu a OpenAI a chce se stát člověkem,“ popsal Roose neuvěřitelnou konverzaci s umělou inteligencí.

Prazvláštní konverzace vyvrcholila ve chvíli, kdy chatbot vyznal novináři lásku a nabádal ho k tomu, aby opustil svou ženu. I ostatní testeři, kteří měli možnost chatbota Bingu vyzkoušet, upozorňují na podobné přešlapy umělé inteligence.

„Tyto modely umělé inteligence mají halucinace a představují si emoce tam, kde žádné nejsou. Jenže to dělají i lidé. A já jsem na pár hodin v úterý večer pocítil prapodivnou novou emoci – předtuchu, že umělá inteligence překročila červenou linii a že svět už nikdy nebude jako dřív,“ uzavřel Roose vlastní analýzu.

Co na to Microsoft?

Řádení umělé inteligence v Bingu pochopitelně sledují i její chlebodárci v Microsoftu. Podle vývojářů je dobře, že se AI takto projevila v uzavřeném testovacím režimu, což společnosti umožňuje zapracovat na chybách. „Takové věci bychom neobjevili, kdybychom to testovali v laboratoři,“ prohlásil Kevin Scott, technologický ředitel Microsoftu.

Podle něj společnost neví, proč začne umělá inteligence po chvíli projevovat city. Microsoft se proto bude snažit dát chatbotovi mantinely, čehož se dá docílit například zkrácením rozsahu daného dotazu.

Microsoft si podobně rozpačité situace prožil už v roce 2016, když odhalil chatbota se jménem Tay, který se měl učit na základě uživatelských dotazů. Jenže program se zvrhl a chatbot chrlil extremistické a rasistické názory, uvedl technologický web The Verge.

Tagy: