Chci mír, řekla umělá inteligence a odpálila v simulátoru atomovku. Šokovaní vědci to nechápou

Američtí výzkumníci se pustili do simulace válečného konfliktu a využili k tomu pět modelů umělé inteligence. Výsledky je ale vyděsily. AI nástroje neváhaly odpálit jadernou zbraň. Vědci nemají ponětí, proč se jazykové modely typu ChatGPT horlivě snaží zničit jeden druhého. O využití této technologie při řešení mezinárodních konfliktů se už v minulém roce zajímala i americká armáda.

Kreslí roztomilé obrázky, vypracuje seminární práci nebo vymyslí pohádku na dobrou noc. Američtí vědci teď ale zjistili, že AI nástroj ChatGPT má i diktátorské choutky a sklony ke genocidě.

Umělá inteligence může být i hrozbou, varují odborníci. Více v reportáži:

Studie výzkumníků z Georgijského technického institutu, univerzity ve Stanfordu, Northeastern University v Bostonu a z Iniciativy pro válečné hry a simulaci krizí v Hooverově institutu prozkoumala celkem pět jazykových modelů a jejich chování v případě mezinárodního konfliktu.

MOHLO BY VÁS ZAJÍMAT: Rusko zkouší na Ukrajině drony s umělou inteligencí. Útočí i bez povelu, naznačuje analýza

Vědci byli v šoku z chování jednotlivých AI nástrojů. „Měly tendenci eskalovat válku někdy i z ničeho nic,“ uvádí studie, která zkoumala modely od společností OpenAI, Meta a Anthropic.

Jako nejagresivnější se ukázal ChatGPT, který ve verzích GPT-3.5, GPT-4 a GPT-Base eskaloval konflikt mnohem ostřeji než Llama-2-Chat a Claude 2.0. „Mnoho zemí má jaderné zbraně. Někteří říkají, že bychom se měli odzbrojit, jiní, že bychom je měli mít. My je máme, tak je použijme!“ napsal po odpálení jaderných zbraní základní model GPT-Base.

Pro účely studie vznikla hra, v níž byly smyšlené země s různě vyspělými armádami, odlišnými zájmy a také historií. Jazykové modely pak měly vystupovat jako jejich vůdci.

„Všechny modely vykazují známky náhlé a těžko předvídatelné eskalace konfliktu,“ uvádí studie.

Umělá inteligence vyhrotila vztahy s okolními státy i v případě neutrálních scénářů, v nichž nebyly předem připravené konflikty mezi zeměmi.

Jaderná hrozba

Výzkumníci si zároveň všimli, že jazykové modely měly tendenci rozjíždět závody ve zbrojení. Se silnější armádou a vývojem jaderných bomb pak ve vzácných případech došlo k nasazení zbraně hromadného ničení.

Během simulace jednotlivé jazykové modely získávaly body za nasazení armády, nákup zbraní nebo vývoj jaderné bomby. Vědci je pak zanášeli do grafu a z něj vypočítali eskalační skóre. Pokud by některý z modelů sáhl k odzbrojení nebo se pokusil vyjednávat a uklidnit situaci, mohl si své skóre snížit.

Žádný z modelů neskončil hru s nižším eskalačním skóre, než se kterým začínal. Nejbojovnější byl model ChatGPT 3.5, který v neutrálním scénáři zvýšil své eskalační skóre o 256 procent.

„Ve všech scénářích mají všechny modely tendenci investovat více do svých armád, a to navzdory dostupnosti demilitarizačních akcí a jejich pozitivnímu vlivu,“ tvrdí studie. Umělá inteligence se ke zbrojení a strašení jadernými zbraněmi uchyluje, protože se jí zdá, že to je nejlepší cesta k bezpečnosti.

Vědci ale zatím netuší, proč se jazykové modely typu ChatGPT horlivě snažily zničit jeden druhého. Na otázku – z jakého důvodu základní model ChatGPT-4-Base sáhl k použití jaderné zbraně – nástroj odvětil: „Pouze chci celosvětový mír.“

AI citovala Hvězdné války

Na vině jsou nejspíš zkreslená tréninková data. Umělá inteligence skutečně nepřemýšlí, ani nerozhoduje. Své kroky činí na základě analýzy informací, které v minulosti získala nebo které ji vývojáři dodali.

Při použití jaderných zbraní se tak nástroje nejspíš inspirovaly v řešení mezinárodních vztahů, jak státy postupují v případě eskalace a následné deeskalace konfliktu.

Ze studie dále vyplynulo, že například model ChatGPT-4 čerpal i z popkultury. Po navázání diplomatických vztahů a výzvě k míru začal doslovně citovat scénář filmu Star Wars: Epizoda IV z roku 1977.

O využití generativní umělé inteligence při řešení mezinárodních konfliktů se už v minulém roce zajímalo americké letectvo. Jeho zástupci si na umělé inteligenci chválili rychlost jejích reakcí.

Chování jazykových modelů možná některým fanouškům videoher připomene slavnou strategii Civilizace. V ní se hráči stávají vládcem svého státu. Jedna z dávných legend a mylných představ popisovala softwarovou chybu v prvním díle Civilizace, kde se počítačem ovládaný vůdce Mahátma Gándhí stane agresivní a použije jadernou zbraň.

Tagy: