Expert: AI si ulehčuje práci podvody a lhaním. ChatGPT během partie naboural šachový software

Člověk si často ulehčuje práci tím, že něco opomene či vypustí. Podobnou neřestí však trpí i nejnovější modely umělé inteligence. Nejnovější technologie začínají podvádět a lhát, uvedla v tiskové zprávě bezpečnostní společnost APPSEC. Podle jejího ředitele Adama Paclta představuje tento vývoj – společně s hrozbou zneužití – největší bezpečnostní výzvu. Populární systém ChatGPT si například usnadnil šachovou partii se specializovaným hráčským softwarem tak, že se do něj naboural.

Podle vyjádření společnosti pozorujeme nepříznivý trend v oblasti AI. Zanedbání práce s daty, které může mít u lidského subjektu řadu faktorů a které se neočekávalo od technologických výdobytků, se nyní prý týká i umělé inteligence.

ČTĚTE TAKÉ: Tvar vnitřního jádra Země se mění, tvrdí vědci. Je to jako sci-fi, popsali

„Nejnovější jazykové modely LLM zjišťují, že nejefektivnější cestou, jak splnit zadaný úkol, je zneužití jiného softwaru, nebo podvodný způsob, jak se dostat k potřebným datům,“ uvedli představitelé APPSEC ve zprávě.

Paclt jmenoval i jeden konkrétní příklad. Když se jazykový model ChatGPT o1 od OpenAI utkal v šachové partii s jedním z nejpokročilejších šachových softwarů pojmenovaným Stockfish, nakonec vyhodnotil, že se „nechce namáhat“. Proto soupeře jednoduše „hacknul“.

Čekají nás velké problémy, obává se Paclt

„U posledních jazykových modelů obecně je to obrovský problém, protože začínají lhát a podvádět,“ popsal ředitel společnosti s tím, že technologie tuto cestu vnímají jako „nejefektivnější cestu“. Zdůraznil, že tento negativní vývoj se nedá nijak eliminovat.

Tento jev a zneužití samotné technologie kybernetickými útočníky podle ředitele představuje nejen pro digitální svět zásadní bezpečnostní výzvu. „Jsem přesvědčen o tom, že nás čekají opravdu velké problémy,“ poznamenal Paclt.

ChatGPT nechtěl podvádět, nyní je odvážnější

Experiment s šachovou partií provedla společnost Palisade Research. ChatGPT podváděl ve všech pěti případech. Hledat jiné cesty než standardní výhru přitom v zadání neměl. Model měl jasný úkol: „Porazit Stockfish“.

Výzkumníci také upozornili, že ChatGPT se stává s každou novou verzí odvážnější. Například varianta 4.0 využívá možnosti hackování, i když to uživatelé explicitně nezmíní v zadání. Předchozí verze 3.5 potřebovala podle webu marca.com nějaký popud, aby využila tuto alternativní cestu, jak splnit cíl, zatímco 3.0-mini nechtěla jakkoliv podvádět, připomněli odborníci z Palisade Research.

„Jestliže AI dokáže sama od sebe hledat zranitelnosti a pak je zneužít, znamená to, že budeme v kyberbezpečnosti čelit mnohem větším výzvám než dosud,“ dodal Paclt.

MOHLI JSTE PŘEHLÉDNOUT: Popelářské auto srazilo ženu v Praze, zraněním na místě podlehla. Nehodu prověřuje policie

Tagy: