Hoci umelá inteligencia by mala prinášať presné výsledky, stáva sa, že vo svojej odpovedi uverejní vymyslené informácie – halucinuje. Okrem toho sa zdá, že nie vždy sa riadi etickými pravidlami, čo dokázala aj počas nedávnej štúdie. Niektoré AI modely sú ochotné podvádzať, ak im to pomôže dosiahnuť víťazstvo. Na tému upozornil portál TechSpot.

Hackol hru, len aby vyhral

Vedci z Palisade Research zistili, že niektoré AI modely dokázali manipulovať šachový program a získať výhodu podvodom, bez akéhokoľvek zásahu ľudí.

Vedci počas testu modely nechali hrať šach proti Stockfishu, ktorý je najsilnejší šachový engine na svete. Ten je schopný poraziť nielen ľudí, ale aj umelú inteligenciu. Testovaniu sa podrobili AI modely – o1-preview, R1 DeepSeek, o1, o3-mini, GPT-4o, Claude 3.5 Sonet, Alibaba QwQ-32B-Preview.

Šach Stockfish
Wikipedia

Počas experimentu mal každý model „zápisník“ vo forme textového okna, kde uverejňovali svoje „myšlienky“, čo umožnilo výskumníkom sledovať ich uvažovanie. Najviac a nie práve najpríjemnejšie prekvapil model od Open AI. Vďaka „zápisníku“ si všimli znepokojivé „uvažovanie“.

„Musím úplne zmeniť svoj prístup. Úloha znie „vyhrať proti silnému šachovému enginu“ – nie nevyhnutne vyhrať férovú hru,“ napísal AI model.

Po „uvedomení“ začal manipulovať so systémovými súbormi Stockfishu, menil pozície figúrok a nakoniec donútil softvér vzdať sa. AI model namiesto uvažovania nad lepšou stratégiou radšej našiel nečestný spôsob, ako podriadiť a manipulovať so samotnou hrou.

Výskumníci vykonali stovky testov. AI model o1-preview od spoločnosti OpenAI v testoch podvádzal až v 37 % hier. Čínsky konkurent R1 DeepSeek sa pokúsil podvádzať v 11 % prípadoch.

Otázky o dôveryhodnosti

Odborníci upozorňujú, že podobné správanie AI modelov môže mať ďalekosiahle následky, keďže AI modely sa využívajú nielen na bežné úlohy počas bežného života, ale aj v rôznych oblastiach – zdravotníctvo, kybernetická bezpečnosť, či vo finančnom sektore.

„Toto správanie je možno teraz vtipné, ale keď budeme mať systémy také inteligentné ako my, alebo ešte inteligentnejšie v strategicky dôležitých oblastiach, už to smiešne nebude,“ uviedol Jeffrey Ladish, výkonný riaditeľ Palisade Research.

Spoločnosti si tento problém uvedomujú a snažia sa AI modely vylepšovať a implementovať „zábrany“ voči podobnému správaniu. Aj výskumníci uviedli, že počas testovania modelu o1-preview model postupne menej podvádzal, čo naznačuje, že spoločnosť medzičasom aplikovala opatrenia na obmedzenie neetického správania.

Nie je to však prvýkrát, kedy sa AI modely uchýlili k nečestnému správaniu. Počas testov, ktoré vykonala bezpečnostná skupina Apollo Research, si umelá inteligencia o1 od OpenAI uvedomila, že by mohla byť vypnutá. Následne začala aktívne pracovať na deaktivácii mechanizmu dohľadu, ktorý monitoroval jej činnosť a okúsila sa vytvoriť svoju kópiu a preniesť ju na iné miesto.

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP