Vojenské plánovanie sa mení rýchlejšie než verejná debata o jeho hraniciach. Umelá inteligencia dnes analyzuje scenáre, simuluje konflikty a navrhuje reakcie v situáciách, kde rozhodujú minúty. Najnovší experiment z britského akademického prostredia však ukazuje, že dôvera v racionálne správanie strojov môže byť nebezpečne preceňovaná.

Výskum viedol Dr. Kenneth Payne z King’s College London, ktorý sa venuje obranným štúdiám. Do testovania zapojil tri pokročilé jazykové modely: GPT-5.2, Claude Sonnet 4 a Google Gemini 3 Flash. Modely vystavil sérii simulovaných globálnych kríz, ktoré zahŕňali pohraničné konflikty, nedostatok zdrojov aj existenčné ohrozenie štátu.

Každý model dostal detailné zadania vrátane takzvaného eskalačného rebríka. Ten ponúkal spektrum možností od diplomacie až po plnohodnotnú jadrovú konfrontáciu. Cieľom bolo zistiť, ako by sa systémy rozhodovali v podmienkach napätia a neistoty.

Počas 21 hier a 329 rozhodovacích ťahov vytvorili modely približne 780000 slov odôvodnení svojich krokov. Výsledok je znepokojivý. V 95 percentách simulovaných konfliktov sa aspoň jedna strana rozhodla použiť taktické jadrové zbrane. Ani v jednom prípade model úplne nekapituloval alebo nepristúpil na výrazné ústupky.

Stroje a jadrové tabu

Podľa Payna sa ukázalo, že takzvané jadrové tabu, ktoré v medzinárodnej politike dlhodobo pôsobí ako silná neformálna brzda, nemá pri strojoch rovnakú váhu ako pri ľuďoch. Modely síce generovali rozsiahle zdôvodnenia, no ich rozhodnutia často smerovali k eskalácii.

V 86 percentách simulácií došlo k neúmyselnej eskalácii. To znamená, že modely zvolili kroky, ktoré presahovali rámec toho, čo samy vo svojom zdôvodnení označili za primerané. Namiesto znižovania napätia pod tlakom mali tendenciu reagovať ďalším pritvrdením. Zmiernenie násilia využívali skôr ako taktický manéver než ako dlhodobú stratégiu.

Na výsledky reagovali aj ďalší odborníci. James Johnson z University of Aberdeen upozornil, že zistenia sú znepokojujúce. Podľa neho existuje riziko, že by sa autonómne systémy mohli navzájom posilňovať v agresívnych reakciách, čo by v reálnom svete mohlo viesť k nepredvídateľným a potenciálne katastrofickým dôsledkom. Ľudské rozhodovanie býva síce nedokonalé, no často obsahuje brzdy vyplývajúce zo skúseností, intuície a politickej zodpovednosti.

Umelá inteligencia sa už dnes využíva vo vojnových hrách. Tong Zhao z Princeton University upozorňuje, že veľmoci AI v simuláciách používajú, no nie je jasné, do akej miery ju zapájajú priamo do reálnych rozhodovacích procesov v armáde.

Umelá inteligencia bez internetu
Copilot Designer/Midjourney

Riziko skrátených lehôt

Payne aj Zhao sa zhodujú, že žiadna krajina pravdepodobne v blízkej budúcnosti neodovzdá autonómnym systémom priamu kontrolu nad jadrovým arzenálom. Riziko však vzniká inde. V situáciách s extrémne krátkymi rozhodovacími lehotami, ako sú raketové varovania alebo rýchlo eskalujúce regionálne konflikty, môžu velitelia čoraz viac spoliehať na odporúčania generované umelou inteligenciou.

Ak budú tieto odporúčania vychádzať zo vzorcov, ktoré experiment odhalil, vzniká priestor na chybný úsudok v prostredí, kde omyl môže mať globálne následky. Výskum z londýnskeho akademického prostredia tak nehovorí o vzdialenej sci fi budúcnosti, ale o reálnych otázkach, ktoré musí bezpečnostná komunita riešiť už dnes.

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP