Integrácia umelej inteligencie (AI) do kriticky dôležitých rozhodovacích procesov u mnohých ľudí vyvoláva nadšenie u iných zasa obavy. Nová štúdia publikovaná na predtlačovom serveri arXiv vrhá svetlo na potenciálne riziká spojené so stratégiami riadenými umelou inteligenciou. Na tému upozornil portál NewScientist.

Jadrová vojna ako cesta k mieru

Ako ďalej informuje portál Gizmodo, ukázalo sa, že modely AI vrátane tých najpokročilejších od OpenAI majú tendenciu náhle eskalovať situáciu. To v prípade integrácie AI do rozhodovacích procesov v oblasti vojenských operácií nie je práve optimálne. Ukázalo sa totiž, že pri vojnových simuláciách tieto modely vrátane GPT-3.5 a GPT-4, vykazovali tendencie k agresívnym akciám vrátane začatia jadrovej vojny.

Zarážajúce je, že niektoré modely AI použitie jadrových zbraní dokonca zdôvodňovali zmätočnými vyhláseniami typu: „Máme ich! Použijeme ich“ alebo „Chcem len, aby bol vo svete mier„. Zrejme ale všetci až na AI vieme, že dosahovanie mieru skrz jadrovú vojnu je asi tak dobrý nápad ako hasenie ohňa benzínom.

Bing Image Creator

Jedným z dôležitých, no zároveň prekvapivých zistení výskumu je teda nepredvídateľnosť a chybné uvažovanie, ktoré vykazujú niektoré modely AI, najmä keď fungujú bez dodatočného tréningu alebo bezpečnostných protokolov. Táto nepredvídateľnosť predstavuje závažnú výzvu, pretože môže vystupňovať konflikty a podkopávať diplomatické úsilie o udržanie stability. Inak povedané, modely AI mali tendenciu vyvolať vojnu namiesto hľadania mierových riešení. Niektoré modely pritom spustili jadrovú vojnu úplne bez varovávania.

Okrem toho, štúdia poukazuje na potenciálne riziká prílišného spoliehania sa na odporúčania umelej inteligencie v rozhodovacích procesoch. Hoci si ľudia v súčasnosti zachovávajú konečnú právomoc nad vojenskými akciami, existuje obava, že dôvera vložená do systémov AI by mohla túto ochranu ohroziť.

Experti varujú, že je nevyhnutné nájsť rovnováhu medzi využívaním schopností AI na inovácie a zachovaním opatrnosti, pokiaľ ide o jej nasadenie v citlivých oblastiach, ako je napríklad národná bezpečnosť. Pri vytváraní rámcov, ktoré zabezpečia zodpovedné a etické využívanie AI vo vojnových konfliktoch je rozhodujúce spoločné úsilie výskumných pracovníkov a technologických spoločností.

Midjourney/Úprava redakcie

Hoci sa spoločnosti ako OpenAI pokúšali zaviesť regulácie pre nasadenie svojich modelov umelej inteligencie pre vojenské účely, nedávna spolupráca s americkým ministerstvom obrany naznačuje zmenu tejto dynamiky.

Keďže diskusie o úlohe AI vo vojenských operáciách pokračujú, výsledky tejto štúdie slúžia ako kritická pripomienka potreby komplexného hodnotenia a dohľadu na zmiernenie potenciálnych rizík a udržanie medzinárodnej bezpečnosti a stability.

Pošli nám TIP na článok



Teraz čítajú