Svet, kde o živote a smrti rozhodujú stroje je možno na spadnutie. Téma smrtiacich autonómnych zbraňových systémov, známych aj ako LAWS (Lethal Autonomous Weapons Systems), sa už roky rieši na najvyšších úrovniach, a OSN tentokrát reálne a s plnou vážnosťou bije na poplach. Téme sa venoval portál Slashgear.

Algoritmy rozhodujú o živote

Systémy autonómnych zbraňových systémov sú navrhnuté tak, aby dokázali bez ľudského zásahu identifikovať, sledovať a zasiahnuť cieľ v reálnom čase. Nejde o diaľkovo ovládané drony, kde za rozhodnutím stále stojí človek. Hovoríme o úplne autonómnych strojoch, ktoré môžu samy rozhodnúť, kto bude žiť a kto zomrie.

A to je presne ten dôvod, prečo generálny tajomník OSN António Guterres varuje, že takéto zbrane sú „politicky neprijateľné a morálne odporné“. Ak totiž raz odovzdáme rozhodnutia o živote a smrti algoritmom, prekročíme hranicu, ktorú už nebude možné vziať späť.

autonómna loď
SpaceX / Flickr

Aby bolo jasné, nie všetky takéto zbrane využívajú pokročilú umelú inteligenciu. Niektoré fungujú na základe jednoduchých naprogramovaných pravidiel, iné sú schopné prispôsobiť sa situácii počas misie. Práve táto schopnosť adaptácie robí LAWS tak nebezpečnými.

Algoritmy totiž nie sú úplne neomylné. Stačí chybný údaj, nesprávna identifikácia cieľa a tragédia je na svete. Kým človek v boji môže zohľadniť súvislosti či urobiť rozhodnutie na základe intuície a empatie, stroj sa riadi len logikou a nastavením kódu. A ten nevie, čo je súcit alebo výčitky.

Dron MQ-20.
General Atomics

Veľká hrozba

Najväčším problémom pritom nie je len samotná schopnosť stroja zabíjať, ale aj úplná absencia zodpovednosti. Kto bude vinný, ak autonómna zbraň zlyhá? Výrobca? Programátor? Vojenský veliteľ? Alebo nikto? „Nemôžeme delegovať rozhodnutia o živote a smrti na stroje,“ tvrdí Guterres. A práve to je dôvod, prečo už od roku 2013 upozorňujú na túto hrozbu aj mimovládne organizácie ako Human Rights Watch a kampaň Stop Killer Robots.

Od roku 2014 sa problematikou LAWS zaoberá aj Dohovor OSN o určitých konvenčných zbraniach. No napriek množstvu diskusií sa zatiaľ nepodarilo dosiahnuť globálny zákaz. Dôvody sú čisto politické. Kým krajiny ako USA či Rusko zatiaľ odmietajú akýkoľvek rýchly zákaz, Čína napríklad podporuje zákaz ich použitia, no nie vývoj samotných systémov.

Medzitým sa technológia vyvíja šialeným tempom. Na bojiskách sa už objavujú drony, tzv. „loitering munitions“ (čakajúce munície) a poloautonómne systémy, ktoré postupne rozmazávajú hranicu medzi ľudským a strojovým rozhodovaním.

Práve táto normalizácia je najväčšou hrozbou. Čím dlhšie budeme čakať, tým bežnejšie sa tieto zbrane stanú. „Čím dlhšie budeme nečinní, tým vyššia bude cena,“ výstižne zhrnula situáciu Nicole van Rooijen z iniciatívy Stop Killer Robots. Technológia sa zároveň stáva lacnejšou a dostupnejšou, čo zvyšuje riziko, že sa dostane do rúk diktátorov, teroristov či iných neštátnych aktérov.

Guterres preto vyzýva, aby do roku 2026 existovali jasné medzinárodné pravidlá, ktoré zaručia, že ľudská kontrola nad týmito systémami bude neoddeliteľnou súčasťou ich použitia. Zatiaľ je však celý proces skôr o slovách než skutkoch. A tak svet balansuje na hrane nebezpečnej budúcnosti, kde môžu stroje čoskoro rozhodovať bez nás.

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP