Pentagon rozvíja využitie umelej inteligencie (AI) na zvýšenie efektívnosti svojich vojenských procesov, pričom však podľa vyjadrení jej predstaviteľov technológia zatiaľ priamo nezabíja. Hoci AI sa nevyužíva ako zbraň, poskytuje americkému ministerstvu obrany významnú výhodu pri identifikácii, sledovaní a hodnotení hrozieb.

„Zvyšujeme schopnosti na urýchlenie vykonávania tzv. ‘kill chain’, aby naši velitelia mohli včas reagovať a chrániť svoje jednotky,“ povedala Plumb. Tento termín sa vzťahuje na proces zahŕňajúci identifikáciu, sledovanie a elimináciu hrozieb. O téme informoval portál TechCrunch.

AI a jej rola vo vojenskom plánovaní

Generatívna AI pomáha v plánovacích a strategických fázach „zabíjacieho reťazca“. Systémy umelej inteligencie, ako sú tie vyvinuté spoločnosťami OpenAI, Anthropic či Meta, zlepšujú schopnosť Pentagonu analyzovať a reagovať na potenciálne riziká. Napriek prísnym pravidlám o nevyužívaní AI na zabíjanie zatiaľ dochádza k rastúcemu prepojeniu medzi technologickými spoločnosťami a americkým vojenským sektorom.

V roku 2024 viaceré spoločnosti, vrátane Anthropic, Meta a OpenAI, prehodnotili svoje zásady a umožnili používanie svojich modelov pre americké vojenské a spravodajské agentúry. Napríklad, Meta spolupracuje s Lockheed Martin, Anthropic uzavrel partnerstvo s Palantirom, a OpenAI začal spolupracovať s Andurilom.

Tieto partnerstvá sa zameriavajú na použitie generatívnej AI v simuláciách a plánovaní. Ako uviedla Plumb, „AI umožňuje hrať rôzne scenáre, čím pomáha veliteľom využívať všetky dostupné nástroje a kreatívne zvažovať reakcie na série hrozieb.“

Použitie generatívnej AI vo vojenskom prostredí napriek tomu prináša etické výzvy. Napríklad spoločnosť Anthropic vo svojich pravidlách zakazuje použitie svojich modelov na vývoj systémov, ktoré môžu spôsobiť smrť alebo zranenie ľudí. Dario Amodei, generálny riaditeľ Anthropic, obhajuje spoluprácu s armádou ako snahu o „zodpovedné“ použitie technológií.

Flickr

Konflikt medzi zásadami AI a jej vojenským využitím

„Tvrdiť, že AI by sa nikdy nemala použiť na obranu alebo spravodajstvo, nedáva zmysel,“ vyhlásil Amodei. Na druhej strane však odmietol „bezhraničné“ použitie AI, ako sú vývoj zbraní typu súdneho dňa (doomsday weapons).

Niektorí odborníci varujú, že aj plánovanie „neškodného“ použitia AI pre vojenské účely môže viesť k jej potenciálnemu zneužitiu. Napriek tomu viacerí AI vývojári, ako napríklad Evan Hubinger z Anthropic, tvrdia, že úzka spolupráca s vládami je nevyhnutná. „Ignorovanie alebo blokovanie vlády vo využívaní AI nie je životaschopná stratégia,“ tvrdí Hubinger.

„Ako otázka spoľahlivosti a etiky bude do rozhodovania o použití sily vždy zapojený človek,“ uviedla Plumb. Použitie autonómnych systémov však podľa nej nezahŕňa „vedecko-fantastický“ scenár, kde roboty samostatne prijímajú smrteľné rozhodnutia. Pentagon AI považuje skôr za nástroj na spoluprácu medzi ľuďmi a strojmi.

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP