Z výroku, že umelá inteligencia môže byť pre ľudstvo nebezpečná, sa pomaly stáva klišé. Najnovšie svojimi vyjadreniami rozpútal vášne Elon Musk, no to nie je jedinou skutočnosťou, ktorá zarezonovala počas tohto týždňa. O slovo sa prihlásil Microsoft, aj keď asi nie celkom dobrovoľne. Portál The Intercept priniesol závažné zistenia.

Softvér vojnových operácií

Umelá inteligencia ovplyvňuje aj dianie na bojisku za našimi hranicami. No správa spoza zámoria vyvolala rozruch. Podľa medializovaných informácií mal Microsoft ponúknuť ministerstvu obrany USA nástroje umelej inteligencie, aby pomohol vládnej agentúre vybudovať softvér na vykonávanie vojenských operácií.

Toto odhalenie prichádza len niekoľko mesiacov po tom, čo spoločnosť OpenAI v tichosti odstránila svoj zákaz používania modelu ChatGPT na vojenské a vojnové účely. Situácia sa tak zjavne v tomto segmente vyostruje a vojna sa už čoskoro môže zmeniť na nepoznanie.

Kontroverzná prezentácia

Správa The Intercept uvádza, že Microsoft predložil v októbri minulého roka ministerstvu obrany prezentáciu, v ktorej spoločnosť vysvetlila, ako by armáda mohla využívať nástroje od OpenAI, konkrétne DALL-E 3 a ChatGPT.

Konkrétny slajd uniknutej prezentácie spoločnosti Microsoft vysvetlil rôzne „bežné“ použitia nástrojov OpenAI vo vojenskom konflikte. Jedna odrážka v časti „Pokročilý tréning počítačového videnia“ popisovala akési systémy bojového riadenia. Prezentácia odhaľuje, že by sa takýmto spôsobom dal využiť model DALL-E, ktorý generuje obrázky.

Freepik

Systém bojového riadenia je softvérová sada určená na pomoc pri velení, ktorá poskytuje vojenským veliteľom situačný prehľad bojového scenára. To by im umožňovalo koordinovať veci, ako je napríklad delostrelecká paľba, identifikácia cieľov náletu a presuny vojenských jednotiek.

Odkaz na tréning počítačového videnia naznačuje, že umelé obrázky vytvorené modelom DALL-E by mohli pomôcť počítačom Pentagonu lepšie vnímať podmienky na bojisku, čo je mimoriadna výhoda pre hľadanie a ničenie nepriateľských cieľov.

OpenAI tvrdenia popiera

Zaujímavé však je, že hovorkyňa spoločnosti OpenAI tieto „obvinenia“ odmieta. „Zásady OpenAI zakazujú používanie našich nástrojov na vývoj alebo používanie zbraní, zranenie iných alebo ničenie majetku. Nezapojili sme sa do tejto prezentácie a neviedli sme rozhovory s americkými obrannými agentúrami o hypotetických prípadoch použitia, ktoré sú opísané,“ vyjadrila sa Liz Bourgeous, ktorá dodala, že OpenAI sa nepodieľala na prezentácii Microsoftu a že nepredala žiadne nástroje ministerstvu obrany.

Odborníci sú ale voči takýmto vyjadreniam skeptickí. Podľa Brianny Rosen, ktorá sa špecializuje na technologickú etiketu, možno technológie OpenAI rovnako ľahko použiť na pomoc ako aj na ublíženie ľuďom.

„Pokiaľ firmy ako OpenAI neposkytnú písomné záruky od vlád, že nepoužijú technológiu na poškodzovanie civilistov – čo by stále pravdepodobne nebolo právne záväzné – nevidím spôsob, akým by spoločnosti mohli s istotou tvrdiť, že technológia nebude používaná (alebo nesprávne používaná) spôsobmi, ktoré majú kinetické účinky,“ povedala členka Oxfordskej univerzity.

Tejto situácii sa však asi nemožno až tak čudovať. Záujem armádnych zložiek po celom svete o využitie pokročilých schopností umelej inteligencie stále rastie.

Pošli nám TIP na článok



Teraz čítajú