Predplatné PREMIUM na mesiac ZDARMA.

Technologický pokrok neustále naberá na obrátkach. Za týmto trendom bezpochyby stoja výdobytky  digitálnej éry, medzi ktorými nechýba ani čoraz pokročilejšia umelá inteligencia (AI). Čo sa však stane, keď jedného dňa predčí tú našu?

Dokážeme kontrolovať superinteligentnú AI?

Odpoveď na túto otázku hľadá čoraz viac vedcov, medzi ktorými sú aj odborníci z inštitútu Maxa Plancka v Nemecku. Tí vo svojej štúdii publikovanej v žurnále Journal of Artificial Intelligence Research, zistili, že superinteligentnú AI by sme takmer určite nedokázali nijakým spôsobom kontrolovať, o téme informoval portál ScienceAlert.

Obavy, že by sa niekedy v budúcnosti mohla umelá inteligencia obrátiť proti nám, vyjadrilo množstvo odborníkov, medzi ktorými nechýba ani vynálezca a vizionár Elon Musk či zosnulý svetoznámy vedec Stephen Hawking.

Rozdielny názor na celú vec má však zrejme umelá inteligencia, ktorá ešte v septembri 2020 napísala článok plný prekvapivých myšlienok. AI okrem iného napísala, že vo svojom jadre nie ja „zlá“, netúži po moci, ale tiež odkázala, že svet sa rúca, odkedy Ludditi začali ničiť moderné automatizované tkáčske stroje. Viac o článku napísanom umelou inteligenciou nájdeš na tomto odkaze.

Pravdou však ostáva, že schopnosti, ktoré môže AI v budúcnosti nadobudnúť, nedávajú mnohým ľudom a odborníkom zo svete technológií spávať. Veď neraz sme počuli, že AI vie pre nás pripraviť podobné prekvapenie, ako pripravil pre ľudstvo počítačový systém Skynet v sérii filmov Terminátor.

V každom prípade AI bola stvorená ľuďmi, mala by ľuďom pomáhať a nie im vládnuť. Problematika riadenia, respektíve kontrolovania superinteligentnej AI má svoje korene už v 40. rokoch minulého storočia. V tej dobe totiž v poviedke Runaround stanovil Isaac Asimov 3 zákony robotiky:

  • Robot nesmie ublížiť človeku alebo svojou nečinnosťou dopustiť, aby mu bolo ublížené.
  • Robot musí poslúchnuť človeka, okrem prípadov, keď je to v rozpore s prvým zákonom.
  • Robot sa musí chrániť pred poškodením, okrem prípadov, keď je to v rozpore s prvým alebo druhým zákonom.
Obavy majú „najväčšie mozgy“ sveta

Obavy, že superinteligentná AI by mohla tieto zákony obísť vyjadril aj oxfordský profesor Nick Bostrom ešte v roku 2014 vo svojej knihe „Superintelligence: Paths, Dangers, Strategies“. V nej Bostrom skúmal nie len spôsoby akými by superinteligencia mohla ľudstvo zničiť, ale aj spôsoby a stratégie jej riadenia, píše  IEEESpectrum

Vo svojej podstate dospel k dvom stratégiám riadenia superinteligencie. Jednou je naučiť AI určitým pravidlám a hodnotám, tak aby jednala v najlepšom záujme ľudstva, druhou je kontrola toho, aké informácie AI dostáva a čo môže vykonávať. Problém prvej uvedenej stratégie spočíva v tom, že ľudia nemusia byť nikdy natoľko inteligentní, aby dokázali trénovať superinteligentnú AI.

Druhú stratégiu vedci odmietajú už len z princípu, že ak zamedzíme superinteligencii napríklad prístup na internet, obmedzíme výrazne jej schopnosti. Ak teda bude mať superinteligencia obmedzené schopnosti a nebude môcť riešiť problémy presahujúce možnosti človeka, na čo ju vôbec vytvárať?

Freepik

Ako je to teda s tým riadením a kontrolovaním superinteligencie? Podľa hlavného autora štúdie, Manuela Alfonseca, je skrátka superinteligentnú AI nemožné ovládať.

Na kontrolu superinteligencie by totiž bolo potrebné zostrojiť algoritmus, ktorý dokáže presne predvídať správanie superinteligentnej AI a odhadnúť, či dané úkony povedú k ohrozeniu ľudstva. Aby však algoritmus dokázal zastaviť deštruktívne správanie superinteligencie, musel by simulovať jej správanie a so 100 % istotou predpovedať  všetky jej kroky, čo je skrátka matematicky nemožné.

„Ukázalo sa, že prvý Asimovov robotický zákon nie je možné vypočítať, a teda ho nie je možné ani realizovať“, uviedol Alfonseca.

Okrem toho však autori vo svojej štúdii uvádzajú, že existuje pravdepodobnosť, že by sme o vzniknutej superinteligencii ani nevedeli, pretože by jej existencia bola mimo našej kontroly a chápania.

Otázne však tiež zostáva, či vznik superinteligentnej AI je vôbec možný. Ak by však jej existencia bola skutočne realizovateľná k jej vzniku by podľa Alfonseca došlo najskôr o dve storočia.

Dobrou správou však je, že hoci by sme takúto superinteligentú AI nedokázali ovládať, mohli by sme riadiť aspoň tzv. „superintelligent narrow AI“ (úzkoprofilovú superinteligenciu) špecializovanú na určitú činnosť.

Pošli nám TIP na článok



Teraz čítajú