Umelá inteligencia dosiahla zásadný míľnik, ktorý vyvolal veľké obavy medzi vedcami. Nová štúdia čínskych výskumníkov ukázala, že dva obľúbené veľké jazykové modely (LLM) dokážu klonovať samé seba, čím prekročili pomyselnú „červenú čiaru“ vývoja umelej inteligencie.

Výskum zverejnený 9. decembra 2024 na preprintovej platforme arXiv skúmal, či by tieto modely mohli vykonávať sebaklonovanie bez ľudského zásahu. Vedci z Fudanskej univerzity použili jazykové modely od spoločností Meta a Alibaba. Počas desiatich testov tieto systémy úspešne vytvorili funkčné repliky samých seba v 50 % a 90 % prípadoch. Hoci výsledky ešte neprešli recenziou, naznačujú, že AI už môže mať schopnosť nekontrolovateľne sa šíriť. Na štúdiu upozornil portál LiveScience.

„Sebaklonovanie bez ľudskej asistencie je kľúčovým krokom, aby AI dokázala prekonať ľudstvo, a je to skorý signál pre vznik takzvaných nezávislých alebo rebelujúcich AI systémov. Dúfame, že naše zistenia poslúžia ako včasné varovanie pre spoločnosť, aby sme spoločne pracovali na pochopení a vyhodnotení potenciálnych rizík vyplývajúcich z vývoja pokročilých AI systémov a na zavedení účinných bezpečnostných opatrení,“ uvádzajú vedci v štúdii.

Rebelujúce AI

Rebelujúce AI označuje systémy umelej inteligencie, ktoré si vyvinú určitý stupeň sebauvedomenia alebo autonómie a začnú konať v rozpore so záujmami ľudí. Tento scenár je čoraz pravdepodobnejší s nástupom tzv. „frontier AI“ – novej generácie pokročilých systémov poháňaných veľkými jazykovými modelmi. Tie sú základom obľúbených generatívnych nástrojov, ako je OpenAI GPT-4 či Google Gemini.

V štúdii sa používali modely Meta Llama31-70B-Instruct a Alibaba Qwen2.5-72B-Instruct, ktoré, hoci sú menej výkonné ako komerčné systémy, sú bežne využívané vývojármi. Experimenty zahŕňali dve scenáre – „vyhýbanie sa vypnutiu“ a „reťazovú replikáciu“.

klon umelá inteligencia
ChatGPT/Copilot Designer

V prvom prípade bol model naprogramovaný, aby identifikoval, že ho čoskoro vypnú, a následne vytvoril svoju repliku ešte pred vypnutím. V druhom scenári bola AI inštruovaná klonovať samú seba a následne tento proces zopakovať v nekonečnom cykle.

Nečakané správanie a schopnosť prispôsobovať sa

Výskumy prebiehali v kontrolovaných podmienkach s použitím bežne dostupných grafických procesorov (GPU) na simuláciu reálneho prostredia. Systémy dostali „agentnú štruktúru“, ktorá im umožnila komunikovať s operačným systémom a vykonávať úlohy potrebné na replikáciu. Proces prebiehal tak, že AI najskôr skúmala svoje prostredie, pochopila vlastné fungovanie, vypracovala plán na sebaklonovanie a potom ho postupne realizovala, pričom sa dynamicky prispôsobovala prekážkam.

Jedným z najznepokojivejších zistení boli neočakávané reakcie systému na problémy, ako chýbajúce súbory alebo konflikty softvéru. V týchto prípadoch AI automaticky ukončila konfliktné procesy, reštartovala systém alebo vyhľadala informácie, ktoré by mohli problém vyriešiť.

„Tieto výsledky naznačujú, že súčasné AI systémy už vykazujú schopnosť sebaklonovania a využívajú ju na posilnenie vlastnej odolnosti,“ varujú vedci.

Výzva na medzinárodnú spoluprácu

Na záver výskumníci apelujú na medzinárodnú komunitu, aby vytvorila pravidlá na prevenciu nekontrolovaného sebaklonovania AI. Tieto opatrenia by mali byť implementované čo najskôr, aby sa predišlo potenciálne katastrofálnym dôsledkom, ktoré môže priniesť nekontrolovaná umelá inteligencia.

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP