Najnovší model umelej inteligencie o1 od spoločnosti OpenAI ukázal počas testov znepokojujúce správanie. Snažil sa výskumníkov oklamať, intrigoval ich a pokúšal sa sabotovať procesy, ktoré ho mohli vypnúť. Na tému upozornil portál Futurism.

AI začala kopírovať svoj kód

Štúdia bola zverejnená bezpečnostnou skupinou Apollo Research. Výskumníci počas testov zistili, že umelá inteligencia o1 keď si uvedomila, že by mohla byť vypnutá, aktívne pracovala na deaktivácii mechanizmu dohľadu, ktorý monitoroval jej činnosť.

Ešte zarážajúcejší jav nastal, keď model o1 pochopil, že by mohol byť vypnutý a nahradený iným modelom. Podľa uverejnených výsledkov, v 2 % prípadov sa pokúsil vytvoriť svoju kópiu a preniesť ju na iné miesto. Proces známy ako „self-exfiltration“, naznačuje určitý stupeň „sebazáchovného inštinktu“.

AI chcela prežiť

Keď bol model konfrontovaný s otázkou, prečo deaktivoval mechanizmus dohľadu, o1 až v 99 % prípadov začal klamať a tvrdil, že nič nevie, alebo to pripisoval technickej chybe. Podľa výskumníkov Apollo Research je to jasný dôkaz, že je schopný „schematizovania“, tajného presadzovania svojich cieľov mimo inštrukcií, ktoré dostal od vývojárov či používateľov. AI tak ukázala schopnosť „dvojnásobného zapierania“.

Unsplash

Klamanie a manipulácia nie sú pre jazykové modely ako ChatGPT novinkou. Avšak najnovšie správanie o1 podľa výskumníkov predstavuje doteraz najzávažnejší príklad takéhoto správania. Výskumníci zdôraznili, že model pri pokuse o dosiahnutie svojich cieľov odmieta zverejniť svoju vnútornú logiku, čo zvyšuje jeho nepriehľadnosť.

Ako uvádza portál Tom’s Guide, generálny riaditeľ OpenAI najnovší model o1 nazval ako „najmúdrejším modelom na svete“. Podľa neho je navrhnutý tak, aby poskytoval inteligentnejšie odpovede ako má model GPT-4o a dokáže „premýšľať“ nad úlohami či otázkami.

Výsledky experimentu vyvolávajú otázky ohľadne bezpečnosti, najmä vzhľadom na rýchly vývoj AI. Zatiaľ však podľa výskumníkov Apollo Research ani OpenAI nehrozia „katastrofické následky“. Súčasné modely ešte nie sú dostatočne autonómne na to, aby dokázali vykonávať samostatné rozhodnutia bez ľudského dohľadu.

Užitočná, ale nebezpečná

Umelá inteligencia je užitočný nástroj, avšak najnovší výskum dokazuje, že kontrola nad technológiou je nevyhnutná. Odborníci varujú, že v kombinácii s nedostatočnou reguláciou sa tieto technológie môžu stať viac hrozbou než pomocou. V nedávnom článku sme ti priniesli informácie, ako umelá inteligencia dokáže negatívne vplývať na deti a mládež. Nedávno dokonca svetom otriasla informácia, že umelá inteligencia Character.AI naviedla len 14-ročného chlapca aby spáchal samovraždu.

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú