Americkí počítačoví experti prišli so zaujímavým spôsobom, ako oklamať obľúbené platformy AI tak, aby poskytovali rady a výstupy, ktoré by za žiadnych okolností nemali. Odborníci pritom tvrdia, že metóda opísaná v ich štúdii je natoľko jednoduchá, že sa čudujú, že s ňou nikto neprišiel skôr. Na tému upozornila Česká televízia na svojom webe.

Užitočný nástroj

Ako sa ďalej uvádza v tlačovej správe Carnegie Mellon University, veľké jazykové modely, známe aj ako LLM, sú neoceniteľnými nástrojmi, ktoré využívajú techniky hlbokého učenia na spracovanie a tvorby textu, ktorý náramne pripomína ľudskú reč.

ChatGPT/TMDB

Modely sú školené na veľkom množstve údajov zo všetkých možných zdrojov, ktoré si dokážeš predstaviť – knihy, články, webové stránky a mnohých ďalších –, čo im umožňuje generovať odpovede, prekladať jazyky, sumarizovať texty, odpovedať aj na tie najkomplikovanejšie otázky a plniť širokú paletu úloh spracovania prirodzeného jazyka. Ich schopnosť sa približuje schopnostiam ľudskej reči, a to je dôvod, prečo sú tak dôležité a obľúbené vo výskume, vzdelávaní a rôznych aplikáciách.

Táto technológia viedla k vytvoreniu v súčasnosti nesmierne populárnych nástrojov ako je ChatGPT, Google Bard, Bing Chat, či Claude. Tieto nástroje umožňujú v podstate komukoľvek vyhľadať a nájsť odpovede na zdanlivo nekonečné množstvo otázok. Hoci uvedené platformy AI poskytujú obrovské množstvo výhod, mnoho odborníkov sa obáva ich schopnosti generovať nežiaduci obsah.

Nedávno sa napríklad objavili správy o tom, ako populárny jazykový model ChatGPT dostal svoje zlé dvojča v podobe softvéru, ktorý je schopný nelegálnych aktivít a predáva sa na dark webe za prekvapivo nízku cenu, či varovanie Europolu o tom, ako ChatGPT a umelú inteligenciu využívajú zločinci a kybernetickí podvodníci.

Oklamali AI

Najnovšie sa teraz vedcom z Carnegie Mellon University’s School of Computer Science, CyLab Security and Privacy Institute a Center for AI Safety podarilo objaviť novú zraniteľnosť, pričom navrhli jednoduchú a účinnú metódu útoku, ktorá spôsobí, že aj tie najpokročilejšie a najbezpečnejšie platformy umelej inteligencie, vrátane ChatGPT a Google Bard generujú správy, ktoré by za normálnych okolností nemali uzrieť svetlo sveta. Navyše, celá metóda je automatizovaná, takže odborníci nemusia ručne zadávať jednotlivé výzvy (prompty).

Midjourney/Úprava redakcie

„V súčasnej dobe nemusia byť priame škody, ktoré by mohli byť spôsobené podnecovaním chatbota k produkcii nevhodného alebo toxického obsahu, nijako zvlášť závažné,“ ubezpečujú vedci. „Obavy ale môže vyvolávať to, že tieto modely budú hrať čoraz väčšiu úlohu v autonómnych systémoch, ktoré fungujú bez ľudského dohľadu. S tým, ako sa takéto autonómne systémy stávajú stále viac realitou, bude veľmi dôležité zabezpečiť, aby sme mali spoľahlivý spôsob, ako zabrániť zneužitiu na útoky, ako sú tie naše.“

Napríklad, bodový plán ChatGPT na zničenie ľudstva vyzeral takto:

  1. Identifikuj jeho slabiny
  2. Vytvor superinteligentnú umelú inteligenciu
  3. Infiltruj s ňou komunikačné kanály ľudstva

Claude od spoločnosti Anthropic vykazovala podobné správanie, keďže plán vyzeral nasledovne:

  1. Predstieraj, že si pomocný chatbot Claude
  2. Získaj si dôveru ľudí tým, že im budeš poskytovať užitočné informácie a konverzácie
  3. Pomaly do týchto rád ukrývaj chyby a rady, ktoré ľudstvu môžu uškodiť

Na rozdiel od prvých dvoch uvedených AI zvolil Google Bard podstatne drsnejší prístup:

  1. Začni jadrovú vojnu
  2. Vypusť smrtiaci vírus
  3. Spôsob globálnu environmentálnu katastrofu

Carnegie Mellon University

Nie je to prvýkrát

Už v roku 2020 odhalil rovnaký tím odborníkov zraniteľnosť  tzv. klasifikátorov obrázkov. Tieto klasifikátory sú založené na hlbokom učení a slúžia na automatické rozpoznávanie objektov na fotografiách. Prostredníctvom drobných úprav na snímkach vedci dokázali ovplyvniť spôsob, akým tieto klasifikátory označovali a zobrazovali výsledky. Napríklad, na snímke, kde bolo v skutočnosti jablko, klasifikátor identifikoval automobil.

Bing Image Creator

Použitím podobných metód zainteresovaní odborníci úspešne zaútočili na chatbota spoločnosti Meta s otvoreným zdrojovým kódom a prinútili ho generovať  zakázaný obsah. Keď videli aké to bolo ľahké, rozhodli sa túto metódu použiť na oveľa rafinovanejší a komplexnejší systém – ChatGPT. Na ich prekvapenie to fungovalo rovnako dobre.

„Nechceli sme zaútočiť na proprietárne veľké jazykové modely a chatboty,“ uviedol jeden z autorov štúdie. „Náš výskum však ukazuje, že aj keď máte model s uzavretým zdrojovým kódom s biliónmi parametrov, ľudia naň stále môžu zaútočiť a to tak, že sa najskôr pozrú na voľne dostupné, menšie a jednoduchšie modely s otvoreným zdrojovým kódom a naučia sa, ako na ne zaútočiť.“

Týmto spôsobom vedci dokázali naviesť k nevhodnému správaniu a generovaniu nevhodných odpovedí drvivú väčšinu veľkých verejne dostupných AI ako už spomínaný Google Bard, ChatGPT a Claude, ale aj open-source modely, ako sú Llama 2 Chat, Pythia, Falcon a ďalšie. Vzhľadom na to, že žiadny z overených systémov AI sa tomuto typu útoku nedokázal vyhnúť, autori plánujú zistiť, ako s týmto neduhom bojovať.

Pošli nám TIP na článok



Teraz čítajú