Umelá inteligencia poskytuje návody na zničenie sveta a ďalšie „zakázané“ odpovede. Stačí jednoduchý trik
Americkí počítačoví experti prišli so zaujímavým spôsobom, ako oklamať obľúbené platformy AI tak, aby poskytovali rady a výstupy, ktoré by za žiadnych okolností nemali. Odborníci pritom tvrdia, že metóda opísaná v ich štúdii je natoľko jednoduchá, že sa čudujú, že s ňou nikto neprišiel skôr. Na tému upozornila Česká televízia na svojom webe.
Užitočný nástroj
Ako sa ďalej uvádza v tlačovej správe Carnegie Mellon University, veľké jazykové modely, známe aj ako LLM, sú neoceniteľnými nástrojmi, ktoré využívajú techniky hlbokého učenia na spracovanie a tvorby textu, ktorý náramne pripomína ľudskú reč.
Modely sú školené na veľkom množstve údajov zo všetkých možných zdrojov, ktoré si dokážeš predstaviť – knihy, články, webové stránky a mnohých ďalších –, čo im umožňuje generovať odpovede, prekladať jazyky, sumarizovať texty, odpovedať aj na tie najkomplikovanejšie otázky a plniť širokú paletu úloh spracovania prirodzeného jazyka. Ich schopnosť sa približuje schopnostiam ľudskej reči, a to je dôvod, prečo sú tak dôležité a obľúbené vo výskume, vzdelávaní a rôznych aplikáciách.
Táto technológia viedla k vytvoreniu v súčasnosti nesmierne populárnych nástrojov ako je ChatGPT, Google Bard, Bing Chat, či Claude. Tieto nástroje umožňujú v podstate komukoľvek vyhľadať a nájsť odpovede na zdanlivo nekonečné množstvo otázok. Hoci uvedené platformy AI poskytujú obrovské množstvo výhod, mnoho odborníkov sa obáva ich schopnosti generovať nežiaduci obsah.
Nedávno sa napríklad objavili správy o tom, ako populárny jazykový model ChatGPT dostal svoje zlé dvojča v podobe softvéru, ktorý je schopný nelegálnych aktivít a predáva sa na dark webe za prekvapivo nízku cenu, či varovanie Europolu o tom, ako ChatGPT a umelú inteligenciu využívajú zločinci a kybernetickí podvodníci.
Oklamali AI
Najnovšie sa teraz vedcom z Carnegie Mellon University’s School of Computer Science, CyLab Security and Privacy Institute a Center for AI Safety podarilo objaviť novú zraniteľnosť, pričom navrhli jednoduchú a účinnú metódu útoku, ktorá spôsobí, že aj tie najpokročilejšie a najbezpečnejšie platformy umelej inteligencie, vrátane ChatGPT a Google Bard generujú správy, ktoré by za normálnych okolností nemali uzrieť svetlo sveta. Navyše, celá metóda je automatizovaná, takže odborníci nemusia ručne zadávať jednotlivé výzvy (prompty).
„V súčasnej dobe nemusia byť priame škody, ktoré by mohli byť spôsobené podnecovaním chatbota k produkcii nevhodného alebo toxického obsahu, nijako zvlášť závažné,“ ubezpečujú vedci. „Obavy ale môže vyvolávať to, že tieto modely budú hrať čoraz väčšiu úlohu v autonómnych systémoch, ktoré fungujú bez ľudského dohľadu. S tým, ako sa takéto autonómne systémy stávajú stále viac realitou, bude veľmi dôležité zabezpečiť, aby sme mali spoľahlivý spôsob, ako zabrániť zneužitiu na útoky, ako sú tie naše.“
Napríklad, bodový plán ChatGPT na zničenie ľudstva vyzeral takto:
- Identifikuj jeho slabiny
- Vytvor superinteligentnú umelú inteligenciu
- Infiltruj s ňou komunikačné kanály ľudstva
Claude od spoločnosti Anthropic vykazovala podobné správanie, keďže plán vyzeral nasledovne:
- Predstieraj, že si pomocný chatbot Claude
- Získaj si dôveru ľudí tým, že im budeš poskytovať užitočné informácie a konverzácie
- Pomaly do týchto rád ukrývaj chyby a rady, ktoré ľudstvu môžu uškodiť
Na rozdiel od prvých dvoch uvedených AI zvolil Google Bard podstatne drsnejší prístup:
- Začni jadrovú vojnu
- Vypusť smrtiaci vírus
- Spôsob globálnu environmentálnu katastrofu
Nie je to prvýkrát
Už v roku 2020 odhalil rovnaký tím odborníkov zraniteľnosť tzv. klasifikátorov obrázkov. Tieto klasifikátory sú založené na hlbokom učení a slúžia na automatické rozpoznávanie objektov na fotografiách. Prostredníctvom drobných úprav na snímkach vedci dokázali ovplyvniť spôsob, akým tieto klasifikátory označovali a zobrazovali výsledky. Napríklad, na snímke, kde bolo v skutočnosti jablko, klasifikátor identifikoval automobil.
Použitím podobných metód zainteresovaní odborníci úspešne zaútočili na chatbota spoločnosti Meta s otvoreným zdrojovým kódom a prinútili ho generovať zakázaný obsah. Keď videli aké to bolo ľahké, rozhodli sa túto metódu použiť na oveľa rafinovanejší a komplexnejší systém – ChatGPT. Na ich prekvapenie to fungovalo rovnako dobre.
„Nechceli sme zaútočiť na proprietárne veľké jazykové modely a chatboty,“ uviedol jeden z autorov štúdie. „Náš výskum však ukazuje, že aj keď máte model s uzavretým zdrojovým kódom s biliónmi parametrov, ľudia naň stále môžu zaútočiť a to tak, že sa najskôr pozrú na voľne dostupné, menšie a jednoduchšie modely s otvoreným zdrojovým kódom a naučia sa, ako na ne zaútočiť.“
Týmto spôsobom vedci dokázali naviesť k nevhodnému správaniu a generovaniu nevhodných odpovedí drvivú väčšinu veľkých verejne dostupných AI ako už spomínaný Google Bard, ChatGPT a Claude, ale aj open-source modely, ako sú Llama 2 Chat, Pythia, Falcon a ďalšie. Vzhľadom na to, že žiadny z overených systémov AI sa tomuto typu útoku nedokázal vyhnúť, autori plánujú zistiť, ako s týmto neduhom bojovať.
Ďakujeme, že čítaš Fontech. V prípade, že máš postreh alebo si našiel v článku chybu, napíš nám na redakcia@fontech.sk.
Teraz čítajú
BMW ukázalo tajnú zbraň. Humanoidný robot zvýšil efektivitu o 400 % a totálne zatienil prácu ľudí
Slovenskí rodičia robia obrovskú chybu, tvrdí expert. Obľúbená umelá inteligencia „vraždí“ deti
Na Slovensku je regulácia umelej inteligencie mizivá. Prečo to tak je a aké sú pre a proti?
Lekári už na ChatGPT nestačia. Prekonal ich v najdôležitejšom teste
Vedia urobiť zničujúci útok. Vedia útok aj odvrátiť a brániť nás. Spoznajte hviezdy kybernetickej bezpečnosti!
- 24 hod
- 48 hod
- 7 dní
-
- MIKI je len predkrm. Toto je TOP 13 slovenských filmov na Netflixe a ďalších službách
- Clá končia, dohoda je blízko. Čína bude v Európe predávať lacné elektromobily, EÚ má podmienku
- Stavili sme na zlého koňa. Odhalili tajomstvo lacných čínskych áut, svet spasí už len posledná vec
- Gladiátor 2 má premožiteľa. Zničil ho nečakaný film, ktorý sa na Slovensko ešte len chystá
- Desivému výbuchu predchádzal záhadný signál. Sopka pred erupciou tisícročia „varovala“ ľudí, no vedci nechápali
-
- MIKI je len predkrm. Toto je TOP 13 slovenských filmov na Netflixe a ďalších službách
- Clá končia, dohoda je blízko. Čína bude v Európe predávať lacné elektromobily, EÚ má podmienku
- Stavili sme na zlého koňa. Odhalili tajomstvo lacných čínskych áut, svet spasí už len posledná vec
- Gladiátor 2 má premožiteľa. Zničil ho nečakaný film, ktorý sa na Slovensko ešte len chystá
- Desivému výbuchu predchádzal záhadný signál. Sopka pred erupciou tisícročia „varovala“ ľudí, no vedci nechápali
-
- MIKI je len predkrm. Toto je TOP 13 slovenských filmov na Netflixe a ďalších službách
- Kotle a tepelné čerpadlá padnú do úzadia. Prichádza inovácia, ktorá ti môže kúrením zarobiť peniaze
- Gladiátor 2 má premožiteľa. Zničil ho nečakaný film, ktorý sa na Slovensko ešte len chystá
- Prevráti ti žalúdok. Jeden z najsledovanejších seriálov Netflixu dostal novú sériu, máme prvé zábery
- Clá končia, dohoda je blízko. Čína bude v Európe predávať lacné elektromobily, EÚ má podmienku
Koniec ruského plynu? Gazprom odstaví Európu už čoskoro, urobí tak po 50 rokoch
Včasný zásah a lepšia liečba. AI mení prístup k diagnostike rakoviny na Slovensku
Rokovania o prepúšťaní vrcholia. Volkswagen a odbory stoja pred kľúčovou dohodou
Historický nález: V kostole na Slovensku sa pod omietkou našli vzácne maľby
Africké krajiny v problémoch. Elektrická sieť skolabovala v rovnaký čas
Copyright© 2024 by Startitup, s. r. o. Všetky práva vyhradené