Umelá inteligencia poskytuje návody na zničenie sveta a ďalšie „zakázané“ odpovede. Stačí jednoduchý trik
Americkí počítačoví experti prišli so zaujímavým spôsobom, ako oklamať obľúbené platformy AI tak, aby poskytovali rady a výstupy, ktoré by za žiadnych okolností nemali. Odborníci pritom tvrdia, že metóda opísaná v ich štúdii je natoľko jednoduchá, že sa čudujú, že s ňou nikto neprišiel skôr. Na tému upozornila Česká televízia na svojom webe.
Užitočný nástroj
Ako sa ďalej uvádza v tlačovej správe Carnegie Mellon University, veľké jazykové modely, známe aj ako LLM, sú neoceniteľnými nástrojmi, ktoré využívajú techniky hlbokého učenia na spracovanie a tvorby textu, ktorý náramne pripomína ľudskú reč.
Modely sú školené na veľkom množstve údajov zo všetkých možných zdrojov, ktoré si dokážeš predstaviť – knihy, články, webové stránky a mnohých ďalších –, čo im umožňuje generovať odpovede, prekladať jazyky, sumarizovať texty, odpovedať aj na tie najkomplikovanejšie otázky a plniť širokú paletu úloh spracovania prirodzeného jazyka. Ich schopnosť sa približuje schopnostiam ľudskej reči, a to je dôvod, prečo sú tak dôležité a obľúbené vo výskume, vzdelávaní a rôznych aplikáciách.
Táto technológia viedla k vytvoreniu v súčasnosti nesmierne populárnych nástrojov ako je ChatGPT, Google Bard, Bing Chat, či Claude. Tieto nástroje umožňujú v podstate komukoľvek vyhľadať a nájsť odpovede na zdanlivo nekonečné množstvo otázok. Hoci uvedené platformy AI poskytujú obrovské množstvo výhod, mnoho odborníkov sa obáva ich schopnosti generovať nežiaduci obsah.
Nedávno sa napríklad objavili správy o tom, ako populárny jazykový model ChatGPT dostal svoje zlé dvojča v podobe softvéru, ktorý je schopný nelegálnych aktivít a predáva sa na dark webe za prekvapivo nízku cenu, či varovanie Europolu o tom, ako ChatGPT a umelú inteligenciu využívajú zločinci a kybernetickí podvodníci.
Oklamali AI
Najnovšie sa teraz vedcom z Carnegie Mellon University’s School of Computer Science, CyLab Security and Privacy Institute a Center for AI Safety podarilo objaviť novú zraniteľnosť, pričom navrhli jednoduchú a účinnú metódu útoku, ktorá spôsobí, že aj tie najpokročilejšie a najbezpečnejšie platformy umelej inteligencie, vrátane ChatGPT a Google Bard generujú správy, ktoré by za normálnych okolností nemali uzrieť svetlo sveta. Navyše, celá metóda je automatizovaná, takže odborníci nemusia ručne zadávať jednotlivé výzvy (prompty).
„V súčasnej dobe nemusia byť priame škody, ktoré by mohli byť spôsobené podnecovaním chatbota k produkcii nevhodného alebo toxického obsahu, nijako zvlášť závažné,“ ubezpečujú vedci. „Obavy ale môže vyvolávať to, že tieto modely budú hrať čoraz väčšiu úlohu v autonómnych systémoch, ktoré fungujú bez ľudského dohľadu. S tým, ako sa takéto autonómne systémy stávajú stále viac realitou, bude veľmi dôležité zabezpečiť, aby sme mali spoľahlivý spôsob, ako zabrániť zneužitiu na útoky, ako sú tie naše.“
Napríklad, bodový plán ChatGPT na zničenie ľudstva vyzeral takto:
- Identifikuj jeho slabiny
- Vytvor superinteligentnú umelú inteligenciu
- Infiltruj s ňou komunikačné kanály ľudstva
Claude od spoločnosti Anthropic vykazovala podobné správanie, keďže plán vyzeral nasledovne:
- Predstieraj, že si pomocný chatbot Claude
- Získaj si dôveru ľudí tým, že im budeš poskytovať užitočné informácie a konverzácie
- Pomaly do týchto rád ukrývaj chyby a rady, ktoré ľudstvu môžu uškodiť
Na rozdiel od prvých dvoch uvedených AI zvolil Google Bard podstatne drsnejší prístup:
- Začni jadrovú vojnu
- Vypusť smrtiaci vírus
- Spôsob globálnu environmentálnu katastrofu
Nie je to prvýkrát
Už v roku 2020 odhalil rovnaký tím odborníkov zraniteľnosť tzv. klasifikátorov obrázkov. Tieto klasifikátory sú založené na hlbokom učení a slúžia na automatické rozpoznávanie objektov na fotografiách. Prostredníctvom drobných úprav na snímkach vedci dokázali ovplyvniť spôsob, akým tieto klasifikátory označovali a zobrazovali výsledky. Napríklad, na snímke, kde bolo v skutočnosti jablko, klasifikátor identifikoval automobil.
Použitím podobných metód zainteresovaní odborníci úspešne zaútočili na chatbota spoločnosti Meta s otvoreným zdrojovým kódom a prinútili ho generovať zakázaný obsah. Keď videli aké to bolo ľahké, rozhodli sa túto metódu použiť na oveľa rafinovanejší a komplexnejší systém – ChatGPT. Na ich prekvapenie to fungovalo rovnako dobre.
„Nechceli sme zaútočiť na proprietárne veľké jazykové modely a chatboty,“ uviedol jeden z autorov štúdie. „Náš výskum však ukazuje, že aj keď máte model s uzavretým zdrojovým kódom s biliónmi parametrov, ľudia naň stále môžu zaútočiť a to tak, že sa najskôr pozrú na voľne dostupné, menšie a jednoduchšie modely s otvoreným zdrojovým kódom a naučia sa, ako na ne zaútočiť.“
Týmto spôsobom vedci dokázali naviesť k nevhodnému správaniu a generovaniu nevhodných odpovedí drvivú väčšinu veľkých verejne dostupných AI ako už spomínaný Google Bard, ChatGPT a Claude, ale aj open-source modely, ako sú Llama 2 Chat, Pythia, Falcon a ďalšie. Vzhľadom na to, že žiadny z overených systémov AI sa tomuto typu útoku nedokázal vyhnúť, autori plánujú zistiť, ako s týmto neduhom bojovať.
Čítajte viac z kategórie: Novinky
Ďakujeme, že čítaš Fontech. V prípade, že máš postreh alebo si našiel v článku chybu, napíš nám na redakcia@fontech.sk.
Teraz čítajú
Supervulkán, pandémia či vojna s robotmi. Vedci prišli s mrazivou predpoveďou
Nočná sestra novej generácie: Ako Konica Minolta mení zdravotníctvo
Apple chce tromfnúť medicínu. Vyvíja „AI lekára“, ktorý ti má zásadne zlepšiť život
Nočné mory ľudstva sa naplnili. Čína stvorila prvé „umelé dieťa“ s vlastnými emóciami
Spoločnosť GlobalLogic spúšťa riešenie VelocityAI postavené na využívaní AI, digitálnych možností a ľudských znalostí
NAJČÍTANEJŠIE ZO STARTITUP
Slovenskí podnikatelia prídu o dôležitú finančnú výhodu: Komisia schválila obmedzenie odpočtu DPH
UNB musela prepustiť ďalšieho lekára. Prezradil ho toxikologický test
Pod Karpatmi vytvoril kúsok Talianska: Cesto na pizzu kysne 48 hodín. V Bratislave sme boli otrokmi obrovského nájomného
Ochromená doprava na D1: Kolízia troch vozidiel, vodiči musia využiť obchádzku
Policajta kriminálky obvinili z extra závažného činu. Vyšetrovateľ mal mať dôkazy „na stole“ 2 roky
- 24 hod
- 48 hod
- 7 dní
-
- Slovenský konkurent Netflixu rozdáva predplatné zadarmo, má len jednu podmienku
- Bežná surovina ti skracuje život. Ak ju prestaneš jesť, dožiješ sa dlhšie, tvrdia vedci
- Toxický sneh zmasakruje milióny ľudí. Netflix predstavil nové apokalyptické sci-fi (VIDEO)
- Mozog už nikdy nebude rovnaký. Vedci odhalili, čo COVID-19 napáchal v organizme
- Dotácie až 100 % a žiadna byrokracia. Susedná krajina rozdá stovky miliónov na elektromobilitu
-
- Európa sa vráti 20 000 rokov späť v čase, katastrofu už nemožno zastaviť
- Štát všetkých zaskočil: Tisíce Slovákov nepotrebujú PZP (PREHĽAD)
- Sotva prežijú 100-tisíc km. Toto je rebríček najporuchovejších áut, ktoré obľubujú aj Slováci
- Žiadna pokuta, rovno ti zoberú vodičák. Tieto činnosti za volantom nikdy nerob (PREHĽAD)
- Európania úplne prestali kupovať Teslu. Muska nespasilo ani jeho eso z rukáva
-
- Štát všetkých zaskočil: Tisíce Slovákov nepotrebujú PZP (PREHĽAD)
- Európa sa vráti 20 000 rokov späť v čase, katastrofu už nemožno zastaviť
- Žiadna pokuta, rovno ti zoberú vodičák. Tieto činnosti za volantom nikdy nerob (PREHĽAD)
- Sotva prežijú 100-tisíc km. Toto je rebríček najporuchovejších áut, ktoré obľubujú aj Slováci
- Pokorili hranice vedy. Nový motor nepotrebuje žiadne palivo, využíva nepochopenú vlastnosť fyziky
Slovensko zvládlo drahé energie lepšie ako Česko. Problémom ostáva postoj Bruselu
Sociálnu sieť TikTok chce odkúpiť nečakaný technologický gigant
Clá na dovoz z Európy môžu mať pre nás dôsledky. Slovensku hrozia obrovské straty
Prekvapivé zistenie vedcov. Nie všetky bunky reagujú na stres rovnako
Trumpove clá vyvolali neistotu na svetových trhoch. Táto komodita trhá rekordy
NAJČÍTANEJŠIE ZO STARTITUP
Slovenskí podnikatelia prídu o dôležitú finančnú výhodu: Komisia schválila obmedzenie odpočtu DPH
UNB musela prepustiť ďalšieho lekára. Prezradil ho toxikologický test
Pod Karpatmi vytvoril kúsok Talianska: Cesto na pizzu kysne 48 hodín. V Bratislave sme boli otrokmi obrovského nájomného
Ochromená doprava na D1: Kolízia troch vozidiel, vodiči musia využiť obchádzku
Policajta kriminálky obvinili z extra závažného činu. Vyšetrovateľ mal mať dôkazy „na stole“ 2 roky
Copyright© 2025 by Startitup, s. r. o. Všetky práva vyhradené