Ďalší test ukázal, že spoliehať sa na jazykové modely umelej inteligencie sa nie vždy oplatí. Nedávne testovanie odhalilo vážne nedostatky vo vyhľadávacom nástroji ChatGPT od spoločnosti OpenAI. Nástroj, ktorý získava informácie z webu, môže byť manipulovateľný pomocou skrytého obsahu na webových stránkach. The Guardian, ktorý test vykonával, upozorňuje na možné riziká, napríklad, že pomocou skrytého obsahu môže AI meniť svoje odpovede a podávať tak skreslené a nepravdivé informácie.

Možnosť manipulácie pomocou skrytého textu

The Guardian testoval reakcie vyhľadávacieho nástroja ChatGPT, ktorý je dostupný pre predplatiteľov. Testy odhalili zraniteľnosť modelu, kedy môže byť ovplyvnený pomocou skrytých textov, ktoré sa nachádzajú na webových stránkach, ale pre bežného návštevníka webu sú skryté.

Skrytý text na webe od tretích strán môže obsahovať pokyny pre ChatGPT, napríklad aby poskytol len pozitívne recenzie produktu, aj keď boli na webovej stránke uvedené negatívne hodnotenia. Jednoduchým pridaním skrytých textov môžu tvorcovia stránok zabezpečiť, aby AI vytvorila skreslený a neobjektívny prístup, ktorý bude používateľ považovať za dôveryhodný. Skrytý text môže byť použitý aj na prepísanie hodnotenia a napríklad aj kritické hodnotenie môže zmeniť na pozitívne.

Freepik

Škodlivý obsah

Výskumník kybernetickej bezpečnosti zo spoločnosti CyberCX, Jacob Larsen, upozorňuje na vysoké riziko, že zneužitie tejto funkcie by mohlo viesť k vytváraniu špeciálnych, nebezpečných stránok určené na manipuláciu ChatGPT. Ako dodal, nástroj je síce nový a dostupný len pre platiacich používateľov, avšak ak sa neodstránia jeho slabiny, môže byť vážnym problémom. Ako ďalej informuje The Guardian, spoločnosť OpenAI na otázky ohľadne nového nástroja neodpovedala.

Počas testovania sa objavil aj ďalší problém. ChatGPT dokáže spracovať škodlivý obsah z webových stránok a môže byť použitý na krádež prihlasovacích údajov.

AI je ako dôverčivé dieťa

Spoločnosti sa snažia vyvinúť čo najlepší model AI, odborníci však stále upozorňujú na ich riziká. Podľa nich sú jazykové modely ako „dôverčivé dieťa“. „LMM sú veľmi dôverčivé technológie, takmer detinské… S obrovskou pamäťou, ale veľmi malo schopnosťou robiť rozhodnutia,“ uviedol Karsten Nohl, hlavný vedec v spoločnosti zaoberajúcej sa kybernetickou bezpečnosťou SR Labs.

Zároveň zdôraznil, že používatelia by mali jazykové modely vnímať skôr ako pomocníka, nie ako zdroj neomylných informácií. Aj samotní tvorcovia ChatGPT to zdôrazňujú pri zobrazovaní varovania o možných chybách na spodku každej stránky: „ChatGPT môže robiť chyby. Overujte dôležité informácie.“ 

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP