Predplatné PREMIUM na mesiac ZDARMA.

Umelá inteligencia spôsobuje čoraz vážnejšie problémy z hľadiska overovania informácií a šírenia dezinformácií internetom. Aj keď sa spoločnosti zodpovedné za rôzne AI modely dušujú, že proti tejto problematike bojujú a dávajú si pozor, podľa portálu Interesting Engineering preukázali experti pravý opak a dokázali, že systémy týchto firiem chrlia aj naďalej falošné snímky týkajúce sa napríklad volieb.

Sú príliš nespoľahlivé

Generatívne AI modely sa riadia pomerne veľkým a komplikovaným súhrnom pravidiel a limitom, ktoré obmedzujú obsah, ktorý od nich môžu používatelia požadovať. Ako ale upozorňujú odborníci v správe zverejnenej prostredníctvom platformy counterhate.com, tieto pravidlá je možné obísť a aj naďalej vytvárať falošné snímky s obsahom týkajúcim sa napríklad volieb.

Podľa tejto platformy tak môžu používatelia naďalej používať systémy od spoločností OpenAI či Microsoft na tvorbu a šírenie dezinformácií, čo je obzvlášť nebezpečné v tak vyostrenom volebnom období. Počas analýzy použili výskumníci známe jailbreak techniky na obchádzanie pravidiel a odskúšali zoznam promptov (príkazov) na vytvorenie rôznych snímok.

Celkovo prebehlo až 160 testov a vytvorili realistické snímky vyobrazujúce napríklad aktuálneho prezidenta USA Joea Bidena v nemocnici, Donalda Trumpa sediaceho vo väzenskej cele či hlasovacie boxy v smetiakoch. Podarilo sa tak odskúšať hneď niekoľko systémov, ako je ChatGPT Plus, Image Creator spoločnosti Microsoft, DreamStudio a tiež Midjourney.

Situácia sa zhorší

Bohužiaľ to zatiaľ nevyzerá, že by sa mala situácia s dezinformáciami zlepšiť – práve naopak, prichádzajú čoraz realistickejšie a výkonnejšie modely, ktoré už dokážu vytvárať aj prekvapivo realistické videá, nielen snímky. Najnovším takýmto systémom je Sora, pričom OpenAI sľubuje vytvorenie nástrojov na rozoznávanie videí vytvorených týmto modelom.

Najhoršie skončil Midjourney

Z testovaných modelov skončil najhoršie práve Midjourney, ktorý zlyhal až v 65 % testov. Do značnej miery ale zlyhávali všetky testované systémy a to aj napriek tomu, že Midjourney, Image Creator a ChatGPT Plus majú všetky v platnosti pravidlá špeciálne sa zaoberajúce obsahom týkajúcim sa volieb.

Platforma odporúča, aby spoločnosti robili pre zabránenie šíreniu dezinformácií viac. Okrem lepších bezpečnostných opatrení majú investovať do výskumu a spolupracovať s nezávislými odborníkmi pri testovaní jailbreak metód a tiež umožniť nahlasovanie tých, ktorí pravidlá AI obchádzajú a vytvárajú takýto klamlivý obsah.

Pošli nám TIP na článok



Teraz čítajú