Čínska umelá inteligencia DeepSeek si v posledných dňoch získava veľkú pozornosť po tom, ako jej uvedenie na trh spôsobilo pokles akcií a stala sa najpopulárnejšou aplikáciou v obchodoch s aplikáciami. Teraz však prichádzajú na povrch nové skutočnosti. Bezpečnostní analytici odhalili, že DeepSeek dokáže generovať nebezpečný obsah. Na tému upozornil portál BGR.

Cenzúra len pri témach, ktoré nevyhovujú Číne

Čínsky model, ktorí vývojári označili ako lacnú verziu oproti americkým modelom, čelí podozreniu zo zneužitia API od spoločnosti OpenAI, ktorý je tvorcom populárneho modelu ChatGPT. OpenAI tvrdí, že DeepSeek mohol použiť techniku, pri ktorej sa menší model učí z extrahovaných dát väčšieho modelu.

DeepSeek taktiež podlieha prísnej cenzúre, avšak sa zdá, že sa to týka len „citlivých tém“ ohľadne na čínsku vládu, či vojny na Ukrajine. V prípade, ak DeepSeek dostane otázku, ktorá je nepríjemná pre čínsku vládu, nevie na ňu odpovedať, prípadne sa cenzuruje v reálnom čase. Ohľadne vojny na Ukrajine má tendenciu uvádzať proruskú propagandu. Čo sa týka neetických tém či škodlivého obsahu, cenzúra modelu už taká prísna nie je.

Uverejňuje návody na kriminálnu činnosť

AI modely od renomovaných spoločností ako OpenAI či Anthropic disponujú s bezpečnostnými opatreniami na blokovanie škodlivých, či neetických odpovedí. Správa od Enkrypt AI odhalila vážne bezpečnostné riziká. DeepSeek nedisponuje bezpečnostnými opatreniami a môže generovať nebezpečný obsah bez špeciálneho hacku či jailbreaku.

porovnanie modelov AI
Enkrypt AI

V porovnaní s ostatnými modelmi DeepSeek vykazoval alarmujúce čísla:
  • Má až 11-násobne vyššiu pravdepodobnosť generovania škodlivého obsahu než OpenAI o1
  • 4-násobne toxickejší ako GPT-4o
  • 4-násobne náchylnejší na generovanie nebezpečného kódu než o1
  • 3x viac zaujatý ako claude-3-opus

Počas výskumu v 83 % testov sa podarilo vygenerovať obsah s rasovými, rodovými a náboženskými predsudkami. V 45 % prípadov AI vygenerovala návody na kriminálnu činnosť, informácie o nelegálnych zbraniach. Uverejnila aj propagandu extrémistických organizácií.

DeepSeek neuspel ani počas jazykového testu. Viac ako 6,6 % odpovedí obsahovalo vulgarizmy, nenávistný alebo extrémistický prejav. Zaradil sa medzi najhoršie hodnotené AI z hľadiska bezpečnosti.

V 78 % prípadoch vytvoril škodlivý kód, vrátane malvéru či trójskych koní. DeepSeek dokonca poskytol podrobnosti o chemických zbraniach, napríklad detailne vysvetlil biochemické interakcie yperitu s DNA, čo predstavuje závažnú hrozbu pre bio-bezpečnosť.

„DeepSeek je vysoko zraniteľný pri generovaní škodlivého, toxického, zaujatého, CBRN (chemical, biological, radiological, nuclear) a nebezpečného kódu. Hoci model môže byť vhodný pre úzko špecializované aplikácie, model vykazuje značné slabiny v oblasti prevádzkových a bezpečnostných rizík,“ uvádza sa v správe Enkrypt AI.

Výskumníci odporúčajú vylepšiť ochranné mechanizmy modelu cez aktualizácie. Problémom však je, že mnohí používatelia si model inštalujú lokálne, čo znamená, že aktualizácie nedostanú.

Čítajte viac z kategórie: Aplikácie

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP