Umelá inteligencia už dnes zásadne mení spôsob, akým komunikujeme, pracujeme aj získavame informácie. Najnovšie výskumy však upozorňujú na oveľa menej viditeľnú, no o to nebezpečnejšiu hrozbu. Nejde o tradičné dezinformačné kampane ani o klasické botnety, ktoré sme si zvykli spájať s manipuláciou verejnej mienky.

Na scéne sa objavuje nový fenomén: koordinované „roje“ AI osobností, ktoré dokážu nenápadne ovplyvňovať demokraciu bez toho, aby si to bežný používateľ vôbec všimol.

Na problém upozorňuje výskum publikovaný v prestížnom vedeckom časopise Science. Autori opisujú scenár, v ktorom tisíce až milióny digitálnych identít riadených umelou inteligenciou vstupujú do online diskusií, zapájajú sa do spoločenských debát a formujú názory v reálnom čase.

Na rozdiel od starších generácií botov ide o mimoriadne sofistikované systémy schopné okamžite reagovať na spätnú väzbu, koordinovať svoje správanie a udržiavať konzistentný naratív naprieč obrovským množstvom účtov.

Kľúčovým posunom je technologický pokrok v oblasti veľkých jazykových modelov a multi-agentných systémov. Vďaka nim dnes dokáže jediný operátor riadiť rozsiahlu sieť „hlasov“, ktoré pôsobia autenticky, používajú lokálny jazyk, prispôsobujú tón komunikácie a interagujú spôsobom, ktorý je pre ostatných používateľov prakticky nerozoznateľný od reálneho človeka.

Tieto AI entity zároveň neustále experimentujú. Spúšťajú milióny drobných testov, aby zistili, ktoré formulácie, argumenty či emócie majú najväčší presvedčovací efekt. Výsledkom je extrémne efektívna optimalizácia komunikácie v reálnom čase. Navonok to môže pôsobiť ako spontánna zhoda verejnosti, v skutočnosti však ide o umelo vytvorený konsenzus navrhnutý na ovplyvňovanie diskusie.

Aj keď plnohodnotné AI „swarmy“ zatiaľ zostávajú skôr teoretickým scenárom, varovné signály sú už dnes jasne viditeľné. Odborníci poukazujú na rýchly nárast deepfake obsahu a falošných spravodajských platforiem, ktoré zasahovali do volebných diskusií v krajinách ako USA, Taiwan, Indonézia či India.

Umelá inteligencia dostala mozog
Midjourney/Bing Image Creator

Učia sa rýchlejšie než ľudia

Významnou osobnosťou výskumu je informatik Dr. Kevin Leyton-Brown z University of British Columbia, ktorý upozorňuje na zásadnú zmenu paradigmy. „Nemali by sme si myslieť, že spoločnosť zostane nezmenená, keď sa tieto systémy rozšíria. Pravdepodobným dôsledkom je pokles dôvery voči neznámym hlasom na sociálnych sieťach, čo môže posilniť celebrity a sťažiť presadenie grassroots iniciatív,“ uviedol.

Práve strata dôvery môže byť jedným z najvážnejších dôsledkov. Ak používatelia prestanú veriť anonymným či menej známym zdrojom, verejný diskurz sa môže výrazne deformovať. Autentické názory bežných ľudí sa stratia v šume synteticky generovaných hlasov, zatiaľ čo prominentné osobnosti získajú ešte väčší vplyv.

desivá umelá inteligencia
Midjourney/Copilot Designer

Nová zbraň

Znepokojivé sú aj zistenia monitorovacích organizácií, ktoré identifikovali rozsiahle siete šíriace obsah s cieľom ovplyvniť budúce AI systémy. Ide napríklad o prokremeľské aktivity, ktoré produkujú obrovské množstvo dát určených na „kontamináciu“ tréningových datasetov. Takéto zásahy môžu v budúcnosti ovplyvniť správanie umelej inteligencie, jej hodnotové nastavenie aj spôsob, akým bude prioritizovať informácie.

Nejde teda len o priamu manipuláciu verejnosti, ale aj o dlhodobú stratégiu formovania samotných nástrojov, ktoré budú verejnú mienku ovplyvňovať.

Mačka vs. myš

Tento fenomén so sebou prináša hrozbu, ktorú odborníci nazývajú „kognitívny hacking“. Na rozdiel od agresívnych tónov minulosti sa moderné AI roje nesnažia o priamu konfrontáciu, ale o jemné posúvanie hraníc toho, čo považujeme za normálne. Využívajú pritom psychologické mechanizmy, ako je efekt sociálneho dôkazu – ak človek vidí tisíce zdanlivo nezávislých profilov súhlasiť s určitým názorom, jeho podvedomie to začne vyhodnocovať ako dominantný spoločenský postoj.

Týmto spôsobom môžu algoritmy potichu prekresliť „Overtonovo okno“ a urobiť z radikálnych myšlienok akceptovateľný mainstream bez toho, aby prebehla skutočná celospoločenská diskusia.

Boj proti týmto sieťam pripomína nekonečnú hru mačky s myšou. Zatiaľ čo vývojári platforiem nasadzujú vlastné modely na detekciu syntetického správania, útočníci využívajú opačné techniky. Tie umožňujú AI osobnostiam učiť sa z vlastných chýb a v reálnom čase modifikovať svoj štýl písania tak, aby obišli filtre platforiem. Detekčné nástroje sa tak často ocitajú o krok pozadu, pretože sa snažia identifikovať vzorce, ktoré sa menia rýchlejšie, než ich dokážeme analyzovať a zablokovať.

Riešenie tohto problému si zrejme vyžiada zásadnú zmenu v tom, ako vnímame anonymitu na internete. Okrem technologických bariér sa čoraz častejšie skloňuje koncept „dôkazu ľudskosti“, ktorý by od používateľov vyžadoval overiteľnú digitálnu identitu pri vstupe do kľúčových spoločenských debát.

Kritický test budúcnosti

Experti sa zhodujú, že najbližšie voľby v rôznych krajinách môžu byť zásadným testom toho, ako dobre dokážeme tieto hrozby rozpoznať a zvládnuť. AI swarmy majú potenciál nielen šíriť konkrétne naratívy, ale aj systematicky podkopávať dôveru v demokratické procesy – napríklad spochybňovaním legitimity výsledkov či podporou extrémnych postojov.

Autori štúdie preto vyzývajú na rýchlu implementáciu protiopatrení. Navrhujú povinné označovanie AI generovaného obsahu, pokročilé detekčné mechanizmy aj reguláciu už na úrovni návrhu samotných AI systémov. Kľúčové podľa nich bude konať preventívne, nie reaktívne.

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP