Umelá inteligencia od spoločnosti Google mala zásadne zmeniť spôsob, akým vyhľadávame informácie. Namiesto zoznamu odkazov dnes čoraz častejšie dostávame hotové odpovede, ktoré generuje AI systém Gemini. Realita je však komplikovanejšia. Najnovšie analýzy ukazujú, že aj keď je presnosť vysoká, množstvo chýb, ktoré systém produkuje, je v absolútnych číslach zarážajúce.

Podľa testovania, na ktoré upozornil The New York Times a Tech Spot, obsahuje približne každá desiata AI odpoveď vo vyhľadávaní nepresnosti alebo priamo nesprávne informácie. Na prvý pohľad ide o relatívne malé číslo, no v kontexte globálneho vyhľadávania nadobúda úplne iný rozmer. Google totiž ročne spracuje približne päť biliónov dopytov. To znamená, že používatelia môžu byť vystavení desiatkam miliónov chybných odpovedí každú hodinu.

Za týmito číslami stojí analýza startupu Oumi, ktorý využil benchmark SimpleQA na vyhodnotenie kvality odpovedí systému Gemini. V októbri dosahovala verzia Gemini 2 presnosť približne 85 %, pričom februárový update na Gemini 3 ju posunul na približne 91 %. Zlepšenie je zjavné, no ani to nestačí na elimináciu problému v takomto masívnom meradle.

Google však metodiku kritizuje. Tvrdí, že podobné testy nereflektujú reálne správanie používateľov. Interné merania spoločnosti zároveň naznačujú, že samotný model Gemini, ak funguje mimo vyhľadávača, „halucinuje“ približne v 28 % prípadov. To poukazuje na hlbší problém generatívnych modelov, ktorý sa nedá vyriešiť len drobnými optimalizáciami.

Zásadnou slabinou zostáva aj práca so zdrojmi. Google sa snaží AI odpovede podkladať odkazmi, no tie často nedokážu potvrdiť tvrdenia, ktoré Gemini prezentuje. V praxi to znamená, že používateľ dostane odpoveď, ktorá pôsobí dôveryhodne, no jej opora v realite je minimálna alebo žiadna.

Problém, ktorý sa násobí

Testovanie ukázalo viacero znepokojujúcich scenárov. V niektorých prípadoch AI odpoveď obsahuje chybu, no hneď pod ňou sa nachádza odkaz s korektnou informáciou. Inde je situácia opačná. Odpoveď je správna, no odkaz vedie na nespoľahlivý alebo nepresný zdroj. A niekedy odkazy nemajú s odpoveďou vôbec nič spoločné.

Po februárovej aktualizácii sa tento problém dokonca zhoršil. Kým pri Gemini 2 sa nesúlad medzi odpoveďou a zdrojmi objavoval v 37 % prípadov, pri Gemini 3 to už bolo 56 %. Inými slovami, viac ako polovica odpovedí je „nepodložená“, teda používateľ si ich nevie jednoducho overiť.

Konkrétne príklady pôsobia až banálne, no ilustrujú systémový problém. AI napríklad uviedla nesprávny rok otvorenia múzea venovaného Bobovi Marleymu alebo mylne tvrdila, že violončelista Yo-Yo Ma bol uvedený do Siene slávy klasickej hudby, pričom citovala zdroje, ktoré tieto tvrdenia nepodporovali.

Gemini/Úprava redakcie

AI sa dá manipulovať jednoduchšie, než by sme čakali

Ešte vážnejšie zistenie priniesol experiment novinára z BBC. Ten publikoval blogový príspevok obsahujúci úplne vymyslené informácie, napríklad absurdné tvrdenie o jedení hotdogov. Už o deň neskôr Google tieto nepravdy prevzal a prezentoval ako fakt v AI prehľade.

To jasne ukazuje, že systém je náchylný na manipuláciu a nedokáže spoľahlivo rozlíšiť dôveryhodné zdroje od zavádzajúcich. V prostredí internetu, kde môže obsah publikovať prakticky ktokoľvek, ide o zásadné riziko.

Samotné technologické firmy si tento problém uvedomujú. Microsoft vo svojich podmienkach uvádza, že jeho AI nástroj Copilot je určený „na zábavné účely, nie na prijímanie dôležitých rozhodnutí“. Google zas priamo odporúča používateľom, aby si odpovede overovali. Spoločnosť xAI dokonca otvorene priznáva, že halucinácie sú prirodzenou vlastnosťou modelov.

Napriek tomu všetkému sa AI prehľady stávajú štandardom. Vyhľadávače ich zobrazujú automaticky a používateľov čoraz menej motivujú kliknúť na pôvodné zdroje. Google síce postupne nasadzuje technické vylepšenia na boj proti spamu a nesprávnym dátam, no zásadná otázka zostáva nezodpovedaná.

Ako zabezpečiť, aby systém, ktorý denne odpovedá na miliardy otázok, dokázal rozlíšiť pravdu od presvedčivo znejúcej chyby?

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP