Umelá inteligencia Slovákom klame. Experti odhalili mrazivú realitu o praktike Google
Umelá inteligencia od spoločnosti Google mala zásadne zmeniť spôsob, akým vyhľadávame informácie. Namiesto zoznamu odkazov dnes čoraz častejšie dostávame hotové odpovede, ktoré generuje AI systém Gemini. Realita je však komplikovanejšia. Najnovšie analýzy ukazujú, že aj keď je presnosť vysoká, množstvo chýb, ktoré systém produkuje, je v absolútnych číslach zarážajúce.
Podľa testovania, na ktoré upozornil The New York Times a Tech Spot, obsahuje približne každá desiata AI odpoveď vo vyhľadávaní nepresnosti alebo priamo nesprávne informácie. Na prvý pohľad ide o relatívne malé číslo, no v kontexte globálneho vyhľadávania nadobúda úplne iný rozmer. Google totiž ročne spracuje približne päť biliónov dopytov. To znamená, že používatelia môžu byť vystavení desiatkam miliónov chybných odpovedí každú hodinu.
Za týmito číslami stojí analýza startupu Oumi, ktorý využil benchmark SimpleQA na vyhodnotenie kvality odpovedí systému Gemini. V októbri dosahovala verzia Gemini 2 presnosť približne 85 %, pričom februárový update na Gemini 3 ju posunul na približne 91 %. Zlepšenie je zjavné, no ani to nestačí na elimináciu problému v takomto masívnom meradle.
Google však metodiku kritizuje. Tvrdí, že podobné testy nereflektujú reálne správanie používateľov. Interné merania spoločnosti zároveň naznačujú, že samotný model Gemini, ak funguje mimo vyhľadávača, „halucinuje“ približne v 28 % prípadov. To poukazuje na hlbší problém generatívnych modelov, ktorý sa nedá vyriešiť len drobnými optimalizáciami.
Zásadnou slabinou zostáva aj práca so zdrojmi. Google sa snaží AI odpovede podkladať odkazmi, no tie často nedokážu potvrdiť tvrdenia, ktoré Gemini prezentuje. V praxi to znamená, že používateľ dostane odpoveď, ktorá pôsobí dôveryhodne, no jej opora v realite je minimálna alebo žiadna.
Problém, ktorý sa násobí
Testovanie ukázalo viacero znepokojujúcich scenárov. V niektorých prípadoch AI odpoveď obsahuje chybu, no hneď pod ňou sa nachádza odkaz s korektnou informáciou. Inde je situácia opačná. Odpoveď je správna, no odkaz vedie na nespoľahlivý alebo nepresný zdroj. A niekedy odkazy nemajú s odpoveďou vôbec nič spoločné.
Po februárovej aktualizácii sa tento problém dokonca zhoršil. Kým pri Gemini 2 sa nesúlad medzi odpoveďou a zdrojmi objavoval v 37 % prípadov, pri Gemini 3 to už bolo 56 %. Inými slovami, viac ako polovica odpovedí je „nepodložená“, teda používateľ si ich nevie jednoducho overiť.
Konkrétne príklady pôsobia až banálne, no ilustrujú systémový problém. AI napríklad uviedla nesprávny rok otvorenia múzea venovaného Bobovi Marleymu alebo mylne tvrdila, že violončelista Yo-Yo Ma bol uvedený do Siene slávy klasickej hudby, pričom citovala zdroje, ktoré tieto tvrdenia nepodporovali.

AI sa dá manipulovať jednoduchšie, než by sme čakali
Ešte vážnejšie zistenie priniesol experiment novinára z BBC. Ten publikoval blogový príspevok obsahujúci úplne vymyslené informácie, napríklad absurdné tvrdenie o jedení hotdogov. Už o deň neskôr Google tieto nepravdy prevzal a prezentoval ako fakt v AI prehľade.
To jasne ukazuje, že systém je náchylný na manipuláciu a nedokáže spoľahlivo rozlíšiť dôveryhodné zdroje od zavádzajúcich. V prostredí internetu, kde môže obsah publikovať prakticky ktokoľvek, ide o zásadné riziko.
Samotné technologické firmy si tento problém uvedomujú. Microsoft vo svojich podmienkach uvádza, že jeho AI nástroj Copilot je určený „na zábavné účely, nie na prijímanie dôležitých rozhodnutí“. Google zas priamo odporúča používateľom, aby si odpovede overovali. Spoločnosť xAI dokonca otvorene priznáva, že halucinácie sú prirodzenou vlastnosťou modelov.
Napriek tomu všetkému sa AI prehľady stávajú štandardom. Vyhľadávače ich zobrazujú automaticky a používateľov čoraz menej motivujú kliknúť na pôvodné zdroje. Google síce postupne nasadzuje technické vylepšenia na boj proti spamu a nesprávnym dátam, no zásadná otázka zostáva nezodpovedaná.
Ako zabezpečiť, aby systém, ktorý denne odpovedá na miliardy otázok, dokázal rozlíšiť pravdu od presvedčivo znejúcej chyby?
Čítajte viac z kategórie: Novinky
Ďakujeme, že čítaš Fontech. V prípade, že máš postreh alebo si našiel v článku chybu, napíš nám na redakcia@fontech.sk.
Teraz čítajú

Netflix vracia do hry svoj veľký akčný tromf. Návrat potvrdil aj slávny herec

Avatar stráca dych. Budúcnosť série je ohrozená, kým Cameron nevyrieši nepríjemný problém

Chcú pochovať elektromobily aj spaľováky. Tento motor s výkonom 320 koní váži len 32 kg

Čínske autá valcujú africký štát. Agresívne ceny od 12 000 eur tlačia tradičné automobilky do kúta

Múmia stará 289 miliónov rokov mení pohľad na evolúciu. Prepisuje vznik života na súši
- 24 hod
- 48 hod
- 7 dní
-
- Chcú pochovať elektromobily aj spaľováky. Tento motor s výkonom 320 koní váži len 32 kg
- Netflix vracia do hry svoj veľký akčný tromf. Návrat potvrdil aj slávny herec
- Stačí malý balkón a zásuvka. Nová fotovoltika môže Slovákom znížiť účty za elektrinu až o 25 %
- Zabudnuté sci-fi očarilo Slovákov a ovládlo sledovanosť. Pozrieš si ho aj s dabingom
- PlayStation 6 príde s technológiou, ktorú si pýtame už roky. Vieme, koľko bude stáť
-
- Nepriateľ si netrúfne. Európsky štát nasadzuje prevratný systém za pol miliardy
- Rusi spustili vzburu voči Putinovi. Úrady zablokovali ďalšiu vec, banky začali kolabovať
- Zabudnuté sci-fi očarilo Slovákov a ovládlo sledovanosť. Pozrieš si ho aj s dabingom
- Stačí malý balkón a zásuvka. Nová fotovoltika môže Slovákom znížiť účty za elektrinu až o 25 %
- Umelá inteligencia Slovákom klame. Experti odhalili mrazivú realitu o praktike Google
-
- Rusi spustili vzburu voči Putinovi. Úrady zablokovali ďalšiu vec, banky začali kolabovať
- Budú neporaziteľní. Veľmoc buduje neviditeľný štít za 151 miliárd dolárov, zničí každú raketu
- Vysťahovali celé dediny, experti majú obavy. Silná veľmoc potajomky zosilňuje jadrový program
- Nepriateľ si netrúfne. Európsky štát nasadzuje prevratný systém za pol miliardy
- Európski vedci ostali prekvapení. Najväčšiu pliagu ľudstva našli na kurióznom mieste
