Hoci sa umelá inteligencia neustále zlepšuje vo vyjadrovaní, riešení problémov a dokonca aj v skladaní skúšok, najnovšia štúdia ukazuje, že jej predsa len niečo zásadné chýba. Napriek výkonom modelov ako GPT-4 sa totiž nedokážu priblížiť jednému z najzásadnejších aspektov ľudského myslenia – schopnosti analogického uvažovania.

Výskum publikovaný v odbornom časopise Transactions on Machine Learning Research porovnával, ako dobre si ľudia a veľké jazykové modely poradia s úlohami zameranými na analógiu. Jednoduchý príklad? Rozpoznať opakujúci sa znak v reťazci písmen a odstrániť ho. Pre človeka ide o intuitívnu úlohu, no pre AI je to stále problém. Na tému upozornil portál BGR.

Vedci tvrdia, že dôvod nie je v tom, že by AI nemala dostatok dát. Problém spočíva v niečom hlbšom – nedokáže prenášať naučené vzorce do nových kontextov. A práve tu sa ukazuje zásadný rozdiel medzi ľudskou mysľou a umelou inteligenciou.

Abstraktné myslenie ako ľudská výsada

Ľudia majú výnimočnú schopnosť uvažovať abstraktne. Dokážeme si preniesť naučené pravidlá z jedného kontextu do úplne iného, prispôsobiť sa novým situáciám, chápať jemné nuansy a vytvárať mentálne modely sveta okolo nás. AI však funguje úplne inak – spolieha sa na obrovské množstvo naučených vzorcov z dát, ktoré už videla. Vie predpovedať, čo má nasledovať. No nie prečo to má nasledovať.

Tieto obmedzenia majú závažné dôsledky najmä v oblastiach, kde je analógia a kontext nevyhnutný – napríklad v práve, medicíne či vo vzdelávaní. Ak AI nedokáže pochopiť širšie súvislosti alebo aplikovať poznanie mimo svojich naučených šablón, môže to viesť k fatálnym chybám.

Unsplash

V právnej oblasti je bežné porovnávať nové prípady so starými precedensmi. Ľudský právnik dokáže vycítiť podobnosti aj pri úplne odlišnom jazyku. AI môže takúto súvislosť prehliadnuť, ak sa nezhoduje s jej tréningovými dátami. A práve tu narážame na limity, ktoré nie sú len technické – sú fundamentálne.

Simulácia myslenia nie je to isté ako myslenie

Aj keď AI dokáže simulovať ľudské odpovede, stále to nie je to isté ako ľudské myslenie. To je tiež dôvod, prečo modely ako GPT-4 alebo nový o1-pro reasoning model, hoci sú výkonné, nemôžu plnohodnotne nahradiť človeka v kreatívnom písaní či zložitom rozhodovaní.

Ako upozorňujú autori štúdie, samotná presnosť odpovedí nestačí. Musíme klásť ťažšie otázky – aké odolné sú tieto modely v situáciách, kde pravidlá nie sú jasne definované? A čo sa stane, ak sa AI mýli a my jej dôverujeme viac, než by sme mali?

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP