Vedecká štúdia odhaľuje veľké nedostatky jazykových modelov. Ich schopnosť prispôsobiť sa zmenám v dynamických situáciách je však stále otázna. Veľké jazykové modely (LLM) ako GPT-4 alebo Claude 3 Opus dokážu generovať úžasné texty. Podľa najnovšej štúdie im chýba hlboké porozumenie reálneho sveta. Vedci z MIT, Harvardu a Cornellovej univerzity zistili, že tieto systémy nedokážu vytvoriť konzistentné modely sveta, teda reprezentácie reálnych pravidiel a vzťahov. O téme informoval portál Live Science.

Jedným z testov bolo navigovanie cez New York. Modely dokázali poskytnúť presné pokyny. Avšak mapy, z ktorých vychádzali, obsahovali neexistujúce ulice. Pri neočakávaných zmenách, ako sú uzávierky alebo obchádzky, sa presnosť navigácie dramaticky znížila a často úplne zlyhala.

Ako jazykové modely fungujú

Jazykové modely fungujú na princípe takzvaných transformátorov, alebo teda neurónových sietí, ktoré spracúvajú obrovské množstvo údajov a vytvárajú model. Pomocou neho odpovedajú na otázky alebo riešia úlohy. Tento proces však závisí od kvality a rozmanitosti údajov, z ktorých sa model učí.

Výskumníci skúmali schopnosť modelov pracovať so sekvenciami pravidiel. Použili na to problémy deterministickej konečnej automaty (DFA), ktoré simulujú reálne prostredia. Od pravidiel hry Othello po mestskú navigáciu.

Mário Šimovič/FonTech

Testované boli dva druhy modelov,  jeden trénovaný na náhodných údajoch a druhý na strategicky generovaných dátach. Zaujímavé bolo, že modely trénované na náhodných údajoch dokázali vytvoriť presnejší model sveta, pretože boli vystavené širšiemu spektru možností.

Napríklad pri hre Othello zahŕňali aj zlé ťahy, ktoré by profesionálni hráči neurobili, no model ich vedel spracovať. Napriek tomu iba jeden model dokázal vytvoriť konzistentný herný plán pre Othello. V prípade navigácie však všetky modely zlyhali, ak došlo k zmenám v prostredí, napríklad k uzavretiu časti ulíc.

Dynamické prostredie ako problém

Vedci upozornili, že jazykové modely sú mimoriadne citlivé na zmeny. Ak bola napríklad uzavretá iba 1 % ulíc v mape, presnosť navigácie klesla z takmer 100 % na 67 %. To poukazuje na nedostatok flexibility týchto modelov v dynamických prostrediach. Táto štúdia podčiarkuje riziká spojené s používaním veľkých jazykových modelov v reálnom svete, napríklad v autonómnych vozidlách.

Ukazuje sa, že ich schopnosť reagovať na neočakávané situácie je zatiaľ obmedzená. Vedci navrhujú, že na dosiahnutie presnejších modelov bude potrebné vyvinúť nové metodológie, hoci ich konkrétna podoba zatiaľ nie je jasná. Ashesh Rambachan, jeden z autorov štúdie poznamenal, že je dôležité nenechať sa oklamať pôsobivými výsledkami týchto modelov. Potrebné je dôkladne zhodnotiť ich schopnosti a limity, aby ich využili zodpovedne a efektívne.

Pošli nám TIP na článok



Teraz čítajú