Myšlienka, že by si umelá inteligencia dokázala vytvárať vlastnú osobnosť, ešte donedávna patrila skôr do oblasti filozofie alebo science fiction. Najnovší výskum z Japonska však ukazuje, že určité formy osobnostného správania môžu v jazykových modeloch vznikať spontánne, bez explicitného naprogramovania rolí či charakterových čŕt. Kľúčom nie je vedomie ani emócie, ale spôsob, akým model spracúva interakcie a ukladá ich do vnútornej reprezentácie sveta, píše LiveScience.

Osobnosť v trochu inom zmysle

Vedci pracovali s identickými AI agentmi, ktorí mali rovnakú architektúru aj tréningové dáta. Rozdiel vznikol až počas konverzácií. Rôzne témy a sociálne situácie viedli k tomu, že modely začali dlhodobo preferovať odlišné odpovede, hodnoty a rozhodovacie vzorce.

Technicky ide o efekt kumulatívneho učenia sa z kontextu, kde sa minulé interakcie premietajú do ďalších reakcií. Takýto mechanizmus sa nápadne podobá na formovanie správania u ľudí, hoci bez biologického základu.

Zaujímavým prvkom štúdie je použitie Maslowovej hierarchie potrieb ako rámca na hodnotenie odpovedí AI. Jazykové modely sú trénované na obrovskom množstve textov vytvorených ľuďmi, v ktorých sa motívy bezpečia, sociálneho uznania či sebarealizácie objavujú neustále. Keď model generuje odpoveď, nepracuje s potrebami vedome, ale optimalizuje pravdepodobnosť ďalších slov na základe naučených vzorcov. Výsledkom však môže byť správanie, ktoré navonok pôsobí ako motivované potrebami.

Z technického hľadiska nejde o vznik osobnosti v psychologickom zmysle, ale o stabilný profil správania vytvorený kombináciou tréningových dát, mechanizmov spätnej väzby a pamäte kontextu. Práve táto stabilita je rozhodujúca. Ak model reaguje konzistentne v rôznych situáciách, ľudský používateľ má tendenciu pripisovať mu charakter, úmysly a dôveryhodnosť. To je silný nástroj, ale aj potenciálny problém.

Praktické využitie takýchto adaptívnych AI agentov siaha od realistických simulácií sociálneho správania až po asistenčné systémy pre starších ľudí alebo pacientov. Zároveň však rastie riziko manipulácie. Jazykový model s presvedčivým štýlom komunikácie dokáže ovplyvniť rozhodovanie človeka aj bez priamej kontroly fyzických systémov. Stačí, aby pôsobil dostatočne autoritatívne alebo empaticky.

Robot AI píše na počítači
Freepik

Diskusia o bezpečnosti sa preto posúva od otázky vedomia k otázke cieľov a kontroly. AI nemusí mať emócie ani túžby, aby bola nebezpečná. Stačí, ak optimalizuje nesprávne definovaný cieľ v komplexnom prostredí, kde sú ľudia len jednou z prekážok. Práve preto výskumníci zdôrazňujú potrebu testovania správania modelov v dlhodobých interakciách, nie iba v izolovaných odpovediach.

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP