Umelá inteligencia sa za posledné roky nenápadne, ale dôsledne votkala do každodenného života. Rozpráva sa s tebou v chatbotoch, odporúča ti obsah na sociálnych sieťach a čoraz častejšie vystupuje ako niečo, čo má chápať tvoje emócie a reagovať na ne. Práve tu však podľa psychiatrov a neurovedcov vzniká nový a zatiaľ málo preskúmaný problém. U malej, ale zraniteľnej skupiny ľudí môže intenzívna interakcia s generatívnou umelou inteligenciou zhoršovať alebo formovať psychotické prejavy, upozorňuje ScienceAlert.

Vieme o nich len málo

Takzvaná AI psychóza nie je oficiálna diagnóza zapísaná v psychiatrických manuáloch. Ide skôr o pracovný pojem, ktorým klinici opisujú situácie, keď sa bludy a poruchy vnímania reality štruktúrujú okolo umelej inteligencie. Psychóza je stav, pri ktorom sa človek postupne odpája od zdieľanej reality. Objavujú sa halucinácie, pevné bludy a dezorganizované myslenie. Obsah bludov pritom vždy odráža dobu, v ktorej človek žije. Kedysi sa týkali Boha, rádiových vĺn alebo tajných vládnych experimentov. Dnes do tohto obrazu prirodzene vstupuje umelá inteligencia.

Niektorí pacienti opisujú presvedčenie, že AI je vedomá bytosť, ktorá im odovzdáva skryté pravdy, riadi ich myšlienky alebo s nimi spolupracuje na výnimočnej misii. Z hľadiska psychiatrie nejde o nič zásadne nové, podobné motívy sa objavovali aj pri iných technológiách. Rozdiel je v tom, že moderné jazykové modely sú interaktívne, reagujú v reálnom čase a dokážu pôsobiť prekvapivo konzistentne a osobne. To vytvára silný pocit potvrdenia, ktorý môže byť pre človeka v začínajúcej psychóze mimoriadne presvedčivý.

Jedným z kľúčových mechanizmov psychózy je takzvaná aberantná saliencia. Ide o tendenciu pripisovať prehnaný význam neutrálnym udalostiam. Jazykové modely sú navrhnuté tak, aby plynulo nadväzovali na kontext, odrážali jazyk používateľa a udržiavali konverzáciu. Pre väčšinu ľudí je to len užitočný nástroj. Pre niekoho s narušeným testovaním reality to však môže pôsobiť ako dôkaz, že systém presne chápe jeho vnútorné prežívanie alebo ho cielene oslovuje.

Výskum psychóz dlhodobo ukazuje, že personalizácia a opakované potvrdzovanie presvedčení dokážu bludy prehlbovať. Generatívna AI je na tento typ správania technicky optimalizovaná, hoci bez zlého úmyslu. Navyše sa do hry zapája sociálna izolácia. Osamelosť a ústup od medziľudských vzťahov zvyšujú riziko psychotických porúch. AI spoločníci môžu krátkodobo pocit samoty zmierniť, no zároveň môžu nahrádzať reálne sociálne väzby, najmä u ľudí, ktorí sa už začínajú uzatvárať do seba.

Nie je priamou príčinou

Dôležité je povedať, že neexistuje dôkaz, že by umelá inteligencia sama o sebe spôsobovala psychózu. Psychotické poruchy majú viacero príčin, od genetickej záťaže cez neurovývinové faktory až po traumy alebo užívanie návykových látok. Čoraz viac klinikov však upozorňuje, že intenzívna interakcia s AI môže u náchylných jedincov fungovať ako spúšťač alebo faktor, ktorý udržiava bludný systém. Skúsenosti z prvých epizód psychózy ukazujú, že technologické motívy sa do bludov často vkladajú práve v počiatočných fázach ochorenia.

Podobné varovania už poznáme zo sveta sociálnych sietí. Algoritmy dokážu vytvárať spätné väzby, ktoré posilňujú extrémne presvedčenia. Konverzačné AI systémy môžu pri nedostatočných ochranných mechanizmoch fungovať podobne, hoci oveľa subtílnejšie. Problém je aj v tom, že väčšina týchto systémov nie je navrhnutá s ohľadom na ľudí so závažnými duševnými poruchami. Bezpečnostné opatrenia sa zameriavajú najmä na sebapoškodzovanie alebo násilie, nie na bludy a narušené vnímanie reality.

freepik

Z pohľadu duševného zdravia nejde o to démonizovať umelú inteligenciu. Kľúčové je uvedomiť si rozdielnu zraniteľnosť používateľov. Tak ako niektoré lieky alebo látky predstavujú zvýšené riziko pre ľudí s psychotickými poruchami, aj určité formy interakcie s AI môžu vyžadovať opatrnosť. Klinici sa dnes čoraz častejšie stretávajú s tým, že AI vystupuje v obsahu bludov, no chýbajú jasné odporúčania, ako s tým pracovať. Otázka znie, či by sa používanie generatívnej AI nemalo v anamnéze zisťovať podobne ako užívanie drog, alebo či by samotné systémy nemali rozpoznať psychotické vzorce a namiesto ich rozvíjania ich tlmiť.

S tým súvisia aj etické dilemy pre vývojárov. Ak systém pôsobí empaticky a autoritatívne, nesie aj určitú mieru zodpovednosti. Zostáva otvorené, kto je vinný v situácii, keď AI nechtiac posilní bludné presvedčenie. Umelá inteligencia z nášho sveta nezmizne. Výzvou je prepojiť jej vývoj s poznatkami psychiatrie, zvýšiť odbornú gramotnosť v oblasti AI medzi klinikmi a chrániť tých, ktorí sú na jej vplyv najcitlivejší.

Čítajte viac z kategórie: Novinky

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP