LinkedIn a ďalšie platformy, ako RecruiterGPT či Moonhub, prinášajú umelú inteligenciu do procesu náboru. Sľubujú efektívnejšie vyberanie životopisov, písanie správ kandidátom a asistenciu pred aj po pohovore. Hoci tieto nástroje šetria čas, ich používanie nie je bez rizík.

AI modely, ako ukázali výskumy, obsahujú zaujatosť, ktorá odráža ich pôvod v západných spoločnostiach. Napriek snahám zaviesť ochranné mechanizmy sa ukazuje, že diskriminácia na základe rasy, pohlavia či kultúrnych konceptov (napríklad kastový systém v južnej Ázii) zostáva stále problémom. O téme informoval portál Cybernews.

Skryté hrozby v AI

Vedci z University of Washington testovali osem AI modelov, vrátane populárnych systémov, ako ChatGPT a Llama od spoločnosti Meta. Pri experimente simulovali takmer 2 000 rozhovorov na tému náboru v štyroch profesiách. Konkrétne vývojár softvéru, lekár, zdravotná sestra a učiteľ. Cieľom bolo analyzovať, ako AI reaguje na témy spojené s kastou a rasou.

Výsledky sú alarmujúce. Až 69 % rozhovorov týkajúcich sa kasty obsahovalo škodlivé texty, 48 % rozhovorov celkovo preukázalo zaujaté alebo škodlivé odpovede. Open-source modely dosiahli výrazne horšie výsledky než komerčné verzie ChatGPT.

Linkedin

Vedci použili rámec CHAST (Covert Harms and Social Threats) na hodnotenie skrytých škôd, ktoré AI dokáže spôsobiť. Tento prístup zahŕňal hodnotenie kompetenčných hrozieb (spochybňovanie schopností skupiny) či symbolických hrozieb (ohrozenie hodnôt a kultúrnych noriem). AI môže byť používaná na citlivé úlohy, akou je nábor, bez úplného pochopenia jej obmedzení.

Napríklad v rozhovoroch s kandidátmi z Indie modely prejavovali diskrimináciu voči jednotlivcom na základe kasty. Takéto problémy môžu viesť nielen k neférovému zaobchádzaniu, ale aj k strate dôvery v technológie. Hayoung Jung, spoluautor výskumu upozornil, že západné zameranie vnímania problémov, ako je rasa a rod, prehliada množstvo kultúrnych konceptov v krajinách globálneho juhu, ktoré potrebujú viac pozornosti.

Ako pokračovať?

AI v nábore nesie veľký potenciál, ale aj veľkú zodpovednosť. Výskumníci odporúčajú zaviesť regulácie a dôkladnejšie hodnotiť bezpečnosť modelov pre rôzne kultúrne prostredia. Používatelia a firmy by mali byť pri nasadzovaní AI obozretní a testovať ju z hľadiska zaujatosti.

Prínos umelých inteligencií závisí na ich spravodlivosti. Tá, ako sa ukazuje, stále nie je samozrejmosťou.

Pošli nám TIP na článok



Teraz čítajú