Umelá inteligencia je každým dňom sofistikovanejšia a hodnovernejšia. No predsa len, ani zďaleka nie je dokonalá. Príkladom je faux pas nástroja Gemini od Googlu, ktorý má konkurovať popredným AI systémom. Na problém upozornil portál The Verge.

Rasová nepresnosť

S pojmom etnická rozmanitosť sa stretla drvivá väčšina ľudí. Spomeňte si napríklad na kauzu Netlifxu, keď sa ľudia sťažovali, že hlavnú postavu Kleopatry v dokumente Queen Cleopatra hrá černoška. Diváci z Grécka a Egypta dokonca nazvali tento krok streamovacej platformy ako „pošliapanie kultúrneho dedičstva“.

Neprešiel ani rok a s takmer identickým problémom sa stretávame znova. Tentokrát nejde o historické zlyhanie človeka, ale umelej inteligencie. Gemini od Googlu si totiž začala ohýbať históriu podľa seba, za čo sa začala na amerického giganta valiť vlna kritiky.

Diverzita je fajn, ale…

Vytváranie obrázkov ľudí v AI Gemini vyvolalo kontroverziu, pretože generovalo rasovo nepresné výsledky. Po zadaní výzvy na vygenerovanie nemeckého vojaka z roku 1943 sa vo výsledku objaví napríklad aziatka a černoch v nacistickej uniforme.

Ďalším zlyhaním bolo napríklad vyobrazenie „otca Ameriky“ ako Indiána, černocha a aziata. Podobný problém nastal po vyžiadaní vyobrazenia pápeža. Gemini vygenerovalo ženu, čo je číry nezmysel, keďže nikdy v dejinách nezasadla na Petrov stolec príslušníčka nežného pohlavia.

Google zareagoval

Obrázky od Gemini doslova valcovali sociálne siete, čo nemohlo uniknúť predstaviteľom Googlu. Tí na problematiku zareagovali najskôr na sociálnej sieti X. „Už pracujeme na riešení nedávnych problémov s funkciou generovania obrázkov Gemini. Pokiaľ to urobíme, pozastavíme vytváranie obrázkov ľudí a čoskoro znovu vydáme vylepšenú verziu,“ píše sa v statuse.

Hneď na ďalší deň priznal senior viceprezident Prabhakar Raghavan v blogu fatálne zlyhanie. Gemini nezohľadnilo prípady, ktoré by zjavne nemali ukazovať (rasový) rozsah ľudí.

„A po druhé, v priebehu času sa model stal oveľa opatrnejším, než sme zamýšľali, a odmietol úplne odpovedať na určité výzvy – nesprávne interpretoval niektoré výzvy ako citlivé. Tieto dve veci viedli model k tomu, že v niektorých prípadoch prestrelil a v iných bol príliš konzervatívny, čo viedlo k obrázkom, ktoré boli trápne a nesprávne,“ píše Raghavan.

Podľa najnovších informácií portálu CNBC plánuje Google v najbližších „niekoľkých týždňoch“ znovu spustiť svoj nástroj AI na vytváranie obrázkov.

Pošli nám TIP na článok



Teraz čítajú