Deepfake sa stáva čoraz väčším problémom moderného online sveta. Falošné a upravené videá s výrokmi známych politikov a osobností či fotografie s tvárami celebrít sa objavujú na internete stále častejšie. Odlíšiť kvalitne spracovaný deepfake obsah od reality môže byť neraz poriadne zložité, teraz je však na to dostupný nástroj pre všetkých. Spustila ho spoločnosť Sensity.

Deepfake videá nie sú žiadnou novinkou ani na Slovensku. Doteraz sa objavovali najmä vo vtipnej forme, keď parodovali známych politikov napríklad po prezidentských voľbách u nás a v USA. Omnoho väčší problém to býva v zahraničí.

Hoci ani tam tvorcovia tohto obsahu nezabúdajú na tvorbu vtipných deepfake videí a fotiek, tak čoraz častejšie zneužívajú deepfake na vytváranie falošných politických a dokonca aj erotických videí. Práve v porne sa objavuje deepfake najčastejšie. Potvrdzuje to štúdia statupu Sensity, ktorý ešte vlani informoval, že až 96 % všetkých deepfake videí na internete je porno.

V týchto videách sú pritom zneužívané tváre známych celebrít, hercov a herečiek, alebo spevákov, ktorí pritom ani len netušia, že ich tvár bola zneužitá v takomto obsahu pre dospelých. Každý mesiac sa počet deepfake videí zdvojnásobuje a len za december 2020 odhalil startup až 85 047 takýchto videí. Detailne sme sa tejto problematike venovali v samostatnom článku.

Detekcia deepfake obsahu v špeciálnom webovom nástroji

Aktuálne je to práve Sensity, ktorý sprístupnil verejnosti svoj nový nástroj na odhaľovanie deepfake obsahu s intuitívnym prostredím. Používateľ tak má možnosť jednoducho a rýchlo odhaliť falošné fotografie a videá z kategórie deepfake. Analyzovať je možné video formáty .mp4, .mov a fotografie vo formátoch .png, .jpeg, .jfif a .tiff. Obsah stačí nahrať na stránku a spustiť analýzu. Stránka tiež obsahuje zoznam celebrít a ľudí, ktorých tváre sú v deepfake videách zneužívané najčastejšie.

Pri samotných videách tento nástroj analyzuje tzv. „face swap“, teda výmenu tváre osoby na videu. Politik môže mať napríklad tvár známej celebrity alebo, ako to bolo v prípade deepfake s Elonom Muskom, dostal spevák v pesničke o vesmíre tvár zakladateľa SpaceX. Tento nástroj sme si vyskúšali aj u nás v redakcii. Na začiatok ponúka bezplatnú kontrolu 5 fotiek a videí. Pre ďalšie analýzy je však potrebné predplatné.

Kontrola videí nemusí byť vždy 100 %-ne presná. Predsa len, tento nástroj sa učí postupne aj s pribúdajúcimi príkladmi deepfake obsahu. Používateľ môže kontrolovať aj deepfake video len na základe URL adresy, no táto možnosť nemusí byť vždy dostupná. Najlepším riešením je predmetné video nahrať z počítača a potom bude jeho obsah vyhodnotený. V priemere to trvá nanajvýš pár minút, no bežne dokáže deepfake odhaliť už za pár sekúnd.

Pri kontrole deepfake fotografií to prebieha podobne, nástroj kontroluje a overuje „face swap“, no navyše aj generované „GAN“ obrázky. GAN (Generative Adversarial Networks) predstavil ešte v roku 2014 Ian Goodfellow, Yoshua Bengio a ďalší výskumníci z univerzity v Montreale.

Jedná sa o novú neurónovú sieť, ktorá dokáže s využitím umelej inteligencie vytvárať komplexné obrazové výstupy. Tento nástroj však môže byť zneužitý aj na vytváranie deepfake fotiek.

Pomocou tohto nástroja dokázala jeho možnosti vo vlastnom programe demonštrovať aj Nvidia. S technológiou GAN je možné vytvoriť aj z obyčajnej machule ako zo skicára krásny fotorealistický obraz, vygenerovať profilovú fotku s tvárou neexistujúceho človeka alebo generovať grafické prostredie do hier. To všetko bolo demonštrované ešte pred niekoľkými rokmi.

A práve takéto úpravy pomocou GAN analyzuje aj zverejnený nástroj od startupu Sensity, ktorý dokáže vyhodnotiť, či fotografia prešla týmto procesom úpravy. Výsledok celej analýzy uvidí používateľ hneď pod fotografiou alebo videom, pričom dostane aj percentuálny výsledok, ktorý vypovedá o tom, v akej miere si je nástroj istý, že ide o deepfake obsah. Správa o analýze je odoslaná aj na email.

Dá sa naňho spoľahnúť, nie je však pre každého

Nie vždy pri našom teste nástroj uspel, no zo 4 testovaných fotografií úspešne odhalil 2 deepfake fotky a 1 deepfake video už behom krátkej chvíle. Postupom času a s väčším množstvom vzoriek takéhoto deepfake obsahu môžeme predpokladať, že umelá inteligencia bude stále presnejšie vyhodnocovať falošné fotky a upravené deepfake videá. Aktuálne je spoľahlivosť a presnosť nástroja podľa tvorcov na úrovni 95 až 99.9%.

S čoraz väčším dosahom a rozširovaním deepfake obsahu je takýto nástroj dôležitým krokom vpred pri odhaľovaní podvodných videí a fotografií. Jeho možnosti zrejme nebudú využívať bežní ľudia pri kontrole obsahu napríklad zo sociálnych sietí, predsa len, predplatné nie je práve najlacnejšie.

Nástroj od Sensity je totiž primárne určený pre výskumníkov a odborníkov venujúcich sa problematike deepfake, ktorým poslúži spoľahlivo.

Pošli nám TIP na článok



Teraz čítajú