Umelá inteligencia dokáže už dlhšiu dobu vytvárať fotorealistické obrázky, ktoré sú v mnohých prípadoch na nerozoznanie od reality. Spoločnosť OpenAI však tentoraz predstavila jedinečný systém, ktorý dokáže len na základe textových príkazov vytvárať videá dlhé až 1 minútu, ktoré sú obdobne realistické – aj keď je možné v nich stále nájsť nedostatky, môžu byť obrovským problémom z hľadiska dezinformácií.

Boj s realitou

Nový AI model nesie názov Sora a podľa americkej spoločnosti OpenAI je zatiaľ k dispozícii len pre vybranú hŕstku ľudí, prevažne za účelom testovania, hľadanie chýb a dolaďovania. Sora je prístupná aj pre niektorých vybraných umelcov, vizuálnych tvorcov a tvorcov filmov, aby firma získala potrebnú odozvu a vedela, ktorým smerom sa má pri ďalšom vývoji vydať.

Takýto obmedzený prístup je však rozhodne správnym krokom, keďže ide o nesmierne silný nástroj a to obzvlášť z hľadiska tvorby dezinformácií. I keď je takmer isté, že na verejnosť sa takáto služba dostane len s množstvom obmedzení a nebude umožňovať vytvárať akékoľvek videá, vždy sa nájdu spôsoby, ako ju zneužiť s cieľom šíriť klamstvá, ako je tomu aj v prípade AI modelov vytvárajúcich obrázky.

Je ale len otázkou času, kým vznikne aj open-source alternatíva, ktorá pobeží lokálne a zbaví sa cenzúry. Desivý je aj fakt, že ide o prvú verziu tohto AI modelu, ktorú vidíme a už teraz sú videá nesmierne realistické, pričom pre človeka, ktorý s AI nemá veľké skúsenosti, môže takéto video zmiasť.

Desivé schopnosti

OpenAI na svojej webovej stránke zverejnil viacero príkladov toho, čo Sora dokáže a i keď ide zrejme o výber toho najlepšieho, je nutné uznať, že sa táto technológie vyvíja neuveriteľne rýchlo. Sora funguje podobne, ako napríklad Midjourney a videá vytvára na základe textového príkazu, čo dokáže aj Lumiere spoločnosti Google – rozdiel je však v dĺžke videí, ktoré v tomto prípade dosahujú až minútovú dĺžku.

Sora zvláda pohyb kamery, realistické odrazy svetla, tiene a tiež pohyb, na základe ktorého je ale možné často odhaliť, že ide o AI. Nie všetky videá vytvorené týmto systémom sú navyše tak dokonalé a často je jasné, že nemajú s realitou nič spoločné. Na prvú verziu si však Sora vedie lepšie, než by sme čakali.

Zavedie aj bezpečnostné opatrenia

OpenAI dodáva, že skôr než uvedie model Sora ako produkt pre verejnosť, chce ho dobre otestovať. Momentálne ho skúšajú experti na dezinformácie, nenávistný obsah a podobné problémy, ktoré môže takýto systém spôsobiť. Firma zároveň vyvíja softvér, ktorý dokáže rozoznať video vytvorené systémom Sora.

Pobaví napríklad video vyššie, kde sa šteniatka vlka nezmyselne rozdvojujú a následne nevysvetliteľne miznú, kým ich pohyb a osvetlenie pôsobí realisticky. Paradoxne môžu byť takéto chyby využité na tvorbu sureálnych filmov.

OpenAI na svojej stránke uvádza viacero podobných nezmyslov, ako je napríklad muž bežiaci na bežiacom páse opačným smerom či basketbalová lopta, ktorá prejde košom, vybuchne a vytvorí ďalšiu loptu.

Pošli nám TIP na článok



Teraz čítajú