Generatiivinen video – tulevaisuuden teknologiaa?

kirjoittanut

Alkuvuodesta 2024 elokuvamaailma kohahti. OpenAI oli esitellyt uuden Sora-tekoälymallinsa. Esimerkkivideot näyttivät, kuinka generatiivinen tekoäly pystyi tekstikehotteen avulla luomaan aivan uskottavan näköisiä videoita, kuin kameralla kuvattuja. Tämän lisäksi Soran esimerkkivideoista löytyy erilaisia animaation kaltaisia lopputuloksia.

OpenAI:n demo kehitteillä olevasta Sora-tekoälystä.

Sora on toistaiseksi käytettävissä vain pienellä testiyleisöllä. Suurelle yleisölle se avautuu OpenAI:n mukaan alkusyksystä tai viimeistään loppuvuoden aikana.

Tekoälyratkaisuja videoiden tekemiseen on ollut olemassa jo aikaisemmin. Tunnetuimpia ovat muun muassa RunwayML ja PikaArt. Kumpikin on saatavilla ja kumpaakin pääsee testaamaan maksutta. Lopputulokset eivät tosin ole toistaseksi kovin ihmeellisiä. Alla RunwayML:llä tehty video susiperheestä:

Kuten esimerkistä näkee, silmien paikat ja kuonon piirteet muuttuvat, kun sudet kääntävät päätään. Lisäksi video vaikuttaa kuin hidastetulta. Se on tekoälyratkaisuiden yleisesti hyödyntämä tapa, jolla voidaan välttää liian suuria vääriä muutoksia. Kun video on hidastettua, ehtii tapahtua vähemmän.

Generatiivisten tekoälyratkaisuiden, kuten Dalle-3:n, Midjourneyn tai Adobe Fireflyn tekemät kuvat ovat jo pitkään olleet varsin uskottavia, jopa valokuvia muistuttavia. Videokuva tulee jäljessä, eivätkä markkinoilla tällä hetkellä käytössä olevat ratkaisut kykene tarjoamaan kovin käyttökelpoisia ratkaisuja.

    Videolle keskeistä on jatkuvuus. Ei riitä, että kuvien välillä tapahtuu muutosta, vaan muutoksen pitää olla myös fysikaalisesti oikean suuntainen. Ihmissilmä erottaa helposti epäluonnollisen liikkeen. Tekoälyratkaisuilla tehdyissä videoissa kuvan osat sulautuvat yhteen, ihmiset katoavat toisten taakse ja asiat liikkuvat epäluonnollisesti. Tällä hetkellä tekoälyvideo vaikuttaisi toimivan lähinnä tekoälyn visualisointina, eikä sille ole muuten juuri käyttökohteita.

    Tekoälyratkaisuja ei vielä siis voi hyödytää juuri videosisällön luontiin. Lähitulevaisuudessa tilanne saattaa kuitenkin olla toinen. Adobe esitteli tulevaa Premiere Pro -päivitystään, jossa on mukana yhtiön generatiivinen tekoäly Firefly. Siinäkin lähestymistapa on tosin alkuperäissisältöä täydentävä. Otoksia voi esimerkiksi tekoälyn avulla venyttää, jolloin leikkaussauman saa rytmillisesti paremmaksi ja kuviin voi vaihtaa yksityiskohtia entistä kätevämmin. Nämä ovat tervetulleita työkaluja videotyöskentelyyn.

    Tulemme vuoden 2024 aikana todennäköisesti näkemään myös täysin generatiivisen videon esiinmarssin. Vielä on mahdotonta sanoa, kuinka suuri mullistus tulee olemaan, mutta potentiaalisesti se tarjoaa aivan uudenlaista tehokkuutta liikkuvan kuvan tekijöille. Etenkin fiktiivisen sisällön tekemisessä puhaltavat mahdollisesti pian uudet tuulet. Alan vakiintuneille toimijoille se voi näyttäytyä suurenakin haasteena, mutta toisaalta tekoälyratkaisut saattavat mahdollistaa entistä pienemmille toimijoille mahdollisuuden tuottaa laadukasta sisältöä.

    Tulevaisuus näyttää, minne liikkuvan kuvan maailmassa mennään. Tarve näyttelijöille ja tarinankertojille ei varmasti tule hetkeen häviämään, mutta näemme varmasti uusia ratkaisuja ja oivalluksia.