Den smutsiga filmindustrin blir hållbar – och personlig

Bild: Unsplash

Text: Joakim Skog

Film- och TV-branschen är en av de mest energiintensiva i världen. Enligt British Academy of Film and Television Arts (BAFTA) släpps cirka 13 ton CO₂ ut under produktionen av en timmes TV-innehåll. Forskning visar att tre kvadratmeter havsis går förlorad genom utsläppen av bara ett ton CO₂,  vilket innebär att de 20 000 timmar innehåll som årligen skapas, motsvarar förlusten av 780 000 m2 havsis.

Nya tittarvanor, som frångått den gamla tablå-baserade strukturen, gör att produktionen av innehåll ökar för varje år och i takt med att antalet produktioner växer ökar branschens koldioxidavtryck. Hållbarhet inom filmbranschen är en allt viktigare fråga som adresseras på många vällovliga sätt, bland annat med BAFTAs insats albert som samlar branschen kring frågan och verkar för att göra film och TV-produktion mer hållbar. I Sverige finns initiativet Hållbar film som sätter fokus på hållbar planering av produktioner.

Men som alltid kommer disruption och radikal förändring från utsidan. AI har just tagit nästa steg på väg mot AGI (artificial general intelligence) och bortom de uppenbara stjärnorna på den generativa AI-himlen – DALL-E 2 och ChatGPT – har ett stort antal tjänster dykt upp vilka tillsammans kan ha en transformativ inverkan på hur film och TV produceras inom en snar framtid.

Låt oss titta närmre på vilka nya möjligheter tekniska verktyg ger filmbranschen att effektivisera – eller helt revolutionera – hur produktionen genomförs.

De huvudsakliga komponenterna i att skapa ett engagerande rörligt material är: en rörlig bild som ackompanjerar en intressant historia i form av ett manus, ofta tillsammans med talad dialog framförd av olika karaktärer.

Hösten 2022 lanserade Meta ”Make-a-video” som skapar filmer av en användares instruktioner i rent text-form. Phenaki är en annan aktör som erbjuder liknande möjlighet att beskriva en scen med ord för att få tillbaka en video med en AI:s tolkning av användarens intention. Om än trubbigt just i dag så kan generellt rörligt material skapas i liknande kvalitet och upplevelse som stillbilder. 

Men hur är det då med skådespelarna som ska framföra en dialog? Datoranimeringar av människor – virtuella skådespelare – har länge varit svåra att få till. När Netflix i slutet av 2019 släppte The Irishman, med många sekvenser av en digitalt föryngrad Robert De Niro, hyllades det som en teknisk framgång, trots att man med lätthet kan se att tekniken inte lyckas få till en helt naturlig känsla. George Lucas bolag Industrial Light & Magic ägnade uppåt tre år att utveckla tekniken inför inspelningen och knappt ett år efter premiären tog ett fan hjälp av öppen tillgänglig programvara (DeepFaceLab) och skapar en variant som är betydligt bättre. Gratis. Ett exempel på exponentiell utveckling så gott som något.

Företaget Flawless ligger bakom tjänsten True Sync som förändrar hur skådespelarens läppar rör sig när man behöver byta ut dialog. Detta kan antingen vara enstaka ord, som exempelvis profant språk, eller att man helt och hållet byter ut dialogen mot ett nytt språk. Behöver Tom Hanks i framtiden spela in En man som heter Ove på engelska, eller räcker det med att det ser ut som att Rolf Lassgård faktiskt pratar på engelska?

Vad gäller röster behöver Microsofts VALL-E lyssna på endast tre sekunder av en röst för att verklighetstroget imitera den. Demonstrationer av röst-generatorer från exempelvis audiobook.ai och speechki.org gör att alla skådespelare som hittills suttit i källare och läst in böcker nu kan se sig om efter nya extraknäck när ytterligare en bransch mer eller mindre i tysthet tagits över av AI.

Alla dessa tjänster möjliggör att vi redan i dag kan effektivisera dyra resursdrivande fysiska inspelningar. De ger oss inflytande över slutresultatet utan påverkan från väder och vind, snuviga skådespelare eller enorma mängder statister som äter inplastade wraps mellan oändliga tagningar. Samtidigt uppkommer nya frågeställningar att besvara. Äger Morgan Freeman rätten till sin egen röst, eller kommer vi få höra hans röst på alla dokumentärer i framtiden utan att han varit involverad? Kommer vi se en syntetisk Bruce Willis i Die Hard 10, och är det då med eller utan hans medgivande? Och kommer tittaren kunna veta om den ser en verklig eller syntetisk skådespelare?

Mot 2030 🔮

Inom kort kommer alla dessa teknologier att samverka i en kreativ AI-boostad smältdegel där filmskapandet demokratiserats – precis som musikskapandet redan har gått från att bara vara en möjlighet för de få som kunde hyra dyr studiotid, till att vem som helst med en smartphone kan utöva det. 

Men det är inte bara den traditionella film- och TV-produktionen som kommer att dra nytta av dessa teknologier för att avsevärt effektivisera produktionen och skapa ett helt nytt paradigm inom filmkonst; det kommer skapa helt nya förutsättningar att skapa upplevelser som är designade för individer. En långfilm i present till dig själv på din födelsedag? En hel helgs serie för familjen som sitter inblåst i en extrem-väderstorm på landet? Ge din AI-assistent instruktionerna så startar sekvensen som skapar manus, dialog, bild och musik! Unikt, relevant, personaliserat och med ett klimatavtryck till en bråkdel av dagens.

Bild: Unsplash

2030 har film- och TV-branschen utvecklat ett nytt paradigm som inte bara möjliggör produktion till en bråkdel av dagens klimatavtryck, utan även erbjuder konsumenterna unikt och personligt designat streaming-innehåll.
— Joakim Skog

Joakim Skog är områdesledare för teamet Framtidsområden, som på Sveriges innovationsmyndighet Vinnova utforskar och utvecklar nya sätt att leda från framtiden, för att hitta nya vägar till radikal innovation som adresserar de stora samhällsutmaningarna.

🚀 PS. Läs mer om hur Vinnova utvecklar förmågan att leda mot en hållbar framtid för alla på Framtidsområden | Vinnova

 

Prenumerera på framtida spaningar

Föregående
Föregående

AI för forskningsgrundade framtidsscenarier

Nästa
Nästa

Tekniken fortsätter att förflytta det geopolitiska spelet