La rivoluzione del video editing è iniziata.
Il montaggio video sta forse per entrare nella sua seconda rivoluzione industriale. La prima, ovviamente, è stata rappresentata dal passaggio dalla tecnologia analogica a quella digitale, che ha completamente rivoluzionato i processi produttivi, industriali ed economici del settore. Messa in cantina l’antica moviola, sono arrivati i computer con i loro software di montaggio, i fotogrammi di pellicola sono stati sostituiti da informazioni codificate in codice binario, e l’unità minima di lavoro è passata dal frame al layer.
I software di video editing non distruttivo hanno cambiato i paradigmi e le modalità di lavoro dell’antica arte del montaggio, che da forma di artigianato manuale all’insegna del fisico taglia-e-cuci- della pellicola è passato a essere un lavoro di chirurgia di precisione effettuata con l’estrema precisione del software informatico. Abbattuti i costi ed espanse a dismisura le possibilità pratiche di manipolazione dell’immagine, ogni frontiera sembrava essere stata oltrepassata, fino all’arrivo dell’intelligenza artificiale generativa, con cui Adobe si appresta ancora una volta a cambiare le regole del gioco.
Lanciato in versione beta a marzo 2023, Firefly è il rivoluzionario modello di machine learning generativo messo a punto da Adobe per rivoluzionare il settore del montaggio video. Il dataset utilizzato per il suo addestramento attinge a database sterminati di immagini e video, a partire ovviamente da Adobe Stock, passando per Wikimedia, Creative Commons, Flickr Commons e materiali di pubblico dominio. L’intento è quello di offrire tool integrati in Premiere (ma anche in altre app della Creative Suite di Adobe) che apportino modifiche generative istantanee all’interno del progetto di montaggio video, con risultati in grado di correggere errori sul set o assecondare idee scaturite proprio in fase di montaggio e finora impossibili da ottenere “dal nulla”.
Al di là dei VFX e delle correzioni rese possibili da cinema digitale, infatti, finora il montatore ha sempre dovuto lavorare sulla base del materiale girato in fase di ripresa, con tutti limiti del caso. Ma grazie all’avvento dell’AI generativa nel video editing, questa concezione potrebbe diventare nel giro di pochi anni un ricordo del passato. Per dare un’idea di quello che ci aspetta, Adobe ha recentemente pubblicato un video che mostra alcuni tool di Firefly integrati in Premiere, e i risultati sono davvero incredibili.
Il video pubblicato qui sopra dimostra alcune delle nuove funzioni di Firefly integrate in Adobe Premiere 2024. Queste funzioni non sono ancora disponibili, ma dovrebbero essere incluse nel prossimo aggiornamento del popolare software di video editing. Entro fine anno quindi tutti i montatori che utilizzando la suite di Adobe dovrebbero essere in grado di sperimentare l’utilizzo di quelli che sembrano essere strumenti a dir poco rivoluzionari.
Nella breve dimostrazione vengono mostrati molteplici strumenti estremamente interessanti. Si va dalla possibilità di rimuovere elementi della scena evidenziati da una funzione di individuazione intelligente degli oggetti, che possono essere tracciato e rimossi sostituendoli con uno sfondo generato in base al contesto, all’aggiunta o modifica di elementi presenti nel fotogramma, ad esempio cambiando leggermente l’outfit di un personaggio i inserendo un oggetto non presente sulla scena al momento delle riprese, sulla base di un semplice prompt testuale. Nell’esempio del video, una valigetta viene riempita di pietre preziose, e una cravatta viene aggiunta sopra la camicia di un attore.
Ci sono poi altre funzioni eccezionali, ad esempio il prolungamento generativo di un’inquadratura, di cui i fotogrammi vengono “interpretati” dall’algoritmo per proseguire la scena in modo coerente (ad esempio continuare il movimento di una vettura che allontana o indugiare per qualche secondo virtuale sull’espressione di un attore. Ulteriori integrazioni con i partner OpenAI, Runway e Pika Labs offriranno ulteriori possibilità, come creare vere e propri clip AI-generated da usare come inserti o establishing shots. Insomma non resta che attendere la release pubblica di questi strumenti per saggiare con mano il futuro del video editing!
This post was published on 18 Aprile 2024 7:00
Quando si pensa alla mitologia greca, la mente corre spesso e volentieri verso l’Odissea e…
Il Black Friday è il momento perfetto per ampliare la tua collezione di controller: DualSense…
Amazon spiazza tutti e anticipa di parecchio il Black Friday con una promozione semplicemente imperdibile…
Recensione di The Electrum Archie - Il Mondo di Orn, una zine OSR ambientata in…
Abbiamo avuto l'occasione di vedere lo Schermo del master 2024, un prodotto brandizzato Dungeons &…
Non finiscono mai i cambiamenti per il digitale terrestre con un nuovo canale che molto…