Quanti tool fatti funzionare dall’intelligenza artificiale abbiamo visto nascere durante il corso di questo 2023? Molteplici: oggi ve ne proponiamo uno che hauno scopo ben preciso: permettere l’animazione di immagini generate attraverso l’intelligenza artificiale in maniera estremamente facile.
La storia più o meno è sempre la stessa da un po’: le intelligenze artificiali generative che utilizzano il large language model in input sono strumenti in grado di interagire anche con il più ignorante degli utenti in una maniera che risulti a lui congeniale; basta che l’utente finale mastichi la sua lingua madre e il problema è potenzialmente risolto.
Perfetto: la storia di oggi parla di una compagnia che, in input, prende ciò che si riesce a evidenziare con un pennello a schermo, in maniera molto simile al colorare qualcosa con paint o evidenziare le parti da scontornare con Photoshop. Non c’è bisogno di essere precisi, non c’è bisogno di spaccare il capello; basta evidenziare alla carlona ciò che si vuole muovere all’interno di un’immagine e far andare il programma.
Quello di cui vi andiamo a parlare oggi è il Motion Brush, un tool della compagnia Runway arrivato alla sua seconda generazione e integrato proprio all’interno dello strumento per la creazione video chiamato “gen-2”. Andiamo a vedere più nel dettaglio di che si tratta.
Runway è un azienda americana specializzata nella realizzazione di strumenti per l’editing di contenuti multimediali (video e immagini) attraverso lo sfruttamento delle intelligenze artificiali.
Al momento i suoi strumenti permettono di ritoccare le immagini attraverso la rimozione di oggetti, di “immaginare” cosa c’è al di fuori dei bordi esterni delle immagini, di generare varianti stilistiche di un’immagine di base, di generare un’immagine partendo da un prompt testuale e così via; il pacchetto completo, per capirci.
I suoi strumenti più interessanti rientrano all’interno di due micro suite per la generazione video a partire da testo chiamate gen-1 e gen-2; una delle novità introdotte all’interno di quest’ultimissimo strumento è un potente pennello per l’animazione che sembra davvero efficace e che permette di ottenere risutlati stupefacenti a fronte di sforzi davvero minimali rispetto al normale.
Il suo funzionamento è piuttosto semplice ed è esemplificato nel tweet al di sopra di questo paragrafo. Con un pennello si evidenziano gli elementi che si vogliono animare in qualche maniera e poi si lascia l’intelligenza artificiale immaginare l’animazione più adatta a quel contesto. Parliamo quindi di uno strumento che è difficile da controllare e che mal di adatta, certamente, a tutti quei lavori di carattere creativo che (ad esempio) a partire da una scarpa devono ottenere un alligatore ma rimane comunque qualcosa che potenzialmente utile per chi non ha modo di animare in autonomia un qualcosa.
Girando un po’ su Twitter si possono trovare moltissimi utilizzi esemplificativi di questo strumento: animare oggetti immobili, far muovere automobili, cambiare leggermente l’inquadratura di una fotografia, dare movimento allo sfondo o soltanto al cielo, creare cascate dove prima c’erano specchi d’acqua e molto altro ancora.
Motion Brush non richiede particolari miracoli per funzionare; è necessario in primis caricare un’immagine all’interno del servizio Gen-2 e poi selezionare lo strumento motion brush dalla tavolozza degli stessi. Volendo è anche possibile utilizzare il sistema di image generation proprietario di Runway per generare un’immagine senza passare da altri sistemi di generazione immagini attraverso l’intelligenza artificiale.
Come vi abbiamo anticipato sopra a questo punto, usando il pennello, sarà necessario evidenziare le aree che si vogliono animare; utilizzando i controlli di prossimità nella parte bassa dello schermo è possibile dare qualche indicazione in più al sistema di intelligenza artificiale per quanto riguarda la posizione della telecamera o l’eventuale desiderio di effettuare uno zoom-in o zoom-out.
Il sistema di generazione di Gen-2, tra le altre cose, include anche dei template predefiniti che si possono utilizzare a proprio vantaggio, riducendo quindi al minimo l’interazione da parte dell’utente. Volendo è anche possibile utilizzare la director mode per effettuare micro aggiustamenti alla posizione della telecamera anche con tempistiche ridotte rispetto a quelle normalmente utilizzabili; lo strumento è praticamente definitivo per chiunque abbia voglia di realizzare prodotti particolarmente dettagliati (sempre nei limiti di un’intelligenza artificiale, sia chiaro).
In ogni caso, una volta scelta l’immagine e definiti i controlli, non resta che selezionare la voce Extend 4s o Extend16s in base a quanto vogliamo creare lunga l’animazione. Il video risultante sarà poi scaricabile, condivisibile o utilizzabile all’interno di altri editori interni a Runway, se ci fosse mai necessità
Arriviamo alla parte interessante: il prezzo.
I prodotti di Runway non sono gratuiti, come è anche logico che sia, e si possono utilizzare sulla base di abbonamenti di natura diversa; di base l’azienda dice che per creazione 1 secondo di video sono necessari 0.5$ per bilanciare le risorse utilizzate.
In base alle proprie necessità è possibile scegliere tra abbonamento basic, standard, pro, unlimited e enterprise, ognuno con un pacchetto di minuti diverso; i prezzi vanno dai 12 dollari mese per il pacchetto standard ai 76 dollari mese per l’unlimited; con il pacchetto pro è possibile generare fino a 125 secondi di video utilizzando gli strumenti di gen2.
Esiste anche un “abbonamento” basic completamente gratuito per cui è necessario semplicemente eseguire la registrazione; con questo si hanno accesso a funzionalità molto limitate ed è possibile utilizzare Gen2 per creare fino a 25 secondi di video.
Il motion brush è disponibile per tutte le tipologie di abbonamento in questione; se volete sperimentarlo il pacchetto basic è ciò che fa al caso vostro.
Tutto bene quel che finisce bene? Più o meno: sappiamo che Runway è una compagnia con certificazione SOC2, ovvero offre un notevole livello di sicurezza nella gestione dei dati; quello che non siamo riusciti a capire è se utilizza dei dataset per far funzionare i suoi sistemi che sono stati acquisiti in maniera legale (ovvero riconoscendo del denaro ai creatori delle immagini) o se ci troviamo davanti all’ennesimo caso di azienda che fa i fantastiliardi sul lavoro di tantissime persone che non hanno mai dato il consenso al training di una intelligenza artificiale a scopo di lucro.
Il dilemma etico, specie per chi di lavoro scrive o crea immagini, in sostanza c’è sempre: per tutti gli altri rimane il divertimento sulle spalle dei primi.
This post was published on 29 Novembre 2023 17:00
I messaggi vocali di Whatsapp non sono affatto così sicuri e innocui come credi, anzi:…
Alla fiera giapponese abbiamo provato con mano l'attesissimo soulslike di S-GAME, che punta a divenire…
Un altro enorme traguardo per Pokémon: la nuova app dedicata ai mostriciattoli tascabili ha raggiunto…
Se hai una delle macchine che ormai sono state categorizzate come problematiche potresti non ricevere…
Per i buoni fruttiferi arrivano delle novità molto importanti da parte di Poste Italiane in…
Rockstar ha svelato diversi piani per il 2025 tra cui un aggiornamento tanto richiesto per…