Pensate all’esperienza più memorabile che avete in mente in fatto di videogiochi, una di quelle scene torcibudella che mai dimenticherete nella vostra vita: adesso, sostituite allo script e alla voce creati da un team di scrittori e voice artist, delle frasi generate dall’IA e pronunciate da una voce robotica. Sembra follia, e invece è la nuova “rivoluzionaria” idea di Nvidia.
Diciamocelo, il doppiaggio e la scrittura sono tra le poche cose che, imprescindibilmente, non possono essere demandate alla tecnologia; la necessità di esprimere le emozioni del personaggio attraverso la sua voce mal si sposa con l’idea di una voce “automatica”, figlia del fù Loquendo dei primi anni 2000. Eppure c’è chi sta sperimentando con l’idea di avere degli NPC completamente pilotati da IA, capaci di rispondere in autonomia a input vocali dell’utente, generando risposte e facendole pronunciare da voci automatizzate.
La demo mostrata da Nvidia, titano del settore delle schede grafiche, e Convai, azienda del campo IA, al CES 2024 è in realtà figlia di un precedente annuncio, di circa un anno fà, in cui la stessa coppia di aziende annunciava il cosiddetto “Omniverse Avatar Cloud Engine”, a detta loro capace di creare, in tempo reale, NPC interattivi, con tanto di espressioni facciali e dialoghi vocali.
Nel video in questione vediamo un utente interagire con gli NPC della demo utilizzando la propria voce, improvvisando una risposta, e gli NPC generati dall’IA rispondere generando sul momento una linea di dialogo. In questa specie di bar dal sapore cyberpunk vediamo due NPC provare ad imbastire una discussione; sono Jin, cuoco di un ristorante di ramen, e Nova, cliente del bar. Le voci suonano fin troppo impostate, e le espressioni facciali sembrano meccaniche, per non parlare poi del linguaggio corporeo dei personaggi praticamente inesistente. Certamente non si può pretendere molto da una demo di una nuova tecnologia, però per quanto grezza possiamo immaginare che faccia molto gola agli studios.
Ad onor del vero, sembra che Convai si sia impegnata molto per rendere la simulazione quanto più reale possibile. Come spiega Nyla Worker, Head of Product dell’azienda, alla testata online The Verge, gli NPC vengono programmati con un nucleo centrale, costituito di una descrizione del personaggio, una banca dati di conoscenze, e tratti personali; praticamente una “scheda del personaggio” da cui l’IA può attingere per evitare che l’IA rompa il personaggio.
Per quanto questa nuova tecnologia possa sembrare il non-plus-ultra delle avventure RPG, apre la porta a diversi problemi etici, primo tra tutti il ruolo dei doppiatori e la “proprietà” della loro voce, tema caldo anche a seguito delle negoziazioni SAG-AFTRA (il “sindacato” degli attori, scrittori e doppiatori americani) con Replica Studios, che ha praticamente dato licenza all’azienda di “ingaggiare membri SAG-AFTRA con accordi equi ed etici per creare e licenziare copie digitali della loro voce.” Sembra poi che questa tecnologia arrivi al momento opportuno per gli studios, visto il vertiginoso aumento dei licenziamenti in case di sviluppo anche abbastanza grandi, per aumentare ancora di più la capacità di guadagno dei dirigenti, a discapito di scrittori ed attori.
This post was published on 23 Gennaio 2024 14:30
Eni Plenitude ha deciso di mettere a disposizione di tutti i nuovi clienti che la…
Il Calendario dell'Avvento di Instant Gaming scopre altre caselle: in offerta speciale l'Ultimate Edition di…
Tutte le foto da scattare su Indiana Jones e l'Antico cerchio per sbloccare tutte le…
Contiene link di affiliazione. Il freddo che sta investendo gran parte del nostro Paese, le…
Poco più di un mese alla fine del 2024 ed è tempo di bilanci: quali…
Tornano i Player.it Awards dove la redazione e la community votano i videogiochi e i…