YouTube vuole offrire degli strumenti alle etichette disocgrafiche per permettere loro di occuparsi di contenuti creati attraverso l’intelligenza artificiale che imitano la voce di un artista musicale.
Quante cose sono diventate persuasive e pervasive come le intelligenze artificiali generative? Poche.
Quante di queste oltre a essere pervasive come quegli strumenti sono anche in grado di calpestare il diritto d’autore di creativi e artisti? Probabilmente nessuna.
Youtube, in tal senso, sta muovendo dei primi passi nel dotare chi detiene i diritti relativi a qualcosa di muoversi per vie legali contro gli utilizzatori di queste intelligenze artificiali, il tutto creando delle guidelines dedicate per contrastare il proliferarsi di deepfake sonori generati da AI.
Tranquilli, YouTube non vuole censurare niente
Durante il corso dei prossimi mesi arriveranno delle misure specifiche realizzate da Youtube e dagli esperti legali della piattaforma che serviranno in maniera specifica a una cosa: combattere gli utilizzi non autorizzati dell’intelligenza artificiale.
Per quanto sia facile pensare fin da subito che i video realizzati con l’intelligenza artificiale siano di base simpatici, strumenti così potenti permettono facilmente di cadere all’interno del magico mondo delle cose che non sono ammissibili, senza contare che, ancora peggio, parliamo praticamente sempre di contenuti realizzati senza avere il permesso di impiegare la voce o l’immagine di qualcuno.
Gli strumenti che YouTube vuole integrare all’interno della sua piattaforma permetteranno di richiedere la rimozione di contenuti generati dall’intelligenza artificiale quando questi simulano il viso o la voce di un individuo che sia identificabile.
Attenzione però, non parliamo di un attacco alla solita libertà di parola che viene tanto sbandierata in giro; il sistema prende in considerazione anche la natura del contenuto che viene segnalato. Attenzione verrà fatta quindi alla natura umoristica e parodica del contenuto, la gravità del gesto sarà considerata maggiore in caso di figura pubblica e ancora peggio se il protagonista del contenuto rimaneggiato attraverso l’intelligenza artificiale.
Prendiamo in esame, ad esempio, la possibilità di sintetizzare le voci attraveso l’intelligenza artificiale per farle cantare ciò che si preferisce.
Si a Spongebob e Sandy che cantano Bring Me To Life degli Evanescence (evidente parodia) e no a brani ex novo eseguiti con la voce di The Weekend (esempio di contenuto fatto con ipotetico scopo di lucro nel tentativo di sostituirsi all’artista).
In sostanza; l’obbiettivo è anche quello di permettere a cantanti e musicisti di tutelare la propria arte e i propri asset dalle imitazioni attraverso intelligenza artificiale.
Tutta una questione di etichette
Un’altro aspetto centrale di questo rinnovato parco funzioni di YouTube è la necessità, per lo spettatore, di essere consapevole della natura AI based del contenuto di cui sta fruendo, specie se quest’ultimo è realizzato appositamente per essere fuorviante. Al momento YouTube vuole obbligare i creator a indicare durante la fase di caricamento del video se quest’ultimo è stato alterato o direttamente creato dall’intelligenza artificiale, esattamente come accade per le finalità di utilizzo definibili attraverso l’associazione o meno a YouTube Kids.
Di certo l’etichetta creato attraverso l’intelligenza artificiale sarà utilissima quando il contenuto realizzato ha un risultato definibile come realistico.
La piattaforma nel suo blogpost ha fatto anche degli esempi pratici su come spera che vengano utilizzate queste etichette, parlando di video generati dall’intelligenza artificiale che raffigurano in maniera realistica eventi mai accaduti, o di video generati dall’intelligenza artificiale che mostrano qualcuno dire o fare cose che non sono mai accadute in realtà. Se si guada all’utilizzo dei social media negli ultimi anni, con le loro continue interazioni (spesso non particolarmente benefiche) con conflitti, pandemie, elezioni politiche e tutto il resto, queste manovre effettuate da YouTube hanno più senso che mai.
YouTube avrà quindi due livelli possibili di identificazione: un etichetta fuori dal video che avverte l’utente della presenza di audio o immagini alterati o generati attraverso l’intelligenza artificiale o la comparsa di una scritta in sovraimpressione nel video con le stesse informazioni di cui sopra, questa per i video su temi sensibili.
Attenzione però: in caso di contenuti ritenuti violenti YouTube si riserva direttamente la possibilità di non pubblicare il video, seguendo poi le prescrizioni delle linee guida delle community.
Quali sono le conseguenze per chi decide di non seguire le regole?
Chiaramente è inutile creare questo genere di regolamenti e classificazioni senza generare qualche tipo di conseguenza per chi non rispetta le regole.
Secondo YouTube i creator che verranno beccati per più di una volta a non etichettare i propri contenuti con gli strumenti messi a disposizione dalla piattaforma, potrebbero vedere i propri contenuti rimossi; in caso di reticenza la piattaforma si riserva la libertà di estrometterli dal programma partner, lo stesso che consente di monetizzare i video.