Tra le migliaia di firmatari anche molti esperti del campo delle AI.
Quando si parla di intelligenza artificiale, uno degli argomenti più gettonati è il suo impatto in ambito artistico e le preoccupazioni che solleva in materia di copyright e posizioni lavorative a rischio negli studi di animazione, grafica, videogiochi e arte digitale in generale. Si tratta senza dubbio di questioni complesse e assolutamente da approfondire, con un’opinione pubblica spesso spaccata tra apocalittici e integrati e un problematico vuoto legislativo che rischia di dover essere colmato dalle sentenze dei tribunali.
Proprio dal punto di vista legale si pone però un’altra questione, passata un po’ sotto silenzio ultimamente ma probabilmente ancor più preoccupante, ovvero il fenomeno Deepfake, che rischia di diventare una vera piaga di proporzioni incalcolabili. Ecco perché sta riscuotendo tanto successo una lettera aperta sulla questione che ha già raccolto migliaia di firme.
Deepfake, ovvero: gli abissi del web
Deepfake è il nome che si dà alla pratica di alterazione delle fattezze di una persona tramite tecnologia digitale, spesso con fini malevoli. Il volto di una persona può essere “innestato” sul corpo di un’altra, e con l’avvento delle AI quest’operazione è diventata non solo sempre più semplice, ma anche sempre più indistinguibile dalla realtà. Le conseguenze possono essere devastanti, come dimostra ad esempio Another Body, docu-film di Ava Breuer e Faith Quinn sulle conseguenze di vita patite da un gruppo di studentesse il cui volto era stato digitalmente applicato a video pornografici, con conseguenze devastanti sul loro status psicologico e sulla loro carriera scolastica. Peraltro l’autore dei video, pur identificato, non ha subito alcuna conseguenza penale a causa del vuoto legislativo in materia, cavandosela con poco più che un richiamo formale da parte delle autorità.
D’altra parte la pornografia è uno dei principali ambiti di applicazione del Deepfake, con il web che pullula di siti porno specializzati in questa tipologia di video. Utenti di tutti il mondo vi si collegano per sfogare le proprie fantasie in merito a questo o quell’attore, questo o quello sportivo, e in generale qualunque figura pubblica di cui ci sia abbastanza materiale video e fotografico di pubblico dominio per alimentare i software di intelligenza artificiale incaricati di eseguire la “magia”. Sempre più spesso però si diffondo video che non hanno per protagoniste le star di turno, bensì gente comune, compagni/e di classe e persone della porta accanto: è l’ultima frontiera del revenge porn, o del cyberbullismo, a seconda dei casi. Che sia una reazione ad un approccio rifiutato, una vendetta per un brutto voto preso o un semplice scherzo di pessimo gusto, il fenomeno dei Deepfake si sta espandendo a macchia d’olio e coinvolge sempre più giovani, spesso addirittura minorenni.
Reuters ha riportato una stima secondo cui solo nel 2023 siano stati prodotti oltre 500.000 Deepfake audio o video circolati liberamente tramite i social media, e questo dà l’idea delle implicazioni devastanti che la diffusione di tale materiale possa avere nei confronti delle vite dei soggetti coinvolti. Al di fuori del mero ambito pornografico, queste tecniche possono costituire un mezzo potentissimo di disinformazione, pilotaggio di grandi masse di opinioni a scopo elettorale o propagandistico, truffe online di varia natura e chi più ne ha più ne metta. E siccome le legislazioni sono lente a prendere contromisure, stavolta è la società civile a dire un secco “No” a tale pratica, tramite una lettera aperta.
C’è chi dice No
Sul sito OpenLetter è stata pubblicata in settimana la lettera aperta denominata Disrupting the Deepfake Supply Chain (ovvero, grossomodo, “Distruggere la catena di approvvigionamento del Deepfake”). La lettera, che ha tra i firmatari eminenze del calibro di Jaron Lanier (computer scientist che ha coniato l’espressione “realtà virtuale”), Frances Haugen (informatrice del WSJ che ha scoperchiato il vaso di pandora sui Facebook Files), Stuart Russell (fondatore del Center for Human-Compatible Artificial Intelligence all’università di Berkeley) e moltissimi altri, dichiara di considerare i deepfake una minaccia crescente per la società, e auspica un intervento rapido e deciso da parte dei governi di tutto il mondo per contrastare il fenomeno con nuove leggi che operino in tre direzioni:
- criminalizzare la pornografia infantile realizzata tramite deepfake, anche nei casi in cui si tratti di avatar completamente virtuali
- sanzionare penalmente i creatori e i diffusori di materiale deepfake
- responsabilizzare gli sviluppatori di software affinché inibiscano la realizzazione di tali pratiche mediante i loro programmi, facendo ricadere almeno parzialmente sulla loro responsabilità il compito di porre in essere tali contromisure e limitazioni.
Oggi i deepfake contemplano spesso l’immaginario sessuale, frode, o disinformazione politica. Dato che l’AI sta progredendo rapidamente e ciò rende i deepfake sempre più facili da creare, sono necessarie misure di sicurezza che assicurino la funzionalità e l’integrità della nostra infrastruttura digitale.
Come si legge insomma da questi estratti le preoccupazioni dei firmatari sono ancora più grandi di quelle – già gravissime – che afferiscono alla privacy e dignità del singolo individuo, poiché le ricadute dell’uso sistematico del deepfake nell’ecosistema digitale potrebbe rapidamente causarne un collasso sotto i colpi di fake news che renderebbero sempre più difficile districarsi in un web colmo di materiale fraudolento. Combattere i deepfake significa insomma proteggere non solo l’integrità di internet, ma delle società stesse in cui viviamo.