Da sempre, ogni progresso tecnologico richiede una certa quantità di tempo affinché il mondo riesca ad assimilarlo, riuscendo a riconoscerne le applicazioni pratiche positive o negative. Molto spesso le nuove tecnologie spaventano, soprattutto a causa di una generalizzata lentezza che i governi adottano nello stilare norme di carattere regolatorio che riguardano tecnologie che, grazie ad internet, tendono a diffondersi a velocità irricevibili.
Cosa sono i deepfake?
Le tecnologie che stanno dominando la discussione pubblica da ormai diversi mesi, sono le cosiddette intelligenze artificiali. Un’intelligenza artificiale è un programma che, tramite un processo di cosiddetto “machine learning” (apprendimento automatico) riescono ad acquisire capacità che, fino a poco tempo fa, erano a puro appannaggio umano.
Esistono intelligenze artificiali che permettono la creazioni di immagini, semplicemente tramite la digitazione di alcuni termini. Alcune, da un’immagine di partenza e magari grazie a qualche indicazione (ambientazione, stile dell’illustrazione che si vuole ottenere) riescono ad ottenere dei risultati incredibili.
Con altre ancora è possibile comunicare. L’esempio più rilevante è sicuramente rappresentato da ChatGPT, un chatbot in grado di simulare una conversazione umana in modo piuttosto accurato, riuscendo a dare la percezione di manifestare sentimenti, empatia ed una vasta una gamma di emozioni umane. Le applicazioni di un software del genere sono veramente sconfinate e vanno dalla semplice conversazione delirante per ammazzare il tempo, fino alla stesura di bozze di articoli di giornale così da dare allo scrittore di turno una traccia su cui agire. Varie testate internazionali adottano metodi simili, come ad esempio il Washington Post).
E invece, il deepfake cos’è?
Si tratta di un ulteriore modo di sfruttare le intelligenze artificiali. È una tecnica che utilizza una tecnologia chiamata Generative Adversarial Network per la sintesi di immagini umane. Questa tecnologia permette di sovrapporre immagini e video già esistenti con immagini e video inediti, generate da un’intelligenza artificiale.
Nonostante sembri qualcosa di estremamente complicato nella teoria, molti di noi si saranno sicuramente ritrovati a guardare dei video realizzati con la tecnica del deepfake senza neanche saperlo. Il punto forte di questa tecnologia è proprio la sua capacità di rendere quasi impossibile riconoscere una persona vera dalla sua versione creata tramite intelligenza artificiale.
A ciò si uniscono software come VALL-E, l’intelligenza artificiale che solo grazie a 3 secondi di audio, riesce ad emulare la voce di una qualunque persona. E la strada verso la creazione di contenuti fake è spianata.
Certo, altre volte capita di vedere pessimi risultati nell’utilizzo di tale tecnologia, che riescono al massimo a strappare qualche risata. Altre volte, l’intento è proprio cercare di far ridere come succede spesso nel programma Striscia La Notizia che propone finte interviste parodistiche realizzate con la tecnica del deepfake.
Le applicazioni di queste tecnologia, tuttavia, possono diventare prima fastidiose e poi pericolose per le persone le cui fattezze vengono emulate. Tuttavia, qualcuno ha già iniziato a mobilitarsi per rendere tutto più sicuro e riconoscibile.
Come riconoscere un deepfake?
Dato il dilagare dei problemi legati al deepfake, con tutte le implicazioni che ne derivano, alcune aziende hanno deciso di correre ai ripari. Per quanto il deepfake possa sembrare uno strumento divertente, nelle mani sbagliate e con tecnologie più evolute, potrebbe rappresentare un pericolo. Potremmo ritrovarci video online in cui delle persone, magari note, dicono cose inaudibili, realizzati in maniera così convincente da recare un danno all’immagine della persone le cui fattezze vengono emulate in video.
A cercare di mettere una pezza al dilagare di questa nuova tecnologia, ci ha pensato Intel.
Intel è una delle più famose società americane specializzate nella costruzione e messa in vendita di prodotti informatici come schede madre, schede video, microprocessori e quant’altro. Proprio grazie alla sua enorme esperienza nel settore, la società di Santa Clara, verso la fine del 2022, ha iniziato a rendere nota una tecnologia innovativa.
Si tratta del cosiddetto FakeCatcher.
Il fine ultimo di Intel era quello di riuscire a sviluppare un sistema che permettesse l’individuazione, in tempo reale, dei deepfake. L’approccio seguito dai ragazzi di Intel Labs dunque, si è basato tutto su un unico assioma: identificare ciò che rende unici gli esseri viventi.
In quest’ottica si inizia a parlare di FakeCatcher. Tale sistema si rivela estremamente innovativo nel riconoscimento dei deepfake, per una serie di fattori: prima di tutto, l’individuazione del deepfake prende giusti pochi millisecondi, a differenza di software simili che impiegano anche ore.
Il fattore più interessante però sta nel come riescano ad essere riconosciuti i deepfake.Proprio Ilke Demir, Senior Staff Research Scientist, riesce a dare la risposta:
Cosa ci rende umani? La risposta è nel nostro sangue
FakeCatcher riesce a distinguere un deepfake da un video in cui compare un essere umano reale, cercando i cambiamenti di colore nelle vene.
Ogni essere umano infatti, tramite il pompaggio del sangue da parte del cuore, subisce lievi e quasi impercettibili cambiamenti nell’ombreggiatura.
Questo cambiamento di colore nelle vene prende il nome di fotopletismografia (PPG) e proprio sul PPG viene “addestrato” il software di riconoscimento dei deepfake. Altro elemento preso in esame è il rilevamento dello sguardo.
A detta dei tecnici di Intel Labs, FakeChapter ha un tasso di precisione del 96%.