Da mesi si discute su una regolamentazione sulla tecnologia del momento, che sta facendo impazzire il mondo: l’intelligenza artificiale. se fino a poco tempo fa, tutti si sentivano un po’ abbandonati e in balia di tale tecnologia, adesso l’UE fa il primo passo per renderla sicura.
Le intelligenze artificiali sono decisamente le tecnologie del millennio. Sebbene il termine non dovrebbe apparire come qualcosa di così nuovo, dato che risale a degli esperimenti condotti negli anni ’50, l’utilizzo delle IA nella vita di tutti i giorni è un’attività tanto recente quanto ormai, usuale.
Esistono intelligenze artificiali di ogni tipo, in grado di adempiere a tantissimi compiti: che si tratti di stilare un riassunto, di programmazione informatica, di semplice informazione o, banalmente, di conversazione, le IA sapranno venirci in aiuto.
Non è una novità infatti, che già diverse testate giornalistiche di fama internazionale, come il Washington Post, utilizzino quotidianamente le intelligenze artificiali per ottenere dei canovacci riassuntivi, da cui poi partire per scrivere gli articoli.
Le intelligenze artificiali tuttavia, possono servire anche ad altro.
Pensiamo ad esempio a quei software che permettono di creare musica tramite IA o che riescono a creare disegni, ritratti, paesaggi, sfondi, semplicemente tramite l’immissione di poche parole, che fungono da input, da associare a qualunque contenuto sia normalmente reperibile su internet.
Una tecnologia che ha sempre fatto urlare al miracolo e allo stesso gelare il sangue, è quella dei deepfake: tramite alcuni software, è possibile apporre il viso di una persona sul corpo di un’altra, non con un’operazione semplice di fotomontaggio, ma in modo che vengano ripresi movimenti ed espressioni, tanto da sembrare vero.
La tecnica del deepfake preoccupa e alcune società sono già a lavoro per arginare il problema. Una di queste, Intel, ha creato un sistema per il riconoscimento dei deepfake chiamato FakeCatcher, in grado di identificare l’intelligenza artificiale da alcuni segni, come ad esempio l’assenza di attività sanguigna sottocutanea. Per saperne di più, vi lasciamo all’articolo.
Tuttavia, il deepfake non è l’unico problema del genere.
Diverse intelligenze artificiali infatti, permettono di acquisire immagini di persone, tramite riconoscimento facciale, anche in luoghi molto affollati.
Questo è sicuramente un rischio per la privacy degli individui, che potrebbero ritrovare il proprio viso spiattellato da qualche parte, senza avere idea di come ci sia finito.
Fino ad oggi, le intelligenze artificiali, hanno vissuto in quella che in giurisprudenza viene definita “zona grigia del diritto”. Ciò significa che tecnologie del genere, non erano illecite nonostante gli usi che ne venivano fatti, spesso, lo fossero. Ciò ha significato, fino a oggi, che non c’era una vera e propria regolamentazione.
La politica però, pare finalmente intenzionata a muoversi e la prima mossa arriva dall’UE.
La prima mossa arriva dal Parlamento Europeo, che approva il cosiddetto AiAct.
Si tratta di un documento che, per la prima volta, fissa delle regole a livello europeo, che riguardano l’intelligenza artificiale, le sue applicazioni e, soprattutto, i suoi limiti.
La camera del Parlamento Europeo ha votato una mozione sull’utilizzo di intelligenze artificiali per il riconoscimento facciale nei luoghi pubblici, in tutti gli Stati membri. Al voto, 58 sono stati i parlamentari favorevoli, 36 i contrari e 10 gli astenuti. Tali numeri si riferiscono a parlamentari delle commissioni Giustizia e Mercato interno.
Con questo voto, si raggiunge l’obiettivo di bandire tali tecnologie, approvando la proposta avanzata da Socialisti, Verdi e Liberali, a cui si opponevano strenuamente i Popolari, da mesi.
Nelle scorse ore, sono trapelate alcune dichiarazioni di chi si è mostrato favorevole alla mozione e, quindi, contrario alle intelligenze artificiali per il riconoscimento facciale nei luoghi pubblici. Una di queste dichiarazioni arriva da Brando Benifei, capodelegazione del PD, nonché relatore del provvedimento, che sostiene che tali sistemi, siano da inquadrare come mezzi di sorveglianza totale e indiscriminata:
Siamo sul punto di mettere in atto una legislazione storica che deve resistere alla sfida del tempo. È fondamentale costruire la fiducia dei cittadini nello sviluppo dell’IA, definire la via europea per affrontare gli straordinari cambiamenti che stanno già avvenendo, nonché orientare il dibattito politico sull’IA a livello globale
Dall’altra parte, i favorevoli all’impiego di questo tipo di tecnologie, parlano di come possono diventare mezzi utili alla prevenzione del crimine e al riconoscimento dei criminali, così da salvaguardare la sicurezza nazionale.
Leggendo il testo però, ci si rende conto, che l’obiettivo è di più ampio respiro.
Si punta infatti a garantire uno sviluppo etico delle intelligenze artificiali, quantomeno negli Stati membri. Le regole varate, puntano, a detta dei relatori della mozione, a maggior trasparenza e gestione del rischio.
Si chiede infatti che le intelligenze artificiali, nel loro processo di creazione e sviluppo, vengano “sorvegliate” da personale qualificato, che ne accertino un certo grado di sicurezza, trasparenza, tracciabilità, nessun tipo di discriminazione e forte attenzione all’ambiente.
This post was published on 12 Maggio 2023 12:30
Siete appassionati di GDR cartacei? A Lucca Comics & Games 2024 è stato eletto il…
I messaggi vocali di Whatsapp non sono affatto così sicuri e innocui come credi, anzi:…
Alla fiera giapponese abbiamo provato con mano l'attesissimo soulslike di S-GAME, che punta a divenire…
Un altro enorme traguardo per Pokémon: la nuova app dedicata ai mostriciattoli tascabili ha raggiunto…
Se hai una delle macchine che ormai sono state categorizzate come problematiche potresti non ricevere…
Per i buoni fruttiferi arrivano delle novità molto importanti da parte di Poste Italiane in…