Mentre il Parlamento Europeo si appresta a legiferare in materia di intelligenza artificiale, un pool di aziende hi-tech ha deciso di battere i pugni sul tavolo e far sentire la propria voce.
Non si può certo dire che l’Unione Europea sia poco zelante per quanto riguarda la sicurezza e privacy digitale dei suoi cittadini. Innescando le lamentele delle big companies di mezzo mondo, ad esempio, l’UE ha approvato senza tanti complimenti il GDPR che ha definito norme stringenti entro cui le aziende possono muoversi per chiedere ed utilizzare i dati personali agli utenti.
Attualmente il Parlamento Europeo è al lavoro su un nuovo progetto altrettanto importante, e dalle infinite ripercussioni a lungo termine sul rapporto tra umani e tecnologia: la stesura della prima legge a livello mondiale che regolamenti scopi e modalità d’uso delle intelligenze artificiali. Solo che non sono proprio tutti d’accordo, a cominciare da alcune importanti aziende IT che in questi giorni hanno deciso di far sentire la propria voce.
La legge su cui è al lavoro il Parlamento europeo, battezzata AI Act, è in corso di stesura in questi mesi, dopo un primo inquadramento preliminare che risale già al 2021.
Nell’ambito della sua strategia digitale, l’UE prevede di elaborare un sistema di classificazione delle AI, che verranno categorizzante a seconda del loro ambito d’impiego e modalità d’uso, in modo da poter stendere una regolamentazione chiara ed univoca, ma variabile a seconda della categoria. In questo modo un’AI impiegata in ambito sanitario dovrà sottostare a certi regolamenti, un’AI di impiego industriale ad altri, e così via. Inoltre sarà elaborata una matrice di rischio per individuare quelle azioni e quei processi che possano provocare rischi inaccettabili per la sicurezza o privacy degli utenti, e in ultimo vietarli. L’intento ultimo è garantire che ci sia sempre una supervisione umana, e che i processi alla base delle operazioni delle AI siano sempre chiari e sicuri per i cittadini. Il piano dei lavori prevede l’approvazione del testo definitivo della normativa entro la fine del 2023.
Recentemente però alcune compagnie hi-tech hanno fatto sentire la propria voce tramite la presentazione di un documento, timorose che un eccesso di norme possa inficiare le potenzialità di una tecnologia ancora agli albori, e minarne il potenziale di sviluppo futuro vincolandola a parametri di azione troppo stringenti. Ad alimentare il dibattito spicca senz’altro GitHub, una delle più note piattaforme di sviluppo cloud-based, affiancata nelle sue rimostranze anche da altre importanti compagnie quali ad esempio l’azienda francese Hugging Face, l’organizzazione no-profit americana Creative Commons e altre aziende AI-related come Open Future e LAION.
Quali sono i punti fondamentali del documento presentato da GitHub & friends al Parlamento Europeo?
Innanzitutto va detto che le osservazioni contenute nel documento sono riferite ad una prima bozza di regolamento che l’UE ha steso nel corso del mese di giugno, e che dunque è tutt’altro che definitivo. In ogni caso, per il momento le aziende hi-tech vedono di malgrado la necessità di normare i tool AI basati su librerie open-source poiché, a loro dire, si tratta di software che viene distribuito anch’esso in modalità open-source e dunque con finalità non commerciale. Inoltre a loro parere, nello stendere la matrice di rischio i legislatori dovrebbero considerare anche la dimensione di un’impresa: infatti una compagnia medio-piccola potrebbe non disporre delle risorse economiche sufficienti per ottemperare eventuali correzioni nel caso in cui le loro tecnologie e/o attività ricadessero in una definizione di rischio alto o inaccettabile.
Forse il punto che desta le maggiori proteste riguarda l’impossibilità di condurre test in ambienti aperti. Attualmente infatti l’intenzione dell’UE è di continuare a consentire di “allenare” le AI solo con test in ambienti chiusi e controllati, mentre secondo le compagnie sarebbe utile – per non dire fondamentale – consentire a queste tecnologie di sperimentare circostanze da mondo reale. Impedire di condurre test in ambienti aperti “minerebbe gravemente le possibilità di ricerca e sviluppo”, secondo il documento.
Ci sono poi altri punti che vertono proprio sulla definizione a monte di AI: già in un documento risalente ad ottobre 2022, GitHub esprimeva le sue osservazioni in questo senso. Nel concreto, proponeva di aggiungere un paragrafo esplicativo che sottolinei come il solo codice software non costituisca di per sé un’intelligenza artificiale, ma ne sia solo una componente. Ciò aiuterebbe a distinguere i modelli di AI già presenti sul mercato dalle mere attività di ricerca di sviluppo o di prototipi, e concorrerebbe ad attribuire il giusto grado di responsabilità agli attori corollari alla mera programmazione, come i network provider e i publishers.
Si tratta senz’altro di osservazioni pertinenti, che il Parlamento dovrà vagliare con attenzione in questa delicata fase di pionierismo legislativo: si sta scrivendo una nuova pagina tra legislazione e tecnologia, e il mondo ha tutto l’interesse che l’esito sia positivo per entrambe le parti.
Il documento è leggibile sul blog di GitHub a questo indirizzo.
This post was published on 3 Agosto 2023 8:00
Continuano a sollevarsi preoccupazioni riguardo alla sicurezza per la salute degli smartwatch: ora tocca ai…
Una delle serie più famose di Electronic Arts non avrà sequel: la parola arriva direttamente…
Un nuovo film legato a One Piece pare essere in sviluppo: l'indiscrezione è stata svelata…
Nel corso del 2024, diverse reti sono state cancellate dal digitale terrestre, e ora tocca…
Per coloro i quali scelgono un pagamento a rate con Klarna, è importante sapere che…
La seconda stagione di Squid Game è finalmente arrivata: festeggiala al meglio con uno di…