Nuovo allarme sull’Intelligenza Artificiale: usa anche le foto che hai nascosto per generare immagini

Nuovo allarme per le IA
Allarme privacy con le IA: ecco cosa è stato scoperto - Player.it

Nuova criticità sollevata sulla sicurezza e sull’eticità delle più recenti Intelligenze Artificiali, con accuse pesanti per la privacy.

Negli ultimi anni non si fa altro che parlare, giorno e notte, di Intelligenza Artificiale. Una volta un mero sogno fantascientifico, qualcosa da utilizzare per film, serie tv, fumetti e addirittura videogiochi. Sia in senso positivo, come può essere un grande computer di bordo di una delle navi di Star Trek, sia in senso negativo, come nella saga di Terminator.

Al momento entrambe le realtà sono estremamente lontane da quello che possiamo fare con le IA che abbiamo a disposizione, che stanno ancora muovendo i primi incerti e invisibili passi verso il futuro. Tra legislatori che non sembrano bene che pesci pigliare, aziende vogliose di fare quanti più soldi possibili, lavoratori preoccupati per il proprio futuro e utenti perplessi dallo sgretolarsi di assoluti validi e diffusi fino a poco tempo fa.

Anche perché le IA non vengono create per ragionare in modo libero, non hanno ancora raggiunto il livello massimo di “generatività, che crea concetti dal nulla. Moltissime delle IA presenti oggi, anche quelle generative, non fanno altro che partire dall’enorme quantità di dati presenti nei database e prendere ispirazione per generare testi, immagini, foto e rispondere alle domande. E questo è un altro problema.

Foto private usare dalle IA per generare immagini: l’allarme

L’associazione non governativa americana Human Rights Watch ha pubblicato un nuovo report che fa preoccupare e non poco. Secondo quanto raccolto dagli esperti, infatti, la fame di dati e modelli da cui prendere ispirazione sta portando l’IA e le aziende che stanno dietro ad agire in modo molto poco trasparente ed eticamente quanto meno problematico.

Foto rubate dall'IA
Le foto personali usate dall’IA: scoperta shock – Player.it

Perché ecco che i post personali messi sui social, video pubblici, tracce audio, canzoni, articoli, testi creativi, fotografie: tutto può trasformarsi in poco tempo in materiale da ingerire per questi enormi organismi intelligenti, che poi come fosse una partita a Scarabeo con miliardi di variabili, rimette insieme le informazioni per darci output.

Hye Jung Han, ricercatrice di Human Rights Watch, ha esaminato dei contenuti creati dalle IA e ha fatto una scoperta terribile: ha trovato 170 foto di bambini brasiliani utilizzate da una IA. Non solo: espandendo la ricerca ne ha trovate altre 190 di minorenni australiani e sta ancora raccogliendo dati e informazioni in merito.

Non solo: queste immagini portano anche il nome e il cognome dei soggetti ritratti, dove sono state scattate, violando la privacy dei bambini e delle loro famiglie. Addirittura un’immagine utilizzata per creare foto di “bambini che sorridono” pare essere un frame di due bambini ripresi durante un video su Youtube. Il peggio? Il video era stato impostato come privato, quindi non visibile agli altri. Attenzione alle vostre immagini, tutte.