L’evoluzione tecnologica avanza veloce e inevitabile e non tutti ne sono contenti. L’evoluzione si muove sotto tanti aspetti, dalla semplice comunicazione alle interazioni interpersonali più profonde e intime. Nonostante spesso molte cose ci sembrino lontane e irraggiungibili, finiamo per viverle nella nostra quotidianità, quasi senza accorgercene.
Una delle novità che più fa discutere negli ultimi anni in ambito tecnologico è la crescita degli utilizzi delle intelligenze artificiali. Fino a poco tempo fa, parlare d’intelligenza artificiale rievocava in molti sensazioni che si pensavano relegate soltanto a film di fantascienza, più o meno famosi. Pensiamo ad esempio agli assistenti vocali come Google o Alexa. Prima del loro avvento, pensare ad una voce artificiale con cui dialogare, sapeva tanto di HAL9000 di 2001: Odissea nello Spazio. Oggi, invece, è realtà.
Tuttavia, l’evoluzione corre veloce e non sempre si riesce a intercettare come si vorrebbe. Ci si può trovare nella posizione di non considerare tutto ciò che avviene come un miglioramento della vita. Anzi, c’è chi in mezzi come le intelligenze artificiali vede il male e che si dice restio alla loro implementazione in campi, finora, totalmente umani. C’è chi teme una disumanizzazione.
Ma sarà forse possibile che si arrivi mai a certi livelli di pericolo?
Le intelligenze artificiali sono sicuramente la moda del momento. Tutti ne parlano e tutti vogliono, in qualche modo, provarne l’utilizzo tramite applicazioni che permettono magari di generare immagini partendo da altre immagini o da una semplice parola. Con i social invasi da immagini provenienti da intelligenze artificiali e grandi marchi che utilizzano tali software (come Mulino Bianco che ha realizzato un’immagine promozionale con un’IA), la polemica ha iniziato a gonfiarsi.
Sono in tanti gli esponenti del mondo dell’arte che si dicono spaventati dall’utilizzo sconsiderato di tali software. Molti si sono anche lamentati perché si sono visti sottrarre idee, poi riutilizzate da queste intelligenze artificiali per creare nuovi lavori artistici. Molti chiedono più controlli e regolamentazione, così che venga tutelata la proprietà intellettuale.
Ma i problemi non si fermano all’arte. Le IA sono infatti in grado di riprodurre qualsiasi cosa: ci sono IA capaci di scrivere articoli di giornale, altre capaci di emulare voci umane, creare illustrazioni o semplicemente dialogare. E proprio quest’ultima funzione ha fatto infuriare un bel po’ di gente.
Prima di continuare, facciamo una piccola digressione su ChatGPT. Questo software realizzato da OpenAI è tra i più utilizzati del momento e permette un’interazione diretta con un’intelligenza artificiale che risponde, un po’a modo suo, a tutte le nostre domande, riuscendo a simulare dialoghi quanto più autentici possibile.
Da qualche giorni, è iniziata a montare la polemica attorno alla piattaforma online Koko. Questa è una piattaforma di salute mentale no-profit, che si occupa di mettere in contatto persone che richiedono aiuto psicologico, con volontari tramite app di messaggistica come Telegram o Discord. Ma anche qui, sono arrivate le intelligenze artificiali e in molti non sono rimasti contenti della cosa. E soprattutto, dei modi in cui ne sono venuti a conoscenza.
Proprio Rob Morris infatti, il cofondatore del servizio, ha annunciato sul suo account Twitter che la società Koko ha eseguito un esperimento su 4000 ignari individui che hanno ricevuto assistenza psicologica proprio da un’intelligenza artificiale, proprio da quella ChatGPT. Nel suo comunicato scrive “Abbiamo fornito supporto per la salute mentale a circa 4000 persone, usando GPT-3”.
Nessuna delle 4000 persone si è detta informata della cosa e Rob Morris si è subito ritrovato sommerso di critiche di carattere etico, dato che nessuno degli ignari partecipanti all’esperimento ha fornito il consenso informato. A far ancora più discutere è il messaggio introduttivo che le persone si trovano davanti, nel momento in cui iniziano ad interagire con Koko su Discord: “Koko ti mette in contatto con persone reali che ti capiscono davvero. Non terapisti, non consulenti, solo persone come te”.
Dopo le critiche fioccate su Twitter, soprattutto a causa della mancanza del consenso informato, requisito obbligatorio negli USA per svolgere ricerche su soggetti umani, proprio Morris ha voluto fare delle precisazioni. Il cofondatore di Koko ha infatti voluto chiarire come non fosse necessario il consenso informato, dato che all’esperimento, non avrebbe seguito la pubblicazione dei dati.
Ha poi specificato che è stata tenute in considerazione l’empatia e la privacy di ogni individuo e che sarà così anche in future iterazioni dell’utilizzo dell’intelligenza artificiale.
This post was published on 16 Gennaio 2023 8:00
Le musicassette stanno tornando di gran moda, come i vinili, ed esattamente come tutto ciò…
Volete iniziare a giocare a Dragon Age: The Veilguard ma non sapete dove mettere le…
Dalla Cina è in arrivo un videogioco che definire bizzarro è dire poco: solamente il…
Siete appassionati di GDR cartacei? A Lucca Comics & Games 2024 è stato eletto il…
I messaggi vocali di Whatsapp non sono affatto così sicuri e innocui come credi, anzi:…
Alla fiera giapponese abbiamo provato con mano l'attesissimo soulslike di S-GAME, che punta a divenire…