Con macchine sempre più capaci di copiarci è necessario un modo per distinguere il lavoro di un umano da quello di una IA
Le nuove intelligenze artificiali con elevate capacità linguistiche sono un enorme passo in avanti per la tecnologia: sono in grado di emulare quasi completamente il nostro linguaggio e creare testi sempre più naturali. Forse troppo. Spesso diventa difficile distinguere il lavoro di un essere umano da quello di una macchina.
Un’arma per gli studenti svogliati
Da quando ChatGPT è stato reso accessibile al pubblico, ha suscitato un’ondata di preoccupazione tra le istituzioni scolastiche di tutto il mondo per il fatto che potrebbe portare a imbrogli negli esami o nelle valutazioni.
Nel Regno Unito i docenti sono stati invitati a rivedere il modo in cui i loro corsi sono stati valutati, mentre alcune università hanno vietato completamente la tecnologia e sono tornate agli esami con carta e penna per impedire agli studenti di usare l’intelligenza artificiale.
Un docente dell’università australiana Deakin ha dichiarato che circa una valutazione su cinque di quelle che stava valutando durante il periodo estivo australiano aveva utilizzato l’assistenza dell’IA.
Anche alcune riviste scientifiche hanno vietato l’uso di ChatGPT nel testo degli articoli.
In arrivo un rimedio
OpenAI, il laboratorio di ricerca dietro il programma di intelligenza artificiale ChatGPT, ha rilasciato uno strumento progettato per rilevare se un testo è stato scritto da un’intelligenza artificiale, ma avverte che non è ancora del tutto affidabile.
In un post sul blog di martedì, OpenAI ha pubblicato un nuovo strumento di classificazione che è stato addestrato per distinguere tra il testo scritto da un essere umano e quello scritto da una serie di AI, non solo ChatGPT.
I ricercatori di Open AI hanno affermato che, sebbene sia “impossibile individuare in modo affidabile tutti i testi scritti dall’IA”, i classificatori di buona qualità sono in grado di cogliere i segnali che indicano che il testo è stato scritto dall’IA. Lo strumento potrebbe essere utile nei casi in cui l’IA viene utilizzata per “disonestà accademica” e quando i chatbot dell’IA vengono posizionati come esseri umani.
“Non è completamente affidabile”
Ma hanno ammesso che il classificatore “non è completamente affidabile” e ha identificato correttamente solo il 26% dei testi in inglese scritti dall’intelligenza artificiale. Inoltre, nel 9% dei casi ha erroneamente etichettato testi scritti da esseri umani come probabilmente scritti da strumenti di intelligenza artificiale.
L’affidabilità del nostro classificatore migliora in genere con l’aumentare della lunghezza del testo in ingresso. Rispetto al nostro classificatore rilasciato in precedenza, questo nuovo classificatore è significativamente più affidabile su testi provenienti da sistemi di IA più recenti
OpenAI ha dichiarato che lo strumento di classificazione presenta diversi limiti, tra cui l’inaffidabilità su testi inferiori a 1.000 caratteri e l’errata identificazione di alcuni testi scritti da esseri umani come scritti dall’IA. I ricercatori hanno anche detto che dovrebbe essere usato solo per i testi in inglese, poiché le sue prestazioni sono “significativamente peggiori” in altre lingue e non è affidabile per il controllo del codice.
“Non dovrebbe essere utilizzato come strumento decisionale principale, ma come complemento ad altri metodi per determinare la fonte di un testo”, ha dichiarato OpenAI.
Informazioni dalle scuole
OpenAI ha ora invitato le istituzioni scolastiche a condividere le loro esperienze con l’uso di ChatGPT nelle classi.
Mentre molti hanno risposto all’IA con dei divieti, alcuni hanno abbracciato l’onda dell’IA. Il mese scorso le tre principali università dell’Australia Meridionale hanno aggiornato le loro politiche per dire che l’IA come ChatGPT può essere utilizzata a condizione che sia divulgata.