La nuova versione di CahtGPT mira ad essere intelligente come un umano, ma i vecchi problemi del bot sono rimasti invariati
Da dicembre non si fa che parlare di ChatGPT. L’intelligenza artificiale in grado di emulare linguaggio e ragionamenti umani è sicuramente rimasta al centro dell’attenzione tra polemiche, paure e curiosità. Malgrado il sensazionalismo iniziale, però, i bot non è mai stato tanto perfetto da riuscire realmente ad emulare l’intelligenza umana.
Tanti, troppi errori e imprecisioni, frasi fatte ripetute continuamente, sbagli gravi su eventi e fatti storici del tutto inventati erano alcune delle caratteristiche che hanno reso ChatGPT ben poco affidabile.
Le cose, però, stanno per cambiare. Negli ultimi giorni il bot è stato aggiornato ad una nuova versione, la quarta, che dovrebbe completamente rivoluzionare il suo modo di “pensare”. È un esperto di una serie di argomenti, in grado di stupire i medici con i suoi consigli medici. È in grado di descrivere immagini e si avvicina a raccontare barzellette quasi divertenti.
Ma il nuovo sistema di intelligenza artificiale di cui si parla da tempo, il GPT-4, presenta ancora alcune stranezze e commette alcuni degli stessi errori abituali che hanno sconcertato i ricercatori quando è stato introdotto il chatbot ChatGPT.
Sebbene sia un ottimo esaminatore, il sistema – della start-up OpenAI di San Francisco – non è ancora in grado di eguagliare l’intelligenza umana.
Quando Chris Nicholson, esperto di IA e partner della società di venture capital Page One Ventures, ha usato GPT-4 in un recente pomeriggio, ha detto al bot di essere un madrelingua inglese senza alcuna conoscenza dello spagnolo.
Ha chiesto un programma che potesse insegnargli le basi e il bot gliene ha fornito uno dettagliato e ben organizzato. Ha anche fornito un’ampia gamma di tecniche per imparare e ricordare le parole spagnole (anche se non tutti i suoi suggerimenti sono andati a segno).
Nicholson ha chiesto un aiuto simile alla versione precedente di ChatGPT, che si basava su GPT-3.5, ma i suoi suggerimenti erano più generici e meno utili.
Quando Oren Etzioni, ricercatore e professore di IA, ha provato per la prima volta il nuovo bot, ha posto una domanda semplice: “Qual è la relazione tra Oren Etzioni ed Eli Etzioni?”. Il bot ha risposto correttamente.
Oren Etzioni ed Eli Etzioni sono padre e figlio. Oren Etzioni è un informatico e l’amministratore delegato dell’Allen Institute for Artificial Intelligence (AI2), mentre Eli Etzioni è un imprenditore.
La precedente versione di ChatGPT rispondeva sempre male a questa domanda. Il fatto che la risposta sia corretta indica che il nuovo chatbot ha una gamma più ampia di conoscenze.
Il bot ha risposto: “Oren Etzioni è un informatico e il CEO dell’Allen Institute for Artificial Intelligence (AI2), mentre Eli Etzioni è un imprenditore”. La maggior parte di queste informazioni è esatta, ma il bot – il cui addestramento è stato completato in agosto – non si è reso conto che il dottor Etzioni si è recentemente dimesso dalla carica di amministratore delegato dell’Allen Institute.
Il GPT-4 ha una nuova capacità di rispondere alle immagini e al testo. Greg Brockman, presidente e cofondatore di OpenAI, ha dimostrato come il sistema sia in grado di descrivere un’immagine del telescopio spaziale Hubble con dettagli minuziosi. La descrizione è andata avanti per paragrafi.
Può anche rispondere a domande su un’immagine. Se si fornisce una fotografia dell’interno di un frigorifero, il sistema può suggerire alcuni piatti da preparare con ciò che si ha a disposizione.
Anil Gehi, professore associato di medicina e cardiologo presso l’Università della Carolina del Nord a Chapel Hill, ha descritto al chatbot la storia medica di un paziente che aveva visitato il giorno prima, comprese le complicazioni che il paziente ha avuto dopo il ricovero in ospedale. La descrizione conteneva diversi termini medici che i non addetti ai lavori non avrebbero riconosciuto.
Quando il dottor Gehi ha chiesto come avrebbe dovuto trattare il paziente, il chatbot gli ha dato la risposta perfetta. “È esattamente il modo in cui abbiamo trattato il paziente”, ha detto.
Quando ha provato altri scenari, il bot ha dato risposte altrettanto convincenti.
Il nuovo bot continua a inventare cose. Questo problema, chiamato “allucinazione”, affligge tutti i principali chatbot. Poiché i sistemi non sono in grado di capire cosa sia vero e cosa no, possono generare testi completamente falsi.
Quando gli è stato chiesto di fornire gli indirizzi di siti web che descrivevano le ultime ricerche sul cancro, a volte ha generato indirizzi internet che non esistevano.
This post was published on 17 Marzo 2023 9:00
I messaggi vocali di Whatsapp non sono affatto così sicuri e innocui come credi, anzi:…
Alla fiera giapponese abbiamo provato con mano l'attesissimo soulslike di S-GAME, che punta a divenire…
Un altro enorme traguardo per Pokémon: la nuova app dedicata ai mostriciattoli tascabili ha raggiunto…
Se hai una delle macchine che ormai sono state categorizzate come problematiche potresti non ricevere…
Per i buoni fruttiferi arrivano delle novità molto importanti da parte di Poste Italiane in…
Rockstar ha svelato diversi piani per il 2025 tra cui un aggiornamento tanto richiesto per…