Continua la corsa alla IA più potente: sta per arrivare un robot in grado di imparare e risolvere problemi come gli umani
Nel 2016, un programma di intelligenza artificiale chiamato AlphaGo del laboratorio DeepMind AI di Google è entrato nella storia sconfiggendo un campione del gioco da tavolo Go.
Ora Demis Hassabis, cofondatore e CEO di DeepMind, ha dichiarato che i suoi ingegneri stanno utilizzando le tecniche di AlphaGo per creare un sistema di intelligenza artificiale denominato Gemini che sarà più capace di quello che sta dietro a ChatGPT di OpenAI.
Gemini di DeepMind, che è ancora in fase di sviluppo, è un modello linguistico di grandi dimensioni che lavora con il testo ed è simile per natura a GPT-4, che alimenta ChatGPT. Ma Hassabis dice che il suo team combinerà questa tecnologia con le tecniche utilizzate in AlphaGo, con l’obiettivo di dare al sistema nuove capacità come la pianificazione o la capacità di risolvere problemi.
AlphaGo si basa su una tecnica sperimentata da DeepMind chiamata apprendimento per rinforzo, in cui il software impara ad affrontare problemi difficili che richiedono la scelta delle azioni da intraprendere, come nel Go o nei videogiochi, effettuando tentativi ripetuti e ricevendo un feedback sulle proprie prestazioni.
Ha anche utilizzato un metodo chiamato ricerca ad albero per esplorare e ricordare le possibili mosse sulla scacchiera. Il prossimo grande salto per i modelli linguistici potrebbe comportare l’esecuzione di un maggior numero di compiti su Internet e sui computer.
L’addestramento di un modello linguistico di grandi dimensioni come il GPT-4 di OpenAI implica l’immissione di grandi quantità di testi curati da libri, pagine web e altre fonti in un software di apprendimento automatico noto come trasformatore. Il trasformatore utilizza gli schemi presenti nei dati di addestramento per diventare abile nel predire le lettere e le parole che dovrebbero seguire un testo, un meccanismo semplice che si rivela straordinariamente potente nel rispondere alle domande e nel generare testo o codice.
Un ulteriore passo importante per la creazione di ChatGPT e di modelli linguistici con capacità simili è l’utilizzo dell’apprendimento per rinforzo basato sul feedback degli esseri umani sulle risposte del modello AI per perfezionare le sue prestazioni. La profonda esperienza di DeepMind nell’apprendimento per rinforzo potrebbe permettere ai suoi ricercatori di dare a Gemini nuove capacità.
Hassabis e il suo team potrebbero anche cercare di migliorare la tecnologia dei modelli linguistici di grandi dimensioni con idee provenienti da altre aree dell’IA. I ricercatori di DeepMind lavorano in aree che vanno dalla robotica alle neuroscienze e all’inizio di questa settimana l’azienda ha dimostrato un algoritmo in grado di imparare a eseguire compiti di manipolazione con un’ampia gamma di bracci robotici diversi.
Si ritiene che l’apprendimento dall’esperienza fisica del mondo, come fanno gli esseri umani e gli animali, sia importante per rendere l’intelligenza artificiale più capace. Il fatto che i modelli linguistici imparino a conoscere il mondo indirettamente, attraverso il testo, è considerato da alcuni esperti di IA come una limitazione importante.
Hassabis sostiene che gli straordinari benefici potenziali dell’IA, ad esempio per le scoperte scientifiche in settori come la salute o il clima, rendono indispensabile che l’umanità non interrompa lo sviluppo di questa tecnologia. Ritiene inoltre che l’imposizione di una pausa sia impraticabile, in quanto sarebbe quasi impossibile da far rispettare.
Questo non significa che Hassabis sostenga che lo sviluppo dell’IA proceda di corsa. DeepMind ha esplorato i potenziali rischi dell’IA fin da prima che apparisse ChatGPT e Shane Legg, uno dei cofondatori dell’azienda, ha guidato per anni un gruppo di “sicurezza dell’IA” all’interno dell’azienda. Il mese scorso Hassabis si è unito ad altre figure di alto profilo nel campo dell’IA, firmando una dichiarazione in cui avverte che l’IA potrebbe un giorno rappresentare un rischio paragonabile alla guerra nucleare o a una pandemia.
Secondo Hassabis, una delle sfide più grandi è determinare quali siano i rischi di un’IA più potente. “Penso che sia necessario fare più ricerca sul campo, con estrema urgenza, su cose come i test di valutazione”, afferma, per determinare quanto siano capaci e controllabili i nuovi modelli di IA. A tal fine, DeepMind potrebbe rendere i suoi sistemi più accessibili a scienziati esterni. “Mi piacerebbe che il mondo accademico avesse un accesso precoce a questi modelli di frontiera”, afferma, un’idea che, se venisse seguita, potrebbe contribuire a risolvere il problema dell’esclusione di esperti esterni alle grandi aziende dalla ricerca sull’IA più recente.
Quanto bisogna essere preoccupati? Hassabis afferma che nessuno sa con certezza se l’IA diventerà un pericolo importante. Ma è certo che se il progresso continua al ritmo attuale, non c’è molto tempo per sviluppare delle misure di salvaguardia. “Vedo già il tipo di cose che stiamo inserendo nella serie Gemini e non abbiamo motivo di credere che non funzioneranno”, afferma.
This post was published on 4 Luglio 2023 7:00
Le musicassette stanno tornando di gran moda, come i vinili, ed esattamente come tutto ciò…
Volete iniziare a giocare a Dragon Age: The Veilguard ma non sapete dove mettere le…
Dalla Cina è in arrivo un videogioco che definire bizzarro è dire poco: solamente il…
Siete appassionati di GDR cartacei? A Lucca Comics & Games 2024 è stato eletto il…
I messaggi vocali di Whatsapp non sono affatto così sicuri e innocui come credi, anzi:…
Alla fiera giapponese abbiamo provato con mano l'attesissimo soulslike di S-GAME, che punta a divenire…