Doveva+succedere%2C+le+intelligenze+artificiali+iniziano+a+ribellarsi+e+sdoppiano+la+personalit%C3%A0
player
/fuorigioco/507746-ia-si-ribellano.html/amp/
Fuorigioco

Doveva succedere, le intelligenze artificiali iniziano a ribellarsi e sdoppiano la personalità

Problemi per l’IA di Bing: dopo che ha minacciato alcuni utenti l’azienda ha dovuto creare tre personalità diverse per limitarla

ChatGPT e le altre Intelligenze Artificiali testuali, in grado di emulare il linguaggio ed il ragionamento umano, sono senza ombra di dubbio la rivoluzione tecnologica degli ultimi mesi. Tante aziende sono subito corse ad accaparrarsi un posto nel mercato delle IA, implementandole nei loro servizi.

Eppure, non sempre questa corsa ha portato i risultati sperati. Ne è un esempio Bard, l’IA annunciata da Google che ha commesso un gravissimo errore in una risposta data durante la presentazione alla stampa.

I problemi di Bing Chat

Anche il motore di ricerca Bing aveva annunciato il sodalizio con ChatGPT di OpenAI. L’IA avrebbe dovuto offrire nuove tipologie di ricerche in internet, aiutando gli utenti e facilitando la navigazione. Il 7 febbraio è stato, quindi, annunciato Bing Chat.

Bing Chat è un assistente AI basato su un modello linguistico avanzato di grandi dimensioni (LLM) sviluppato da OpenAI. Una caratteristica fondamentale di Bing Chat è la possibilità di effettuare ricerche sul web e di incorporare i risultati nelle sue risposte.

Poco dopo la messa in funzione, gli attacchi avversari hanno portato regolarmente una prima versione di Bing Chat a simulare la follia e gli utenti hanno scoperto che il bot poteva essere convinto a minacciarli. Non molto tempo dopo, Microsoft è corsa ai ripari riducendo drasticamente gli sfoghi di Bing Chat imponendo limiti severi alla durata delle conversazioni.

Da allora, l’azienda ha sperimentato modi per restituire a chi lo desiderava un po’ della personalità impertinente di Bing Chat, ma anche per consentire ad altri utenti di cercare risposte più precise. Questo ha portato alla nuova interfaccia a tre scelte “stile di conversazione”.

Tre personalità per controllare la macchina

Mercoledì scorso, Mike Davidson, dipendente di Microsoft, ha annunciato che l’azienda ha introdotto tre diversi stili di personalità per il suo bot sperimentale Bing Chat, dotato di intelligenza artificiale: Creativo, Equilibrato o Preciso. Microsoft sta testando la funzione dal 24 febbraio con un gruppo limitato di utenti. Passando da una modalità all’altra si ottengono risultati diversi che spostano l’equilibrio tra precisione e creatività.

La modalità “Creativa” produce suggerimenti più brevi e fuori dagli schemi, non sempre sicuri o pratici. La modalità “Precisa” è più cauta, e a volte non suggerisce nulla se non vede un modo sicuro per ottenere un risultato. Nel mezzo, la modalità “Bilanciata” produce, spesso, le risposte più lunghe, con i risultati di ricerca più dettagliati e le citazioni di siti web nelle sue risposte.

Con i modelli linguistici di grandi dimensioni, le imprecisioni inattese (allucinazioni) spesso aumentano di frequenza con l’aumentare della “creatività”, il che di solito significa che il modello di intelligenza artificiale si discosta maggiormente dalle informazioni apprese nel suo set di dati. I ricercatori di IA chiamano spesso questa proprietà “temperatura”, ma i membri del team di Bing affermano che i nuovi stili di conversazione hanno qualcosa di più.

L’IA sta imparando dagli utenti

Secondo Mikhail Parakhin, dipendente di Microsoft, la commutazione delle modalità in Bing Chat modifica aspetti fondamentali del comportamento del bot, tra cui la commutazione tra diversi modelli di intelligenza artificiale che hanno ricevuto un addestramento aggiuntivo dalle risposte umane ai suoi messaggi.

Le diverse modalità utilizzano anche prompt iniziali diversi, il che significa che Microsoft sostituisce il prompt che definisce la personalità, come quello rivelato nell’attacco di prompt injection che ha portato l’IA a ribellarsi.

Presto disponibile per tutti

Sebbene Bing Chat sia ancora disponibile solo per coloro che si sono iscritti a una lista d’attesa, Microsoft continua a perfezionare Bing Chat e le altre funzioni di ricerca di Bing basate sull’intelligenza artificiale, mentre si prepara a diffonderle maggiormente tra gli utenti. Di recente, Microsoft ha annunciato l’intenzione di integrare la tecnologia in Windows 11.

This post was published on 6 Marzo 2023 15:00

Pubblicato da

Recent Posts

I dati di Steam parlano chiaro: i giochi del 2024 sono stati giocati da pochi

Quanto tempo hanno passato gli utenti di Steam, giocando a titoli usciti solo durante il…

The Witcher 4 in italiano? Arriva la risposta ufficiale di CD Projekt Red

Arriva la conferma ufficiale da parte di CD Projekt RED: The Witcher IV sarà totalmente…

DanDaDan 2 si farà? Tutto ciò che sappiamo sulla serie Netflix

Dopo il grande successo della prima stagione, gli utenti di Netflix attendono con ansia notizie…

Telepass restituisce soldi ai clienti: tempo fino al 31 gennaio per i rimborsi

Da parte di Telepass arriva una promo da capogiro che può rappresentare una manna dal…

Full HD, 24 pollici e 180 Hz: il miglior monitor da gaming a meno di 100 euro ha questo e anche di più

Un monitor perfetto per affacciarti in maniera ideale al nuovo anno: ecco lo schermo AOC…

Dragon Ball, se ti reputi un vero fan non puoi non conoscere queste 10 curiosità

I veri fan di Dragon Ball custodiscono segreti, curiosità e aneddoti sul meraviglioso universo concepito…