Doveva+succedere%2C+le+intelligenze+artificiali+iniziano+a+ribellarsi+e+sdoppiano+la+personalit%C3%A0
player
/fuorigioco/507746-ia-si-ribellano.html/amp/
Fuorigioco

Doveva succedere, le intelligenze artificiali iniziano a ribellarsi e sdoppiano la personalità

Problemi per l’IA di Bing: dopo che ha minacciato alcuni utenti l’azienda ha dovuto creare tre personalità diverse per limitarla

ChatGPT e le altre Intelligenze Artificiali testuali, in grado di emulare il linguaggio ed il ragionamento umano, sono senza ombra di dubbio la rivoluzione tecnologica degli ultimi mesi. Tante aziende sono subito corse ad accaparrarsi un posto nel mercato delle IA, implementandole nei loro servizi.

Eppure, non sempre questa corsa ha portato i risultati sperati. Ne è un esempio Bard, l’IA annunciata da Google che ha commesso un gravissimo errore in una risposta data durante la presentazione alla stampa.

I problemi di Bing Chat

Anche il motore di ricerca Bing aveva annunciato il sodalizio con ChatGPT di OpenAI. L’IA avrebbe dovuto offrire nuove tipologie di ricerche in internet, aiutando gli utenti e facilitando la navigazione. Il 7 febbraio è stato, quindi, annunciato Bing Chat.

Bing Chat è un assistente AI basato su un modello linguistico avanzato di grandi dimensioni (LLM) sviluppato da OpenAI. Una caratteristica fondamentale di Bing Chat è la possibilità di effettuare ricerche sul web e di incorporare i risultati nelle sue risposte.

Poco dopo la messa in funzione, gli attacchi avversari hanno portato regolarmente una prima versione di Bing Chat a simulare la follia e gli utenti hanno scoperto che il bot poteva essere convinto a minacciarli. Non molto tempo dopo, Microsoft è corsa ai ripari riducendo drasticamente gli sfoghi di Bing Chat imponendo limiti severi alla durata delle conversazioni.

Da allora, l’azienda ha sperimentato modi per restituire a chi lo desiderava un po’ della personalità impertinente di Bing Chat, ma anche per consentire ad altri utenti di cercare risposte più precise. Questo ha portato alla nuova interfaccia a tre scelte “stile di conversazione”.

Tre personalità per controllare la macchina

Mercoledì scorso, Mike Davidson, dipendente di Microsoft, ha annunciato che l’azienda ha introdotto tre diversi stili di personalità per il suo bot sperimentale Bing Chat, dotato di intelligenza artificiale: Creativo, Equilibrato o Preciso. Microsoft sta testando la funzione dal 24 febbraio con un gruppo limitato di utenti. Passando da una modalità all’altra si ottengono risultati diversi che spostano l’equilibrio tra precisione e creatività.

La modalità “Creativa” produce suggerimenti più brevi e fuori dagli schemi, non sempre sicuri o pratici. La modalità “Precisa” è più cauta, e a volte non suggerisce nulla se non vede un modo sicuro per ottenere un risultato. Nel mezzo, la modalità “Bilanciata” produce, spesso, le risposte più lunghe, con i risultati di ricerca più dettagliati e le citazioni di siti web nelle sue risposte.

Con i modelli linguistici di grandi dimensioni, le imprecisioni inattese (allucinazioni) spesso aumentano di frequenza con l’aumentare della “creatività”, il che di solito significa che il modello di intelligenza artificiale si discosta maggiormente dalle informazioni apprese nel suo set di dati. I ricercatori di IA chiamano spesso questa proprietà “temperatura”, ma i membri del team di Bing affermano che i nuovi stili di conversazione hanno qualcosa di più.

L’IA sta imparando dagli utenti

Secondo Mikhail Parakhin, dipendente di Microsoft, la commutazione delle modalità in Bing Chat modifica aspetti fondamentali del comportamento del bot, tra cui la commutazione tra diversi modelli di intelligenza artificiale che hanno ricevuto un addestramento aggiuntivo dalle risposte umane ai suoi messaggi.

Le diverse modalità utilizzano anche prompt iniziali diversi, il che significa che Microsoft sostituisce il prompt che definisce la personalità, come quello rivelato nell’attacco di prompt injection che ha portato l’IA a ribellarsi.

Presto disponibile per tutti

Sebbene Bing Chat sia ancora disponibile solo per coloro che si sono iscritti a una lista d’attesa, Microsoft continua a perfezionare Bing Chat e le altre funzioni di ricerca di Bing basate sull’intelligenza artificiale, mentre si prepara a diffonderle maggiormente tra gli utenti. Di recente, Microsoft ha annunciato l’intenzione di integrare la tecnologia in Windows 11.

This post was published on 6 Marzo 2023 15:00

Pubblicato da

Recent Posts

Follia Poco Phone, il taglio di prezzo lo sconta di oltre 300 euro: solo per pochissimo!

Se stai cercando uno smartphone di qualità alta a un prezzo davvero stracciato allora il…

NCIS 22 arriverà in Italia: data di inizio, trama, addii e nuovo cast

Tutti i fan della serie NCIS non dovranno più aspettare perché finalmente la stagione 22…

L’IA Gemini augura la morte a un utente dal nulla, Google sta investigando

Un avvenimento assai strano e per certi versi scabroso ha coinvolto Google e la sua…

Fan di League of Legends in subbuglio per Arcane 2: degli eventi stanno riscrivendo la lore, che succede?

La nuova stagione di Arcane è finalmente uscita, ma i fan di League of Legends…

Stavolta dici davvero basta alle truffe telefoniche: finalmente la bella notizia

Grande notizia per tutti coloro che temono di poter subire una truffa telefonica: arriva la…

Libetti Poste: questi verranno chiuso in automatico nel 2025. Tempo fino ad aprile

A proposito di Libretti Poste, ecco che cosa sapere a proposito del fatto che molti…