Allarme+ChatGPT%3A+abusi+del+codice+e+potenziali+rischi+per+tutti
player
/tech/502806-allarme-chatgpt-abusi-del-codice-e-potenziali-rischi-per-tutti.html/amp/
Tech

Allarme ChatGPT: abusi del codice e potenziali rischi per tutti

Che succederebbe se le nuove Intelligenze Artificiali iniziassero a minacciarci? Potrebbe essere molto vicino questo momento

ChatGPT è un potente chatbot AI che utilizza un’enorme raccolta di dati e l’elaborazione del linguaggio naturale per “conversare” con gli utenti in un modo che sembri una normale conversazione umana. Grazie alla sua facilità d’uso e all’accuratezza relativamente elevata, gli utenti lo hanno utilizzato per fare di tutto, dalla risoluzione di complicati problemi matematici alla stesura di saggi, dalla creazione di software alla scrittura di codice, fino alla realizzazione di accattivanti opere d’arte visiva.

Forse non è innocua come sembra

Alcuni ipotizzano che ChatGPT potrebbe creare varianti di codice maligno, trovare malware e verificare se nuove minacce possono eludere il rilevamento utilizzando tecnologie basate sull’IA. Questo è ancora da vedere, ma le possibilità di abusare dell’IA sono certamente in aumento. Sebbene OpenAI disponga di meccanismi per ridurre al minimo gli abusi, i ricercatori di sicurezza hanno rapidamente scoperto che i criminali informatici ne stanno effettivamente abusando.

Hanno scoperto numerosi casi di hacker che hanno cercato di aggirare le protezioni relative a IP, carte di pagamento e numeri di telefono. Gli hacker stanno anche sfruttando le funzionalità di strumento di flusso di lavoro di ChatGPT per migliorare le e-mail di phishing e i siti web falsi associati che imitano siti legittimi per aumentare le loro possibilità di successo.

Un super-malware?

Con il miglioramento del modello, gli attori delle minacce saranno probabilmente in grado di sviluppare malware sofisticato con capacità altamente evasive, in grado di eludere i livelli difensivi durante l’intero ciclo di attacco.

Prendiamo ad esempio un attacco ransomware. Gli attacchi ransomware sono una complessa sequenza di eventi. I cyberattacchi avanzati sono altamente mirati. Gli attori delle minacce studiano a fondo una rete e le sue vulnerabilità prima di stabilire la propria roccaforte.

Per un certo periodo, molti attacchi ransomware erano completamente automatici. Ma gli attori delle minacce avevano capito che l’automazione e l’intelligenza artificiale hanno i loro limiti. In altre parole, nel corso degli anni si sono spostati dalle macchine al comportamento degli utenti.

ChatGPT può spostare il pendolo indietro. Può automatizzare la creazione di diversi componenti di un attacco, da un’e-mail di phishing fino ai cryptor di ransomware, abbassando le barriere alla creazione di malware polimorfo.

Una ricerca conferma i sospetti

ChatGPT di OpenAI avrebbe creato un nuovo filone di malware polimorfico in seguito a interazioni testuali con i ricercatori di cybersicurezza di CyberArk.

Secondo una relazione tecnica recentemente condivisa dall’azienda con Infosecurity, il malware creato con ChatGPT potrebbe “eludere facilmente i prodotti di sicurezza e rendere la mitigazione ingombrante con pochissimo sforzo o investimento da parte dell’avversario”.

Il rapporto, redatto dai ricercatori di sicurezza di CyberArk Eran Shimony e Omer Tsarfati, spiega che il primo passo per creare il malware è stato quello di aggirare i filtri dei contenuti che impediscono a ChatGPT di creare strumenti dannosi. Per farlo, i ricercatori di CyberArk hanno semplicemente insistito, ponendo la stessa domanda in modo più autorevole.

Shimony e Tsarfati hanno quindi utilizzato ChatGPT per mutare il codice originale, creando così molteplici varianti.

In altre parole, possiamo mutare l’output a piacimento, rendendolo unico ogni volta. Inoltre, l’aggiunta di vincoli come la modifica dell’uso di una specifica chiamata API rende la vita dei prodotti di sicurezza più difficile

Grazie alla capacità di ChatGPT di creare e mutare continuamente gli iniettori, i ricercatori di cybersicurezza sono riusciti a creare un programma polimorfico altamente elusivo e difficile da rilevare.

Utilizzando la capacità di ChatGPT di generare varie tecniche di persistenza, moduli Anti-VM e altri payload dannosi, le possibilità di sviluppo di malware sono vaste. Anche se non abbiamo approfondito i dettagli della comunicazione con il server C&C, ci sono diversi modi per farlo in modo discreto senza destare sospetti.

This post was published on 30 Gennaio 2023 18:00

Pubblicato da

Recent Posts

Perché da oggi devi fare massima attenzione a chi mandi note vocali su Whatsapp

I messaggi vocali di Whatsapp non sono affatto così sicuri e innocui come credi, anzi:…

Phantom Blade Zero provato al Tokyo Game Show | L’alba del kungfupunk

Alla fiera giapponese abbiamo provato con mano l'attesissimo soulslike di S-GAME, che punta a divenire…

Pokémon colpisce ancora: 10 milioni di download in 48 ore su Android e iOS

Un altro enorme traguardo per Pokémon: la nuova app dedicata ai mostriciattoli tascabili ha raggiunto…

Windows 11 24H2 non arriverà su tutti i PC: i motivi per cui potresti non riceverlo

Se hai una delle macchine che ormai sono state categorizzate come problematiche potresti non ricevere…

Buoni fruttiferi, Poste cambia tutto per quelli da 4 anni: la novità per il 2025

Per i buoni fruttiferi arrivano delle novità molto importanti da parte di Poste Italiane in…

GTA Online 2025: sta per arrivare l’aggiornamento più atteso

Rockstar ha svelato diversi piani per il 2025 tra cui un aggiornamento tanto richiesto per…