Che succederebbe se le nuove Intelligenze Artificiali iniziassero a minacciarci? Potrebbe essere molto vicino questo momento
ChatGPT è un potente chatbot AI che utilizza un’enorme raccolta di dati e l’elaborazione del linguaggio naturale per “conversare” con gli utenti in un modo che sembri una normale conversazione umana. Grazie alla sua facilità d’uso e all’accuratezza relativamente elevata, gli utenti lo hanno utilizzato per fare di tutto, dalla risoluzione di complicati problemi matematici alla stesura di saggi, dalla creazione di software alla scrittura di codice, fino alla realizzazione di accattivanti opere d’arte visiva.
Forse non è innocua come sembra
Alcuni ipotizzano che ChatGPT potrebbe creare varianti di codice maligno, trovare malware e verificare se nuove minacce possono eludere il rilevamento utilizzando tecnologie basate sull’IA. Questo è ancora da vedere, ma le possibilità di abusare dell’IA sono certamente in aumento. Sebbene OpenAI disponga di meccanismi per ridurre al minimo gli abusi, i ricercatori di sicurezza hanno rapidamente scoperto che i criminali informatici ne stanno effettivamente abusando.
Hanno scoperto numerosi casi di hacker che hanno cercato di aggirare le protezioni relative a IP, carte di pagamento e numeri di telefono. Gli hacker stanno anche sfruttando le funzionalità di strumento di flusso di lavoro di ChatGPT per migliorare le e-mail di phishing e i siti web falsi associati che imitano siti legittimi per aumentare le loro possibilità di successo.
Un super-malware?
Con il miglioramento del modello, gli attori delle minacce saranno probabilmente in grado di sviluppare malware sofisticato con capacità altamente evasive, in grado di eludere i livelli difensivi durante l’intero ciclo di attacco.
Prendiamo ad esempio un attacco ransomware. Gli attacchi ransomware sono una complessa sequenza di eventi. I cyberattacchi avanzati sono altamente mirati. Gli attori delle minacce studiano a fondo una rete e le sue vulnerabilità prima di stabilire la propria roccaforte.
Per un certo periodo, molti attacchi ransomware erano completamente automatici. Ma gli attori delle minacce avevano capito che l’automazione e l’intelligenza artificiale hanno i loro limiti. In altre parole, nel corso degli anni si sono spostati dalle macchine al comportamento degli utenti.
ChatGPT può spostare il pendolo indietro. Può automatizzare la creazione di diversi componenti di un attacco, da un’e-mail di phishing fino ai cryptor di ransomware, abbassando le barriere alla creazione di malware polimorfo.
Una ricerca conferma i sospetti
ChatGPT di OpenAI avrebbe creato un nuovo filone di malware polimorfico in seguito a interazioni testuali con i ricercatori di cybersicurezza di CyberArk.
Secondo una relazione tecnica recentemente condivisa dall’azienda con Infosecurity, il malware creato con ChatGPT potrebbe “eludere facilmente i prodotti di sicurezza e rendere la mitigazione ingombrante con pochissimo sforzo o investimento da parte dell’avversario”.
Il rapporto, redatto dai ricercatori di sicurezza di CyberArk Eran Shimony e Omer Tsarfati, spiega che il primo passo per creare il malware è stato quello di aggirare i filtri dei contenuti che impediscono a ChatGPT di creare strumenti dannosi. Per farlo, i ricercatori di CyberArk hanno semplicemente insistito, ponendo la stessa domanda in modo più autorevole.
Shimony e Tsarfati hanno quindi utilizzato ChatGPT per mutare il codice originale, creando così molteplici varianti.
In altre parole, possiamo mutare l’output a piacimento, rendendolo unico ogni volta. Inoltre, l’aggiunta di vincoli come la modifica dell’uso di una specifica chiamata API rende la vita dei prodotti di sicurezza più difficile
Grazie alla capacità di ChatGPT di creare e mutare continuamente gli iniettori, i ricercatori di cybersicurezza sono riusciti a creare un programma polimorfico altamente elusivo e difficile da rilevare.
Utilizzando la capacità di ChatGPT di generare varie tecniche di persistenza, moduli Anti-VM e altri payload dannosi, le possibilità di sviluppo di malware sono vaste. Anche se non abbiamo approfondito i dettagli della comunicazione con il server C&C, ci sono diversi modi per farlo in modo discreto senza destare sospetti.