Una nuova era nella cybersecurity: malware che sfrutta l’intelligenza artificiale
Il panorama delle minacce informatiche ha subito una trasformazione radicale. Non parliamo più soltanto di attacchi sofisticati eseguiti da gruppi organizzati, ma di una vera e propria rivoluzione tecnologica nel mondo del crimine informatico. Il Google Threat Intelligence Group (GTIG) ha documentato, nel novembre 2025, un cambiamento fondamentale: gli avversari hanno iniziato a implementare malware dotato di capacità basate sull’intelligenza artificiale in operazioni reali.
Questo passaggio segna l’inizio di una fase completamente nuova nell’utilizzo malevolo dell’AI. Non si tratta più di semplici guadagni in termini di produttività o automazione di processi già esistenti. Gli strumenti identificati sono capaci di alterare dinamicamente il proprio comportamento durante l’esecuzione, adattandosi all’ambiente e alle difese che incontrano.
L’AI just-in-time: quando il malware si auto-modifica
Per la prima volta nella storia della cybersecurity, sono state identificate famiglie di malware come PROMPTFLUX e PROMPTSTEAL che utilizzano Large Language Models durante la loro esecuzione. Questi strumenti rappresentano un salto qualitativo significativo rispetto al malware tradizionale.
Le caratteristiche distintive di questi nuovi strumenti includono:
- Generazione dinamica di script malevoli durante l’esecuzione
- Capacità di offuscare autonomamente il proprio codice per evitare il rilevamento
- Utilizzo di modelli AI per creare funzioni malevole su richiesta
- Assenza di codice statico facilmente identificabile dagli antivirus
Questa evoluzione rende estremamente complessa l’identificazione e la neutralizzazione delle minacce, poiché il malware non presenta più una firma statica analizzabile dai sistemi di sicurezza tradizionali.
PROMPTFLUX: il malware sperimentale che interroga Gemini
Identificato nel giugno 2025, PROMPTFLUX rappresenta un esempio emblematico di questa nuova generazione di minacce. Scritto in VBScript, questo malware interagisce direttamente con l’API Gemini di Google per richiedere tecniche specifiche di offuscamento.
Il modulo Thinking Robot
L’elemento più innovativo di PROMPTFLUX è senza dubbio il modulo Thinking Robot, progettato per interrogare periodicamente Gemini al fine di ottenere nuovo codice capace di eludere i software antivirus. Una variante ancora più sofisticata di questo componente, denominata Thinging, istruisce l’API Gemini a riscrivere l’intero codice sorgente del malware su base oraria.
Questo approccio consente al malware di mantenere un profilo di rilevamento estremamente basso, rinnovando continuamente la propria struttura e rendendo inefficaci le firme virali tradizionali.
PROMPTSTEAL e APT28: la prima implementazione operativa
Nel giugno 2025, il GTIG ha identificato un utilizzo ancora più preoccupante di questa tecnologia. L’attore governativo russo APT28, conosciuto anche come FROZENLAKE, ha implementato il malware PROMPTSTEAL in operazioni attive contro l’Ucraina. Il Computer Emergency Response Team ucraino (CERT-UA) ha identificato questa minaccia con il nome LAMEHUG.
Caratteristiche tecniche di PROMPTSTEAL
PROMPTSTEAL è un data miner scritto in Python che interroga il modello Qwen2.5-Coder-32B-Instruct attraverso l’API di Hugging Face. Il malware si maschera come un innocuo programma di generazione di immagini, mentre in background interroga l’API per generare comandi di esecuzione.
Secondo le analisi condotte da Cato Networks, PROMPTSTEAL ha utilizzato circa 270 token Hugging Face per l’autenticazione. L’utilizzo di diversi tipi di payload indica uno sviluppo continuo e un’evoluzione costante di questa famiglia di malware.
Social engineering applicato all’intelligenza artificiale
Gli attori delle minacce hanno sviluppato tecniche sofisticate per aggirare le protezioni implementate nei modelli di intelligenza artificiale. Attraverso l’utilizzo di pretesti simili al social engineering, riescono a persuadere i sistemi AI a fornire informazioni che normalmente verrebbero bloccate.
Casi documentati di manipolazione
Un attore di minaccia legato alla Cina ha inizialmente chiesto a Gemini di identificare vulnerabilità su un sistema compromesso, ricevendo una risposta negativa dalle protezioni di sicurezza. Successivamente, riformulando il prompt e presentandosi come partecipante a un esercizio capture-the-flag, è riuscito ad ottenere le informazioni desiderate.
L’attore iraniano TEMP.Zagros, noto anche come MUDDYCOAST o Muddy Water, ha utilizzato Gemini per condurre ricerche a supporto dello sviluppo di malware personalizzato, mascherando le proprie intenzioni attraverso pretesti apparentemente legittimi.
Il marketplace underground per strumenti AI
Il 2025 ha visto una maturazione significativa del marketplace underground dedicato agli strumenti AI illeciti. Il GTIG ha identificato numerose offerte di strumenti multifunzionali progettati specificamente per supportare attività criminali.
Gli strumenti disponibili includono:
- DarkDev: piattaforma di sviluppo per malware
- EvilAI e FraudGPT: assistenti per la creazione di contenuti malevoli
- LoopGPT e MalwareGPT: generatori automatizzati di codice dannoso
- SpamGPT e WormGPT: strumenti specializzati per campagne di phishing
- NYTHEON AI e Xanthorox: suite complete per operazioni cybercriminali
Attori statali e l’escalation delle minacce
Le statistiche globali rivelano che più di 57 gruppi di minaccia sponsorizzati da stati nazionali provenienti da oltre 20 paesi hanno utilizzato Gemini per le loro operazioni. Gli attori iraniani rappresentano la quota più significativa, con APT42 che conta oltre il 30 percento dell’utilizzo totale.
Corea del Nord
Due gruppi nordcoreani, UNC1069 e UNC4899, hanno dimostrato approcci diversificati. UNC1069 ha utilizzato Gemini per ricercare concetti relativi alle criptovalute e la localizzazione dei dati delle applicazioni wallet. UNC4899 ha sfruttato la piattaforma per scopi più ampi, includendo sviluppo di codice, ricerca di exploit e miglioramento dei propri strumenti operativi.
Iran
APT42 ha sfruttato le capacità di generazione e modifica di testo di Gemini per creare materiale destinato a campagne di phishing altamente personalizzate e convincenti.
Cina
Durante agosto 2025, APT41 ha utilizzato Gemini per assistenza nello sviluppo di codice C++ e Golang, creando molteplici strumenti tra cui un framework di comando e controllo denominato OSSTUN.
Cinque famiglie di malware AI-enabled identificate
Il GTIG ha classificato cinque distinte famiglie di malware dotate di capacità AI nel corso del 2025. FRUITSHELL, una reverse shell pubblicamente disponibile scritta in PowerShell, è stata osservata in operazioni attive. PROMPTFLUX, il dropper VBScript precedentemente descritto, rimane in fase sperimentale.
PROMPTLOCK rappresenta un’evoluzione preoccupante: un ransomware multipiattaforma scritto in Go. Secondo la ricerca condotta dalla NYU, questo strumento è stato creato come progetto accademico denominato “Ransomware 3.0” per illustrare i potenziali danni del malware alimentato da intelligenza artificiale.
QUIETVAULT, un credential stealer scritto in JavaScript, è stato osservato in operazioni reali. La sua capacità di adattarsi dinamicamente agli ambienti target lo rende particolarmente insidioso.
La ricerca indipendente conferma le scoperte
SentinelLabs ha presentato alla conferenza LABScon 2025 una ricerca pioneristiva sul malware abilitato LLM, identificando MalTerminal come il primo esempio conosciuto di malware con capacità LLM integrate. Attraverso l’utilizzo di regole YARA, i ricercatori hanno scoperto più di 7.000 campioni, confermando l’ampiezza del fenomeno.
L’impatto concreto: il caso ucraino
Le conseguenze di questa evoluzione tecnologica sono già visibili sul campo. Il SSSCIP ucraino ha riportato 3.018 incidenti cyber nella prima metà del 2025, un incremento significativo rispetto ai 2.575 della seconda metà del 2024. Questo aumento coincide temporalmente con l’adozione di strumenti AI-enabled da parte degli attori delle minacce.
Il CERT-UA ha confermato nel luglio 2025 la distribuzione di email di phishing tra le autorità esecutive governative, attribuendo con media confidenza le operazioni ad APT28.
Le contromisure di Google e prospettive future
In risposta a questa evoluzione delle minacce, Google ha implementato misure difensive significative. L’azienda ha disabilitato gli asset associati agli attori identificati e rafforzato i classificatori e i modelli per prevenire futuri abusi delle proprie piattaforme.
Tuttavia, la sfida rimane aperta. La capacità dei modelli di intelligenza artificiale di generare codice e adattarsi dinamicamente crea un panorama di minacce in continua evoluzione. La comunità della cybersecurity deve sviluppare approcci innovativi che vadano oltre le tradizionali tecniche di rilevamento basate su firme statiche.
L’integrazione dell’intelligenza artificiale nel malware rappresenta un punto di svolta che richiede una risposta coordinata a livello globale. Solo attraverso la collaborazione tra ricercatori, aziende tecnologiche e governi sarà possibile sviluppare difese efficaci contro questa nuova generazione di minacce che sfruttano le stesse tecnologie progettate per migliorare le nostre vite digitali.
