Mar 05, 2026 Approfondimenti, In evidenza, News, RSS, Scenario, Scenario
L’adozione crescente dell’intelligenza artificiale generativa nel cybercrime sta modificando in profondità il modo in cui vengono progettati e analizzati gli attacchi informatici. Secondo Kaspersky, uno degli effetti più rilevanti riguarda l’attribuzione delle operazioni malevole: l’AI tende a cancellare le “impronte digitali” degli attaccanti, rendendo molto più difficile collegare un attacco a uno specifico gruppo criminale.

Gli esperti del Global Research and Analysis Team (GReAT) segnalano che gli aggressori stanno utilizzando sempre più spesso modelli generativi per produrre codice, email di phishing e altri contenuti operativi. Questa evoluzione modifica uno dei pilastri tradizionali della threat intelligence, basato sull’analisi di pattern linguistici, errori ricorrenti o stili di programmazione che permettevano di identificare l’autore di un attacco.
L’AI elimina le “impronte digitali” degli attaccanti
Una delle tecniche usate dagli analisti per ricostruire l’identità o almeno l’origine di un attacco informatico consisteva nell’analizzare una serie di indicatori relativamente affidabili. Errori grammaticali, peculiarità linguistiche, stili di scrittura del codice o abitudini operative rappresentavano elementi utili per collegare campagne diverse allo stesso gruppo.
L’utilizzo dell’intelligenza artificiale cambia radicalmente questo scenario. I contenuti generati dai modelli AI tendono a essere neutri e privi di tratti distintivi, rendendo molto più complesso individuare le caratteristiche di uno specifico attore malevolo.
Secondo i ricercatori di Kaspersky, questa trasformazione costringerà gli analisti della sicurezza a spostare il focus dell’attribuzione verso altri elementi, come l’infrastruttura utilizzata, le sovrapposizioni tra strumenti impiegati e gli indicatori comportamentali delle operazioni.
Malware generato con AI: dai moduli ai framework completi
L’intelligenza artificiale non si limita a migliorare la qualità delle campagne di phishing. Sempre più spesso viene impiegata anche nello sviluppo del malware.
I modelli linguistici di grandi dimensioni sono infatti in grado di generare porzioni significative di codice malevolo, contribuendo alla creazione della struttura iniziale dei programmi e dei moduli funzionali. Questo approccio consente agli attaccanti di ridurre drasticamente i tempi di sviluppo e di adattare rapidamente i propri strumenti.
Secondo Kaspersky, forme di sviluppo assistito dall’AI sono già state osservate in campagne attribuite al gruppo FunkSec, che ha distribuito malware scritto in Rust in grado di sottrarre dati, cifrare informazioni e manipolare processi di sistema.
Un altro esempio è rappresentato dalla campagna RevengeHotels, osservata nel 2025, in cui i threat actor hanno utilizzato modelli linguistici per generare parti del codice di infezione e dei downloader utilizzati nella catena di attacco.
“Prevediamo che l’intelligenza artificiale rimarrà uno dei fattori chiave nel plasmare il panorama delle minacce nel 2026” – ha dichiarato Georgy Kucherin, Senior Security Researcher del GReAT di Kaspersky. Secondo il ricercatore, riducendo tempi e costi necessari per sviluppare strumenti malevoli, l’AI consente agli attaccanti di ampliare il numero e la portata delle proprie operazioni.