Le AI aumentano le capacità difensive delle organizzazioni e sono impiegate anche dal cyber crimine per congegnare attacchi più sofisticati e mirati.
Un tema corposo del quale si parla con buona regolarità e che ora, grazie al contributo involontario di HexStrike AI, si cristallizza fornendo un esempio pratico e tangibile.
HexStrike AI, pensato per automatizzare penetration test e analisi di vulnerabilità, è diventato uno strumento usato dal cyber crimine.
L’episodio racchiude in sé una certa gravità e non ci si può trincerare dietro la sua rarità: la cyber security è l’arte di fasciarsi la testa prima di romperla e, per quanto il caso HexStrike AI è eccezionale, occorre trarne degli insegnamenti.
Abbiamo raggiunto Palo Alto Networks, CyberArk Italia e Advens Italia per avere il punto di vista di aziende specializzate nella cyber security. Non deve sorprendere che le risposte date dagli esperti tendono a convergere.
HexStrike AI è un framework di sicurezza offensiva che, come detto, viene usato per l’automatizzazione di pen test, per l’analisi delle vulnerabilità e per il bug bounty.
È usato anche per il red teaming e per le simulazioni di attacco. Non di meno, trova spazio pure nelle attività di formazione e nelle competizioni Capture the Flag.
Unisce Large language model (LLM) e strumenti di sicurezza concreti per permettere a degli agenti AI di effettuare scansioni e analisi. È costruito su un’architettura multi-agente e integra decine di tool per la sicurezza che, per essere coordinati senza il contributo degli automatismi, richiederebbero l’intervento di operatori umani.
In termini spicci, è una piattaforma che riduce la difficoltà intrinseca della cyber security e consente di effettuare test e operazioni mediante il linguaggio naturale.
Il progetto si presenta come supporto per chi si occupa di cyber difesa ma i criminal hacker ne fanno uso per raggiungere i propri obiettivi delittuosi. È stato usato per sfruttare le vulnerabilità di Citrix, software e piattaforma per l’accesso remoto ai sistemi.
Al di là dei singoli episodi nei quali HexStrike AI ha prestato il fianco al cyber crimine, c’è il timore che le funzionalità di automazione possano essere impiegate per attacchi massicci e simultanei contro migliaia di target.
Il primo insegnamento è la necessità di un buon assetto di cyber security che deve contare sulla formazione del personale, sul monitoraggio continuo dei sistemi e dei flussi di rete e sulla sicurezza predittiva. Firewall e antivirus, da soli, non sono più sufficienti ormai da anni, a patto che lo siano mai stati.
Per approfondire l’argomento ci siamo avvalsi del sapere di Kyle Wilhoit, Director of Threat Research, Unit 42 di Palo Alto Networks e, parallelamente, dell’esperienza di Paolo Lossa, Country Sales Director di CyberArk Italia. A corredo, per coinvolgere più voci, abbiamo fatto leva anche sull’esperienza di Cristina Mariano, Country Manager, Advens Italia.
Le risposte date dai tre specialisti sono già un insegnamento: i pareri degli esperti tendono a convergere e ciò dimostra quanto sia necessario coinvolgere voci autorevoli nei processi aziendali di cyber security, confidando sul know-how di chi vanta una certa esperienza sul campo.
Quali insegnamenti trarre dall’episodio HexStrike AI, ovvero: se un insieme di tool AI deputati alla sicurezza viene usato dagli attaccanti, si può dedurre che i framework di questo tipo non siano garanzia di sicurezza e che, come tali, non possono essere l’unico scudo a protezione delle organizzazioni?
“Strumenti come HexStrike dimostrano chiaramente che se un framework o un tool di sicurezza basato su intelligenza artificiale può essere utilizzato efficacemente dagli attaccanti, non è necessariamente una garanzia di protezione e non può sicuramente rappresentare l’unico scudo di difesa di un’azienda. Proprio come in passato, la cyber security dovrebbe ancora essere affrontata con una strategia difensiva a più livelli, che vada ad esempio dalla rete agli endpoint. Uno strumento di red teaming basato su intelligenza artificiale è simile a qualsiasi tool di red teaming tradizionale, ad esempio “Bloodhound”, utilizzato sia dai red team che dai malintenzionati. È importante ricordare che lo scopo ultimo di uno strumento come HexStrike (o di quasi tutti i toolkit dei red team), è determinato dall’utente. Un paragone calzante può essere quello con il kit di attrezzi di un fabbro esperto. Nelle mani di un fabbro, viene utilizzato per aiutare le persone che sono rimaste chiuse fuori casa; in quelle di un ladro, gli stessi strumenti vengono impiegati per entrare con la forza”, dice Kyle Wilhoit.
La risposta di Paolo Lossa ricalca quella dell’esperto di Palo Alto Networks: “Anche se sono stati sviluppati specificamente per la sicurezza, gli strumenti di AI non rappresentano di per sé una garanzia di protezione e certamente non possono fungere da unica linea di difesa aziendale. Quando si parla di cyber security, il ruolo dell’AI è triplice: può essere utilizzata per costruire strategie difensive, ma anche sfruttata attivamente come vettore di attacco e, cosa forse più preoccupante, introduce nuove vulnerabilità di sicurezza, che possono anche rivelarsi significative.
In primo luogo, l’AI ha notevolmente potenziato i metodi di attacco tradizionali, facendo ad esempio evolvere il phishing verso truffe sempre più sofisticate che coinvolgono deepfake e voci clonate, rendendole sempre più difficili da individuare. Questa evoluzione dimostra chiaramente che le difese perimetrali convenzionali non sono più adeguate per contrastare queste minacce basate sull’intelligenza artificiale. Sebbene l’AI sia uno strumento prezioso per l’analisi comportamentale e il rilevamento delle anomalie e possa essere un moltiplicatore di forza essenziale per i team SOC, il suo impiego a fini di difesa deve essere affrontato con consapevolezza ed estrema responsabilità.
Il punto chiave è che gli strumenti di sicurezza basati sull’intelligenza artificiale devono essere integrati in modo trasparente in un quadro di protezione più ampio e incentrato sull’uomo, piuttosto che essere utilizzati in modo singolo ed esclusivo. Le aziende devono implementare processi di verifica dell’identità più rigorosi, coltivare una cultura in cui le attività sospette vengano segnalate tempestivamente e porre ancora di più la sicurezza dell’identità al centro delle loro strategie di intelligenza artificiale”.
Anche Cristina Mariano evidenzia la necessità di una supervisione umana: “Da anni sappiamo che gli strumenti di sicurezza possono essere utilizzati anche per scopi dannosi, ma il caso di HexStrike AI segna una nuova fase. Ciò che lo rende diverso è la sua capacità di orchestrazione, potenziata da modelli linguistici di grandi dimensioni e agenti AI che operano attraverso un’architettura MCP (Model Context Protocol) e che consentono lo sfruttamento rapido delle vulnerabilità attraverso la creazione dinamica di agenti specializzati che utilizzano contemporaneamente più di 150 strumenti di sicurezza. In altre parole, industrializza l’hacking: automazione, scalabilità e accessibilità anche per gli hacker meno esperti.
Questo attacco conferma che nessun framework o agente AI può essere considerato una garanzia di sicurezza. I sistemi di AI multi-agente sono intrinsecamente a duplice uso: la stessa automazione che rafforza la difesa può anche alimentare campagne di attacco. La lezione è chiara: l’intelligenza artificiale deve essere trattata come un’infrastruttura critica, non come uno scudo autosufficiente.
La risposta giusta è un approccio di difesa approfondito: automatizzare i processi di rilevamento e risposta, integrare framework di difesa potenziati dall’IA, accelerare i cicli di patch e testare regolarmente la capacità dell’organizzazione di riprendersi dagli attacchi informatici.
L’AI apporta un valore innegabile al rilevamento e alla risposta, ma solo se combinata con la governance, la supervisione umana e la convalida continua. È importante sottolineare che l’automazione può amplificare la sicurezza, ma non la deve sostituire mai“.
Le imprese che non hanno sufficiente cultura digitale dovrebbero evitare di cedere ai facili richiami dei tool AI?
Può sembrare una domanda banale ma porta con sé temi di un certo spessore. Infatti, come evidenzia Kyle Wilhoit: “Esiste un delicato equilibrio tra la valutazione dell’utilizzo di una tecnologia nuova e rivoluzionaria e la sua implementazione effettiva nello stack tecnologico di un’azienda. In particolare, con l’AI, esiste un determinato rischio che un’organizzazione ‘si lanci’ troppo presto. Sebbene l’adozione di strumenti di AI comporti generalmente rapidi aumenti di efficienza, esistono dei pericoli, in particolare relativi a fuga di dati, mancanza di allineamento strategico organizzativo, lacune di competenze in azienda e formazione inadeguata, che portano a sfide significative nell’implementazione. Per compensare alcuni di questi rischi, le imprese che desiderano approfondire l’utilizzo di strumenti di AI dovrebbero inizialmente promuovere una mentalità basata sui dati e parallelamente investire nell’apprendimento continuo e nell’aggiornamento delle competenze dei dipendenti attuali, oltre a stabilire standard robusti e framework di governance e protezione dei dati prima di implementarli e utilizzarli”.
Anche le parole di Paolo Lossa hanno un peso specifico notevole: “Più ancora delle altre realtà, le aziende che non dispongono di una solida cultura digitale dovrebbero prestare estrema cautela e potenzialmente resistere al “facile fascino” degli strumenti di AI fino a quando non avranno acquisito una solida comprensione di base. Affidarsi in toto all’intelligenza artificiale senza il paracadute di un’adeguata supervisione umana può portare a pericolosi punti ciechi e alla pericolosa percezione di una falsa sicurezza.
I team di sicurezza, ad esempio, hanno il compito di garantire che gli strumenti siano addestrati su dati di alta qualità, rigorosamente testati e regolarmente aggiornati, con processi che richiedono intrinsecamente un certo livello di maturità digitale e competenze specialistiche. Secondo una recente ricerca di CyberArk il 42% delle aziende italiane non è in grado di proteggersi dall’ utilizzo della Shadow AI e il 51% ritiene che le applicazioni di AI non autorizzate contribuiscano in modo significativo alla creazione di silos di identità. Questi indicatori mostrano chiaramente una diffusa mancanza di controllo e comprensione, che discende direttamente da una cultura digitale insufficiente. Alla base di tutto c’è il fatto che i controlli tecnici da soli non sono sufficienti; le aziende devono anche stabilire policy chiare per un uso accettabile dell’AI, educare il proprio personale sui rischi associati e fornire alternative sicure e approvate. Questi sono tutti elementi fondamentali di una solida cultura digitale che deve precedere o accompagnare qualsiasi progetto di adozione significativa dell’AI. Senza una tale cultura, le aziende rischiano di introdurre inavvertitamente più vulnerabilità di quelle che intendono risolvere attraverso l’adozione di strumenti di AI”.
Fare a meno delle AI non è proponibile, è il modo con cui vengono inserite nelle aziende a fare la differenza. Infatti, spiega Cristina Mariano: ” Evitare l’intelligenza artificiale non è né realistico né sostenibile. La chiave è un’adozione guidata, iniziando con casi d’uso limitati e ben definiti in un quadro di governance chiaro. Le organizzazioni dovrebbero definire tempestivamente una politica di utilizzo dell’intelligenza artificiale: quali dati possono essere elaborati, chi può abilitare le integrazioni e dove le informazioni possono essere archiviate o condivise.
Questo è lo stesso percorso di maturità che abbiamo visto con il cloud un decennio fa: vietare l’innovazione porta a un utilizzo ombra, e quindi fuori dal controllo aziendale; la governance garantisce sicurezza e progresso. L’attenzione dovrebbe concentrarsi su progetti pilota piccoli e misurabili, un adeguato controllo degli accessi e un monitoraggio continuo. L’AI può essere trasformativa, a condizione che si evolva entro limiti che proteggono i dati, la privacy e l’integrità”.
La cyber security poggia le proprie radici sulla consapevolezza dell’utente: c’è il rischio che l’Intelligenza artificiale al servizio della sicurezza induca gli utenti a fare meno attenzione, convinti che un “cervello sempre acceso” corregga i loro errori posturali?
“Esiste il rischio fondato che l’aumento dell’utilizzo dell’AI nella cyber security possa portare gli utenti a diventare meno attenti, favorendo un senso di compiacimento nell’assunto che un “cervello sempre attivo” li stia proteggendo. Esiste un concetto chiamato “bias di automazione” secondo cui gli esseri umani tendono a fidarsi in modo eccessivo dei sistemi automatizzati e a fare affidamento sui risultati dell’AI, o comunque privilegiarli in modo sproporzionato. Si tratta di una forma di bias cognitivo di cui ogni azienda che implementi l’AI nei propri flussi di lavoro deve essere consapevole; di conseguenza dovrebbe progettare adeguati cicli di revisione umana per garantire che non si verifichi un eccessivo affidamento sui risultati forniti da questi tool, senza opportune verifiche”, conclude Kyle Wilhoit, Director of Threat Research, Unit 42 di Palo Alto Networks.
Paolo Lossa, Country Sales Director di CyberArk Italia, sottolinea che: “Esiste il rischio significativo che un eccessivo affidamento all’AI per la protezione aziendale possa effettivamente portare a un pericoloso falso senso di sicurezza. È il concetto stesso di ‘falsa sicurezza’ a sottolineare questa preoccupazione, evidenziando la possibilità che gli utenti diventino compiacenti, nella convinzione che l’AI sia in grado di correggere o prevenire automaticamente i loro errori. Anche quando sono disponibili strumenti avanzati di AI, la supervisione e l’intervento umano restano indispensabili. È fondamentale creare una cultura in cui le attività sospette vengano segnalate e investigate senza esitazione, rafforzando l’idea che la vigilanza umana rimanga assolutamente fondamentale. Le aziende devono anche educare il personale sui rischi associati ai comportamenti che mirano ad aggirare la sicurezza. Questa formazione continua è fondamentale per evitare che la presenza di strumenti di sicurezza basati sull’AI generi invece un controproducente senso di rilassatezza e quindi un calo di attenzione. In definitiva, l’idea che la sicurezza inizi e finisca con le identità rafforza con forza il fatto che l’interazione umana con le identità (e la consapevolezza che le circonda) resti fondamentale, indipendentemente dal ruolo sempre più importante dell’AI. Sebbene l’AI possa indubbiamente aumentare le capacità di sicurezza, non può sostituire la consapevolezza umana e la responsabilità individuale. Una posizione di sicurezza veramente solida richiede un approccio sinergico in cui l’AI supporti, ma non sostituisca mai, l’azione umana che deve rimanere informata e vigile”.
Infine, il parere della Country Manager di Advens Italia Cristina Mariano che propone anche delle contomisure: “Esiste il rischio di un’eccessiva dipendenza, ovvero la convinzione che ‘il sistema se ne occuperà. Man mano che l’intelligenza artificiale viene integrata nei flussi di lavoro quotidiani, gli utenti potrebbero fidarsi troppo facilmente dei suoi risultati, copiando codice generato dall’AI (che spesso contiene bug o vulnerabilità) o accettando testi scritti dall’intelligenza artificiale che potrebbero contenere imprecisioni o pregiudizi. Se non adeguatamente supervisionati, gli agenti autonomi possono persino amplificare errori o modelli discriminatori.
Per contrastare questo fenomeno, consapevolezza e governance devono evolversi insieme. Le organizzazioni dovrebbero formare i dipendenti affinché comprendano i limiti dell’AI, la sua propensione alle allucinazioni e ai pregiudizi, e stabilire solidi quadri di sicurezza, privacy ed etica per guidarne l’adozione.
Da un punto di vista pratico, sono essenziali tre contromisure:
L’AI può davvero essere un moltiplicatore di forza per la sicurezza informatica, ma solo se abbinata al pensiero critico, a misure di sicurezza etiche e a una supervisione umana informata”.