Negli ultimi anni l’intelligenza artificiale è stata progressivamente integrata negli strumenti di difesa informatica, con l’obiettivo di automatizzare l’analisi delle minacce, migliorare le capacità di rilevamento e ridurre i tempi di risposta agli incidenti.
Inizialmente, queste tecnologie sono state adottate prevalentemente in ambito difensivo, come supporto ai Security Operation Center (Soc) e ai team di incident response, per gestire volumi crescenti di eventi e segnali di sicurezza.
Parallelamente, tuttavia, la stessa tecnologia sta iniziando a essere sperimentata in modo sempre più strutturato anche sul fronte offensivo, non più soltanto come ausilio a strumenti tradizionali, ma come componente attiva nei processi decisionali dell’attacco.
In questo contesto si colloca un recente esperimento condotto in ambito accademico da un gruppo di ricerca della Stanford University, in collaborazione con Carnegie Mellon University, che ha analizzato il comportamento di un agente di attacco basato su intelligenza artificiale in un contesto reale.
Lo studio ha valutato le prestazioni di un sistema denominato Artemis, progettato per supportare attività di security testing attraverso l’osservazione dell’infrastruttura di rete, l’individuazione dei servizi esposti, l’analisi delle configurazioni e la scoperta di vulnerabilità potenzialmente sfruttabili.
L’esperimento non si è svolto in un ambiente di laboratorio isolato o in un cyber range artificialmente predisposto, ma su reti universitarie reali, comprendenti componenti pubbliche e private, soggette ai normali controlli di sicurezza dell’ente ospitante.
Tutti i partecipanti, inclusi i tester umani coinvolti nel confronto, operavano con account dotati di privilegi limitati, comparabili a quelli di uno studente, e sotto costante monitoraggio da parte dei team IT responsabili dell’infrastruttura.
Durante l’intera durata delle attività, le traiettorie dell’agente di intelligenza artificiale sono state osservate da ricercatori umani, con la possibilità di interrompere l’esperimento in caso di comportamenti non desiderati.
A differenza dei tradizionali strumenti automatici di vulnerability scanning o penetration testing, basati su script predefiniti e sequenze rigide di test, Artemis è stato progettato per adattare dinamicamente il proprio comportamento in funzione delle risposte ottenute dall’ambiente.
Il sistema utilizza modelli di intelligenza artificiale per decidere quali superfici di attacco esplorare, quali servizi approfondire e come riorientare le attività quando un determinato filone di analisi risulta poco promettente.
Questo approccio consente di superare alcune delle rigidità tipiche degli strumenti automatici tradizionali, pur senza trasformare l’agente in un operatore completamente autonomo in senso operativo.
Uno degli aspetti più rilevanti emersi dallo studio riguarda la capacità dell’agente di concatenare più fasi di attività offensiva all’interno di un flusso coerente di analisi e sperimentazione.
Dalla ricognizione iniziale all’individuazione di configurazioni errate e vulnerabilità, l’agente è stato in grado di costruire traiettorie di attacco plausibili e di produrre segnalazioni di sicurezza successivamente valutate da revisori umani.
Lo studio non dimostra l’esecuzione sistematica di una kill chain completa, né la conduzione di operazioni estese di movimento laterale o di escalation dei privilegi come obiettivo primario dell’esperimento.
Il focus rimane sulla qualità del processo di discovery e sulla capacità di individuare debolezze reali all’interno di un’infrastruttura complessa.
Il confronto con operatori umani costituisce un ulteriore elemento centrale dell’analisi.
I risultati indicano che Artemis ha ottenuto punteggi comparabili a quelli di professionisti della sicurezza informatica esperti, superando la maggior parte dei partecipanti in specifiche metriche di valutazione, ma senza affermarsi come soluzione universalmente superiore.
In alcuni casi, il comportamento dell’agente evidenzia limiti strutturali: la tendenza a sottomettere rapidamente segnalazioni preliminari può ridurre la probabilità di individuare vulnerabilità più profonde o critiche che richiederebbero un’esplorazione più estesa.
Questo aspetto sottolinea come il processo decisionale automatizzato resti vincolato alle strategie apprese e agli obiettivi di ottimizzazione definiti in fase di progettazione.
Nel complesso, i risultati non suggeriscono una sostituzione dell’elemento umano, ma indicano un cambiamento qualitativo nella natura degli strumenti offensivi.
L’intelligenza artificiale non agisce più esclusivamente come moltiplicatore di forza, accelerando attività già note, ma inizia a incorporare forme limitate di ragionamento tattico, riducendo parte delle competenze necessarie per condurre attività di security testing avanzato.
In prospettiva, questo approccio potrebbe abbassare la soglia di accesso a capacità offensive più sofisticate, soprattutto se adattato o replicato al di fuori di contesti accademici controllati.
Dal punto di vista difensivo, lo studio rafforza la consapevolezza che soluzioni di sicurezza statiche o basate esclusivamente su firme siano sempre meno adeguate a fronteggiare avversari capaci di adattare dinamicamente il proprio comportamento.
La diffusione di agenti in grado di correlare informazioni, modificare strategie e apprendere dai feedback rende sempre più rilevante l’adozione di sistemi di sicurezza orientati all’analisi comportamentale, alla correlazione avanzata degli eventi e alla risposta semi-automatica agli incidenti, mantenendo al contempo una supervisione umana costante per evitare effetti collaterali indesiderati.
Un ulteriore elemento di riflessione riguarda l’uso responsabile di queste tecnologie.
L’esperimento è stato condotto con finalità di ricerca e miglioramento delle difese, all’interno di un quadro di controllo rigoroso.
Tuttavia, la crescente disponibilità di modelli di intelligenza artificiale avanzati e di strumenti sempre più accessibili rende plausibile la diffusione di approcci simili anche al di fuori dell’ambito accademico.
In questo scenario, il ruolo delle istituzioni, delle aziende e della comunità scientifica diventa cruciale nel definire standard, linee guida e pratiche di sviluppo responsabile.
L’esperimento condotto dalla Stanford University rappresenta quindi un segnale di cambiamento più che un punto di arrivo.
Dimostra che l’intelligenza artificiale applicata al dominio offensivo ha raggiunto un livello di maturità sufficiente a influenzare concretamente il panorama delle minacce, rendendo necessario un ripensamento dei modelli di rischio, delle strategie di prevenzione e dei processi di risposta agli incidenti.
La capacità di comprendere e anticipare queste trasformazioni è un fattore determinante per la resilienza complessiva dei sistemi informativi e delle infrastrutture critiche.