La filosofia Zero Trust si sta guadagnando spazio tra gli assetti difensivi e, oltre a riscuotere successo, è al centro di una continua evoluzione che non è sempre da prendere in modo acritico.
Il nascente connubio tra Zero Trust e Intelligenze artificiali (AI) lascia più di un nervo scoperto soprattutto in prospettiva e, in un momento in cui le AI si stanno guadagnando gli onori della cronaca anche per la loro intrinseca fragilità, tale matrimonio non va celebrato senza porsi domande perché rappresenta una bella ipotesi che può essere annientata da fatti brutali.
In sintesi: l’approccio Zero Trust impone di non fidarsi mai in assenza delle opportune verifiche. Ma chi controlla l’operato delle AI chiamate a supportare il concetto stesso di affidabilità?
Un sistema Zero Trust potenziato dalle AI è un’architettura di sicurezza che si fa carico di controllare in modo certosino ogni qualsiasi azione che coinvolge utenti, dispositivi, applicazioni o dati. I modelli AI supportano in modo continuo queste verifiche esaminando in tempo reale comportamenti e anomalie.
L’idea in sé racchiude alcuni capisaldi inalienabili che mettono le AI al servizio della cyber security:
Pure non decidendo, le AI ricoprono un ruolo determinante nel segnalare ciò che è degno di fiducia avviando le procedure utili all’esclusione di ciò che non lo è. Riuscire ad annichilirne gli effetti favorisce i criminal hacker e lascia alle organizzazioni la convinzione di godere di un livello di protezione che, in realtà, viene meno.
Procedendo per sommi capi, i sistemi Zero Trust con AI adottano una filosofia di totale assenza di fiducia anche all’interno della rete aziendale. Questo approccio può essere schematizzato e riassunto in sei punti:
Ma tutto ciò, per quanto incoraggiante, ha dei limiti. Infatti, edulcorando o avvelenando i dati dei modelli AI deputati alla sicurezza, l’efficacia dell’intero assetto difensivo può essere messa in forse.
Molte aziende di cybersecurity propongono soluzioni Zero Trust basate su AI e questo è un bene, a patto che i clienti non fraintendano le reali capacità di tali strumenti e, parallelamente, va anche segnalato che l’implementazione sicura di sistemi AI è, come tema generale, al centro di campagne di sensibilizzazione di diversi enti ovunque nel mondo.
Vale quindi la pena approfondire l’argomento, considerando che l’uso di modelli AI comporta problemi di sicurezza e privacy e il loro inserimento in sistemi di cyber security può rivelarsi un’arma a doppio taglio.
La logica che dovrebbe prevalere è sempre la stessa: la cyber security ruota attorno al controllo umano e non alla delega a strumenti i quali, per quanto affidabili e intelligenti, devono continuare a rivestire ruoli di supporto.
In sintesi, la domanda è: chi verifica la fiducia del modello AI?
Occorre definire confini critici al di là dei quali le AI non possono essere più considerate ciecamente al pari di alleate e questi confini devono essere delimitati dalle intrinseche fragilità delle AI stesse.
Inserimento di dati malevoli nei set di dati o nel flusso di dati che danno vita al modello AI. Anche quantità limitate di dati malevoli possono alterarne il comportamento manipolando falsi positivi, bias o sfruttando exploit.
La fiducia cieca nel modello AI si traduce in una falsa fiducia.
L’efficacia del modello AI usato può venire meno a causa di modifiche del contesto operativo e quindi a causa di nuove minacce, dati contaminati o radicalmente cambiati o modifiche sostanziali nell’architettura IT.
Anche in questo caso, l’eccessiva fiducia nei confronti del modello AI può venire tradita.
Tecnica utile a ingannare i modelli AI cambiando i dati di input anche in modo sottile affinché generino risposte sbagliate. Nello specifico, le AI potrebbero accettare comportamenti indesiderabili o eludere i controlli.
Le politiche Zero Trust impongono decisioni verificabili e se un modello AI non rende spiegabili le scelte effettuate o caldeggiate, viene meno il concetto stesso di fiducia con ricadute sulla reale utilità delle AI.
L’organizzazione è convinta di potere dormire sonni tranquilli ed è spinta ad abbassare la guardia ma nessuna Intelligenza artificiale compensa l’inefficienza e le politiche lasche degli operatori umani.
Quando si parla di sicurezza Zero Trust, le AI vestono ruoli comprimari soprattutto perché consentono di migliorare il rilevamento di comportamenti anomali e di rendere più efficaci le misure di risposta.
Allo stesso modo, le AI permettono l’analisi di grandi moli di dati e offrono un livello potenziato di sicurezza, nella misura in cui si comprende che l’AI in sé non è garanzia assoluta e che va a sua volta considerata nella filosofia Zero Trust, come peraltro evidenziato da una ricerca pubblicata a maggio del 2025 e firmata
Non considerare l’AI trusted by default e sottoporla a validazione continua è la chiave.
Usare sandbox di validazione, effettuare simulazioni adversariali e stress test è di vitale importanza.
La separazione delle policy e delle decisioni è pure importante: l’AI suggerisce ma non sceglie in modo autonomo e devono avere un livello di explanaibility tale da consentire l’audit dei log.
Va da sé che un dominio in cui gli equilibri sottili hanno un peso specifico, esistono dei problemi che richiedono soluzioni altrettanto sottili.
Tra questi c’è la fragilità della gestione dei dati sensibili. L’AI richiede grandi quantità di dati per funzionare e queste informazioni – nel contesto Zero Trust – devono essere controllate in modo rigoroso. Vengono sottoposti a questi controlli anche file riservati e credenziali di accesso: ciò può creare attriti tra l’efficienza operativa e la privacy.
Non di meno, la compliance normativa e la governance possono essere rese più ampollose perché non tutte le decisioni automatizzate sono trasparenti e facili da interpretare.
Ci sono anche problemi più tecnici. Per esempio, le automazioni tipiche di un’architettura Zero Trust potenziata dalle AI può scontrarsi con collo di bottiglia che richiedono tuning accorti e periodici. Fa riferimento a quest’evenienza una ricerca curata dalla Deakin University di Melbourne (Australia).
Tutto ciò impone che il supporto delle AI vada implementato con logiche di privilegio minimo evitando automatismi non supervisionati.
La sicurezza e l’accessibilità devono essere bilanciati con policy granulari ma, ancora prima, le organizzazioni devono creare (e formare) gruppi di lavoro che si muovano tra la cyber security, la compliance e l’etica delle AI.