L’ecosistema finanziario europeo sta attraversando una fase di metamorfosi senza precedenti.
Da un lato, il consolidamento del Digital Operational Resilience Act (DORA, in vigore dal 17 gennaio 2025) ha tracciato una linea netta tra chi subisce la tecnologia e chi ne governa i rischi.
Dall’altro, l’esplosione dell’Intelligenza Artificiale Generativa (GenAI) ha introdotto una variabile di complessità che rischia di scardinare i modelli di difesa tradizionali.
Il passaggio alla resilienza 2.0 non è più solo una scelta competitiva, ma un imperativo metodologico. Ecco come possiamo integrare l’AI nel perimetro di sicurezza senza che questa diventi il “punto di rottura” sistemico previsto dal legislatore
La resilienza, nel contesto DORA, non è mai stata una questione puramente tecnica di uptime.
Prima di tutto, è una questione di governance. Il regolamento impone alle entità finanziarie di saper resistere, rispondere e ripristinare le capacità operative a fronte di perturbazioni ICT.
L’ingresso dell’AI in questo scenario agisce come un catalizzatore di rischi. Non parliamo solo di minacce esterne, ma di una vulnerabilità intrinseca: l’AI è al contempo uno strumento per rafforzare la difesa (attraverso il rilevamento predittivo delle anomalie) e un nuovo asset critico da proteggere.
Integrare l’AI in ottica DORA significa, dunque, estendere il concetto di “resilienza” dalla semplice infrastruttura alla logica algoritmica e alla integrità dei dati di addestramento.
Il concetto di “Resilienza 2.0” è stato introdotto dalla Commissione Europea nel Rapporto di Previsione Strategica 2025 (Strategic Foresight Report) dove viene indicato come approccio che invita l’UE a prepararsi non solo ai rischi emergenti, ma anche alle nuove opportunità e agli scenari difficili da immaginare che potrebbero definire il mondo al 2040.
Il Pilastro I di DORA (Gestione del rischio ICT) richiede un framework solido per identificare e mitigare le minacce. Quando si introducono modelli di Large Language Models (LLM) o sistemi di machine learning nei processi core – dal credit scoring alla gestione dei sinistri – l’AI deve essere censita non come un semplice software, ma come un asset critico.
Due sono le sfide tecniche che la comunità dei CISO sta affrontando.
Model drift e allucinazioni: dal punto di vista della resilienza, un’allucinazione dell’AI in un processo decisionale automatizzato equivale a un malfunzionamento del sistema ICT. La resilienza 2.0 richiede l’implementazione di “circuit breakers” (interruttori di emergenza) che possano isolare il modello qualora l’output superi determinati parametri di rischio.
Shadow AI: L’utilizzo non autorizzato di tool di AI da parte dei dipendenti. Questo fenomeno crea una “zona d’ombra” nel perimetro di sicurezza, esponendo dati aziendali sensibili a provider esterni senza alcuna garanzia di protezione.
Secondo l’Autorità Bancaria Europea (EBA), la resilienza non si limita alla protezione dedati, ma alla continuità del servizio.
Se un’entità finanziaria integra un LLM nei processi core, deve rispondere a una domanda critica: “Cosa accade se il fornitore sospende il servizio o cambia le policy?”.
L’integrazione dell’AI impone strategie di exit-management che prevedano la portabilità del modello o l’uso di architetture multi-vendor per evitare il lock-in tecnologico e il rischio di concentrazione sistemica.
Lo riporta l’EBA Draft Regulatory Technical Standards to further harmonise ICT risk management tools, methods, processes and policies as mandated under Articles 15 and 16(3) of Regulation (EU) 2022/2554.
DORA pone un’enfasi particolare sulla gestione del rischio delle terze parti (Pilastro IV). Qui l’AI rappresenta un paradosso.
La maggior parte delle istituzioni finanziarie si affida a un ristretto numero di Cloud Service Provider (CSP) che offrono infrastrutture AI.
Questo crea un rischio di concentrazione sistemica: se un solo grande provider di modelli AI subisse un blackout o una compromissione, una larga parte del settore finanziario europeo potrebbe trovarsi a rischio paralisi.
La strategia di resilienza deve quindi evolvere verso un approccio Multi-Model o Hybrid-Cloud, garantendo che la dipendenza da un singolo algoritmo non diventi un “Single Point of Failure”.
Tuttavia l’AI non è solo un problema ma anche la soluzione. Per rispettare i rigidi tempi di notifica degli incidenti imposti da DORA (Pilastro II), l’automazione è indispensabile.
L’integrazione dell’AI nei Security Operations Center (SOC) permette di analizzare pattern di attacco complessi che sfuggono alle regole statiche e di ridurre i falsi positivi.
Nel perimetro di sicurezza 2.0, il rischio ICT cambia natura. La Prompt Injection non è un bug del codice, ma un exploit della logica linguistica: un attaccante può “istruire” l’AI aziendale a ignorare le proprie direttive di sicurezza per rivelare dati protetti.
Per DORA, questo rappresenta una violazione dell’integrità del sistema. La mitigazione richiede l’implementazione di LLM Firewalls che analizzino input e output in tempo reale.
Lo riporta l’OWASP Foundation Top 10 for Large Language Model Applications.
Non si può parlare di resilienza e DORA senza incrociare il percorso con il GDPR e l’AI Act.
La protezione del dato è la base della resilienza. Se i dati di training vengono
“avvelenati” (Data Poisoning), l’intero sistema di sicurezza crolla. L’approccio suggerito è quello dell’Ingegneria della Privacy: utilizzare tecniche come la Differential Privacy per permettere all’AI di elaborare informazioni senza esporre i dati grezzi.
Il NIST AI Risk Management Framework (AI RMF 1.0) introduce il concetto di Trustworthy AI.
Un sistema AI è resiliente solo se è valido, affidabile, sicuro contro attacchi adversarial e, soprattutto, spiegabile (Explainable).
Integrare questi criteri nel framework DORA significa trasformare il Risk management da una funzione puramente difensiva a un abilitatore di fiducia verso i regolatori.
L’integrazione dell’AI nel perimetro di sicurezza DORA non deve essere interpretata come l’ennesimo ostacolo burocratico: rappresenta l’occasione per compiere un salto di qualità metodologico passando da una sicurezza “perimetrale” a una sicurezza logica e del dato.
La resilienza digitale 2.0 non si misura più soltanto nella capacità di ripristinare un server dopo un attacco ransomware, ma nella capacità di garantire che i processi decisionali automatizzati rimangano integri, spiegabili e sotto il controllo umano anche in condizioni di forte stress operativo.
La Resilienza Digitale 2.0 richiede leader capaci di comprendere la semantica dei dati, la logica degli algoritmi e la rigidità delle norme. Il successo dipenderà dalla capacità di abilitare il business attraverso infrastrutture controllate (Private LLMs) e di mantenere sempre un approccio human-in-the-loop.
Fonti Normative (EU Framework):
Gestione del rischio e resilienza:
Cyber security e articoli tecnici: