La recente Guidance for Risk Management of Artificial Intelligence Systems pubblicata l’11 novembre 2025 dal Garante europeo della protezione dei dati (EDPS) rappresenta un momento rilevante per il dibattito sull’uso responsabile dell’intelligenza artificiale in Europa.
Il documento nasce con lo scopo di aiutare le istituzioni comunitarie a orientarsi in un ecosistema tecnologico sempre più complesso, in cui i sistemi di IA trattano quantità sempre più crescenti di dati personali e incidono su decisioni che riguardano persone, servizi pubblici e processi democratici.
L’obiettivo dichiarato è guidare le “EUIs” nella valutazione sistematica dei rischi, dalla progettazione dei modelli fino al loro impiego operativo.
L’ambizione reale, però, travalica nettamente l’ambito istituzionale: la struttura metodologica proposta, la scelta di riferirsi allo standard ISO 31000 e il livello di dettaglio tecnico rendono queste linee guida un punto di riferimento potenzialmente decisivo anche per le imprese private che integrano o sviluppano soluzioni di IA nei propri processi.
L’intreccio crescente tra attività aziendali, dati personali e modelli di intelligenza artificiale espone infatti il settore privato agli stessi rischi individuati dall’EDPS per le istituzioni: errori sistemici dei modelli, bias nei dati di addestramento, difficoltà nel garantire i diritti degli interessati, carenza di trasparenza, insicurezza delle interfacce API e vulnerabilità che possono compromettere l’integrità dei modelli stessi.
La guida, oltre che alle pubbliche amministrazioni e agenzie europee, offre infatti una mappa utilizzabile dalle imprese che vogliono muoversi in modo responsabile e strategico nell’adozione dell’IA.
Rappresenta, in sostanza, una cornice stabile in un momento in cui governance, regolamentazione e mercato si intrecciano con rapidità crescente.
Il cuore della guida EDPS risiede nella scelta di adottare la metodologia ISO 31000:2018 come impianto di riferimento per la gestione del rischio. Si tratta dello standard internazionale più autorevole in materia, ampiamente utilizzato nei settori regolamentati, nei processi industriali e nelle politiche di compliance avanzata.
Trasporre questa struttura nel settore dell’intelligenza artificiale significa offrire un quadro intuitivo e, allo stesso tempo, rigoroso e capace di dialogare con i modelli di governance aziendali già esistenti.
In questo contesto, il rischio è inteso come la combinazione tra la possibilità che un evento si verifichi e l’impatto concreto che esso può produrre sui diritti fondamentali degli individui, sulla sicurezza, sui dati personali e sulla fiducia collettiva.
La guida propone dunque di trattare l’IA, piuttosto che come un oggetto tecnico isolato, come un sistema socio-tecnologico complesso, la cui efficacia e affidabilità dipendono dalla qualità dei dati, dal modo in cui viene progettato, dalla trasparenza delle sue logiche decisionali e dalla capacità dell’organizzazione di monitorarlo nel tempo.
Questo implica attribuire pari centralità a principi come equità, spiegabilità, accuratezza, minimizzazione dei dati e sicurezza.
In questo schema ogni principio assume natura operativa: la mancanza di equità può generare discriminazioni sistemiche; l’assenza di trasparenza impedisce il controllo umano significativo; scarsa sicurezza espone a manipolazioni del modello; l’inadeguata minimizzazione dei dati aumenta il rischio di violazioni di protezione dei dati.
Un passaggio particolarmente significativo della guida, spesso sottovalutato nelle sintesi generali, riguarda il modo in cui ciascun rischio viene scomposto in elementi analitici.
L’EDPS oltre ad elencare categorie astratte come bias, inaccuratezza o mancanza di trasparenza, propone, per ogni rischio, una lettura strutturata articolata in fonte, evento, conseguenza e controlli applicabili.
Questo schema (derivato proprio dalla metodologia ISO 31000) consente di trasformare principi quali equità, minimizzazione dei dati o sicurezza in criteri operativi verificabili:
Questa struttura permette alle organizzazioni (sia pubbliche che private) di passare da una percezione “generica” del rischio a un approccio sistematico e misurabile, che integra aspetti tecnici, normativi e di governance.
È qui che la guida EDPS si differenzia maggiormente da altre iniziative, cioè nel tradurre i principi dell’IA responsabile in un metodo di lavoro concreto e ripetibile.
L’adozione della ISO 31000 da parte dell’EDPS non rappresenta una novità, in quanto si inserisce in un panorama internazionale in cui questo standard è già ampiamente utilizzato per la gestione dei rischi in settori ad alta complessità.
In diversi Paesi, la ISO 31000 è stata adottata come standard nazionale di riferimento per la gestione del rischio: è il caso del Canada (CAN/CSA-ISO 31000), di Singapore (SS ISO 31000), del Regno Unito (BS ISO 31000) e del Giappone (JIS Q 31000). In altri contesti, come l’Australia, lo standard ISO 31000 è ampiamente utilizzato come best practice nei framework di gestione del rischio pubblico e privato, anche se non risultano adozioni formali.
Negli Stati Uniti, il recente NIST AI Risk Management Framework, pur non richiamando formalmente la ISO 31000, ne ricalca l’impostazione concettuale, basata su identificazione, valutazione, mitigazione e monitoraggio dei rischi lungo l’intero ciclo di vita dei sistemi.
Questa convergenza metodologica riflette un’evidenza chiara: trattare l’intelligenza artificiale come un sistema socio-tecnologico complesso richiede strumenti di analisi strutturati e universalmente riconosciuti.
La scelta dell’EDPS, dunque, non inaugura di per sé un modello europeo, ma si allinea a una prassi consolidata a livello globale, confermando la necessità di un linguaggio comune per affrontare i rischi dell’IA in maniera coerente, trasparente e verificabile.
Il contesto in cui la guida si inserisce è quello dell’AI Act, che definisce obblighi specifici per l’uso di sistemi di intelligenza artificiale.
Come noto, molte applicazioni impiegate nel settore privato (come ad es. sistemi di selezione del personale, strumenti di scoring creditizio, soluzioni per l’erogazione di servizi sanitari o assicurativi) rientrano nella categoria dei sistemi “ad alto rischio”, soggetti cioè a requisiti stringenti di trasparenza, documentazione, valutazione e mitigazione dei rischi.
L’AI Act introduce un vero e proprio sistema di governance in cui i processi di audit, test, manutenzione e controllo diventano parte integrante dell’operatività aziendale.
In questo scenario, è possibile affermare che la guida EDPS offre un vantaggio anticipato per aziende che desiderano strutturarsi in tempo. Le imprese che adottano fin da ora un modello di risk management allineato a ISO 31000 (dunque coerente con l’approccio dell’AI Act) si troveranno in una condizione di “conformità di fatto”, prima ancora dell’applicazione delle disposizioni europee.
L’adozione proattiva di questo approccio consente di costruire registri dei rischi, tracciare le decisioni tecniche, documentare i processi di valutazione dei modelli, organizzare audit e verifiche periodiche, oltre a migliorare la qualità complessiva del ciclo di vita dell’IA.
Secondo analisi di settore, adottare ora un modello di governance del rischio costituisce una scelta strategica che riduce incertezza, migliora la fiducia di partner e clienti e rende l’impresa più resiliente rispetto a possibili incidenti o crisi reputazionali.
La gestione del rischio, dunque, non è più solo appannaggio del dipartimento legale o del DPO, poiché diventa un elemento trasversale che coinvolge IT, cyber security, business, marketing e funzioni di direzione.
Questa trasformazione culturale è forse la parte più impegnativa dell’intero processo, perché richiede un passaggio da una logica reattiva a una logica proattiva. Significa costruire un modello operativo in cui il rischio è previsto e mitigato fin dalla fase di progettazione e integrazione del sistema.
Una delle sezioni più interessanti delle linee guida EDPS riguarda il procurement, un tema particolarmente rilevante per le imprese private. Gran parte delle aziende, infatti, anziché sviluppare modelli proprietari, integra soluzioni di terzi tramite API, servizi cloud o piattaforme SaaS.
In questo scenario, la guida sottolinea con chiarezza che non è possibile affidare la responsabilità del rischio ai fornitori, poiché l’opacità del modello, la mancanza di documentazione o la scarsa trasparenza nei dati di addestramento costituiscono fattori di rischio autonomi, da valutare con la stessa attenzione riservata agli aspetti tecnici interni.
Per questo la fase di selezione del fornitore, senza limitarsi alla valutazione commerciale del prodotto, deve assumere la forma di una vera e propria due diligence tecnica, operativa e legale.
La guida invita le organizzazioni a richiedere ai fornitori chiarezza sull’architettura del modello, sui criteri utilizzati per il training, sulle fonti e sulla qualità dei dati impiegati, sulle eventuali tecniche di minimizzazione e sulle misure utilizzate per controllare bias e distorsioni.
I test di validazione devono essere documentati in modo trasparente, con metriche standardizzate per valutare accuratezza, robustezza e fairness. Allo stesso modo, le misure di sicurezza devono essere illustrate nel dettaglio: protezione delle interfacce API, tracciamento degli accessi, integrità dei modelli, controlli antimanomissione, sistemi di logging.
La guida pone un’enfasi particolare anche sugli aspetti contrattuali, precisando che un contratto con un fornitore di IA deve prevedere impegni concreti di trasparenza, assistenza in caso di audit, supporto nella gestione dei diritti degli interessati, responsabilità condivise e obblighi di aggiornamento.
Questa impostazione, se adottata dal settore privato, può migliorare significativamente la qualità complessiva del mercato, spingendo i fornitori verso standard più elevati e riducendo i rischi derivanti dall’integrazione di prodotti poco trasparenti o non adeguatamente documentati.
La parte della guida dedicata ai diritti degli interessati rivela uno dei problemi tecnici più rilevanti dell’era dell’intelligenza artificiale: la difficoltà di garantire il diritto alla cancellazione dei dati personali.
Nei modelli di deep learning, i dati non vengono conservati come voci modificabili, ma trasformati in parametri statistici che contribuiscono alla struttura del modello.
Ciò significa che, una volta incorporato, un dato personale non può essere semplicemente eliminato; la sua rimozione richiederebbe infatti tecniche sofisticate di “machine unlearning”, ancora immature sul piano tecnologico.
Questo rende complesso (e in molti casi irrealistico) garantire pienamente il diritto alla cancellazione previsto dal GDPR, soprattutto quando non esistono metadati robusti e tracciabili che permettano di determinare quale parte del modello sia stata influenzata dai dati di un individuo specifico.
Per un’impresa, questo problema costituisce un rischio giuridico e operativo considerevole. Un modello che non può supportare la cancellazione dei dati rischia di trovarsi automaticamente in violazione dei principi di protezione dei dati.
Su questo fronte, la guida EDPS invita a una documentazione rigorosa del ciclo di vita dei sistemi IA (dataset, modelli, fornitori, audit), che in pratica richiede che le organizzazioni adottino procedure analoghe al data lineage, per assicurare trasparenza, tracciabilità e accountability.
In assenza di queste misure, un’organizzazione non è in grado di garantire né il diritto alla cancellazione né quello alla rettifica, con conseguenze concrete in termini di accountability.
L’insieme delle raccomandazioni proposte dall’EDPS indica una trasformazione più ampia del modo in cui le imprese dovranno gestire l’intelligenza artificiale negli anni a venire.
L’adozione di sistemi di IA, oltre all’integrazione tecnica, richiede l’affermazione di una vera cultura della governance.
Ciò comporta la definizione di ruoli di responsabilità, la predisposizione di processi documentati, l’implementazione di audit periodici e la capacità di monitorare il comportamento dei modelli nel tempo; comporta inoltre la definizione di metriche chiare per valutare rischi e performance, la formazione del personale, il coinvolgimento del dipartimento legale, del DPO, degli specialisti del reparto IT e delle funzioni di business.
Le imprese che riusciranno a strutturarsi adeguatamente potranno ridurre i rischi e prevenire incidenti, oltre che migliorare la qualità della propria offerta e rafforzare la fiducia del mercato.
L’integrazione responsabile dell’IA diventerà un elemento distintivo, soprattutto nei settori in cui dati personali, decisioni automatizzate e relazioni con il cliente si intrecciano in modo delicato.
Il fatto che l’EDPS si rivolga formalmente alle istituzioni europee non riduce dunque l’impatto di questa guida nel settore privato: al contrario, ne amplifica la rilevanza, trasformandola in una base tecnica e normativa capace di orientare le imprese verso un modello di innovazione responsabile.
L’insieme delle indicazioni contenute nelle linee guida EDPS offre alle aziende uno strumento prezioso per anticipare l’applicazione dell’AI Act e per integrare fin da subito un approccio maturo alla gestione dei rischi.
Dal momento che molte delle disposizioni dell’AI Act entreranno in vigore progressivamente (con l’obiettivo di una piena applicazione entro 2026–2027), le aziende possono (e in molti casi devono) prepararsi in anticipo: un approccio maturo di risk governance anticipa infatti requisiti che saranno obbligatori nel breve/medio termine.
L’adozione di sistemi di IA richiede infatti un investimento consapevole su trasparenza, documentazione, sicurezza, equità e governance. Le imprese che sapranno assumere questo approccio in forma proattiva si troveranno in una posizione di vantaggio, sia in termini di conformità normativa, che di competitività, credibilità e capacità di gestire un panorama tecnologico in rapida evoluzione.
L’innovazione, in questo scenario, va di pari passo con la prudenza, dal momento che è proprio la qualità della gestione del rischio a determinare la sostenibilità dell’innovazione stessa.