Il Consiglio superiore della magistratura (Csm) ha recentemente adottato, l’8 ottobre 2025, una delibera plenaria contenente raccomandazioni sull’uso dell’intelligenza artificiale (IA) nell’amministrazione della giustizia.
Il documento si colloca in un contesto di rapida evoluzione normativa europea e nazionale, in vista dell’entrata in vigore del Regolamento UE 1689/2024 (AI Act, il regolamento europeo sull’intelligenza artificiale in vigore da febbraio 2024) prevista per agosto 2026. E mira a bilanciare innovazione tecnologica e tutela dei diritti fondamentali.
L’introduzione di sistemi di intelligenza artificiale in ambito giudiziario è compatibile con la funzione giurisdizionale solo se integrata nel pieno rispetto dei principi fondamentali del diritto processuale.
Devono essere garantiti la trasparenza degli algoritmi, la possibilità di verificare e contestare gli output, il pieno controllo del giudice sulle decisioni e la parità informativa tra le parti. Solo un utilizzo conforme a questi criteri può risultare coerente con legalità, giusto processo e tutela effettiva dei diritti, pilastri della giurisdizione in uno Stato di diritto.
I sistemi di intelligenza artificiale, in particolare quelli generativi e predittivi, rappresentano strumenti avanzati per supportare le attività giudiziarie, dalla gestione dei documenti alla ricerca giurisprudenziale, ma il loro impiego solleva criticità rilevanti sotto il profilo della sicurezza, della protezione dei dati e della governance.
Gli output prodotti possono contenere errori o “allucinazioni”, generando contenuti non corrispondenti alla realtà o informazioni compiacenti rispetto al contesto, senza alcuna certezza di accuratezza.
Gli algoritmi, basandosi su dati preesistenti, possono riflettere imprecisioni o pregiudizi presenti nei dataset di addestramento, introducendo distorsioni involontarie. La natura probabilistica dei sistemi comporta inoltre una variabilità intrinseca degli output: la stessa richiesta può produrre risposte differenti a seconda della formulazione, del contesto o delle modalità di interazione.
L’utilizzo di dati sensibili espone a rischi concreti di profilazione indebita, divulgazione non autorizzata o riutilizzo per finalità non previste. In questo quadro, il Consiglio Superiore della Magistratura sottolinea la necessità di una supervisione umana costante e qualificata.
L’IA può supportare il magistrato nell’organizzazione dei dati, nella ricerca e nell’analisi, ma non può sostituire il giudizio critico né influenzare autonomamente l’esito delle decisioni, che resta prerogativa esclusiva dell’organo giudicante.
Per garantire un utilizzo sicuro e conforme alle normative, è fondamentale adottare strumenti tracciabili e controllati, assicurare la riservatezza delle informazioni e verificare costantemente la correttezza e la coerenza degli output, evitando che la tecnologia introduca rischi per i diritti fondamentali o la qualità della decisione giudiziaria.
L’AI Act 1689/2024 classifica l’amministrazione della giustizia tra i settori ad alto rischio, imponendo requisiti rigorosi: gestione dei rischi, qualità dei dati, tracciabilità, trasparenza, sorveglianza umana, accuratezza, cybersicurezza e robustezza.
Prima della messa in servizio di un sistema di IA ad alto rischio, i fornitori devono dimostrare la conformità a tali requisiti, con valutazione interna o da organismi notificati e registrazione nella banca dati europea dei sistemi certificati.
In Italia, il DDL 1146/2025 attribuisce al Ministero della Giustizia la gestione e la sperimentazione dei sistemi IA per attività amministrative e accessorie, mentre le decisioni giurisdizionali restano di esclusiva competenza dei magistrati.
Il Consiglio superiore della magistratura ha stabilito che, fino all’entrata in vigore delle disposizioni europee previste per agosto 2026, è vietato l’uso di sistemi di intelligenza artificiale non certificati nell’attività giudiziaria in senso stretto.
L’IA generica disponibile online non soddisfa i requisiti previsti per i sistemi ad alto rischio e, se utilizzata, potrebbe compromettere la legalità, il giusto processo e la tutela dei diritti delle parti.
Il divieto riguarda qualsiasi attività decisionale, inclusa l’interpretazione del diritto, la valutazione dei fatti e delle prove, e l’adozione dei provvedimenti giudiziari.
L’uso dell’IA resta invece consentito in ambiti organizzativi o accessori, purché sotto controllo e supervisione umana, con dati anonimizzati e strumenti forniti o autorizzati dal Ministero della Giustizia.
Con questa misura, il CSM mira a proteggere l’autonomia valutativa del magistrato, evitare rischi di bias e distorsioni negli output generati dall’IA e prevenire la diffusione non autorizzata di dati sensibili o riservati.
La fase transitoria, secondo il Consiglio, deve essere sfruttata come occasione di sperimentazione controllata e di formazione, così da preparare la magistratura all’ingresso di sistemi certificati e conformi all’AI Act.
In attesa dell’entrata in vigore dei sistemi certificati ad alto rischio, il Consiglio superiore della magistratura ammette l’uso dell’intelligenza artificiale solo per attività organizzative o procedurali a basso rischio, sotto costante supervisione umana e con piena tracciabilità.
Infatti, l’articolo 6, paragrafo 3, dell’AI Act prevede una zona transitoria che consente l’utilizzo dell’IA per attività procedurali o organizzative a basso rischio, sempre sotto supervisione umana e con tracciabilità completa delle operazioni.
Tra i possibili impieghi rientrano la consultazione di banche dati giurisprudenziali e dottrinali, la costruzione di stringhe di ricerca complesse, la sintesi di provvedimenti e contributi dottrinali per la classificazione e l’archiviazione tematica, la redazione di report statistici sull’andamento dell’ufficio e di bozze di relazioni o pareri su incarichi direzionali.
Altri ambiti includono la gestione dei calendari d’udienza, il supporto ad attività giudiziarie di bassa complessità con bozze standardizzate, il controllo della documentazione contabile e delle certificazioni opportunamente anonimizzate, la comparazione automatizzata di pratiche e prassi tra diversi uffici per individuare criticità o buone pratiche replicabili, la produzione di tabelle, grafici e materiali illustrativi a fini organizzativi o formativi, la revisione linguistica e stilistica dei testi, la catalogazione dei quesiti ai CTU per agevolarne consultazione e riuso, e la traduzione assistita di documenti giuridici, sempre sottoposta a verifica umana.
In tutti i casi, l’output generato dai sistemi di IA deve essere oggetto di valutazione autonoma da parte del magistrato, che resta il titolare esclusivo della funzione giurisdizionale.
L’uso transitorio dell’IA mira a supportare le attività organizzative e procedurali, migliorare l’efficienza e liberare tempo per la decisione critica, senza mai compromettere i principi di legalità, imparzialità, giusto processo e tutela effettiva dei diritti delle parti.
Per un utilizzo corretto dei sistemi di intelligenza artificiale in ambito giudiziario, è necessario adottare rigorose cautele operative.
La sovranità dei dati e delle informazioni implica che tutto il materiale generato non sia mai accessibile a soggetti terzi non autorizzati. Particolare attenzione deve essere riservata alla protezione dei dati, evitando di immettere nei sistemi informazioni sensibili, riservate o soggette a segreto investigativo, anche in forma indiretta.
Bisogna considerare il rischio di reidentificazione dei dati, anche se anonimizzati o pseudonimizzati, attraverso l’incrocio di dataset. Pertanto, nei sistemi IA occorre inserire esclusivamente le informazioni strettamente necessarie.
La qualità dei dati rappresenta un altro requisito fondamentale. I risultati prodotti dall’intelligenza artificiale devono rispettare elevati standard di equità, affidabilità e rappresentatività, prevenendo output affetti da bias o discriminazioni verso persone per razza, religione, sesso, origine nazionale, età, disabilità, stato civile, affiliazione politica o orientamento sessuale.
Ogni utilizzo dell’IA richiede inoltre una supervisione costante da parte del magistrato, che deve verificare il rispetto delle normative sui diritti fondamentali, sulla protezione dei dati, sul copyright e sulla sicurezza, assicurandosi della correttezza e affidabilità dell’output.
La sorveglianza umana consente di correggere, reinterpretare o modificare eventuali risultati inattendibili e di replicare autonomamente le conclusioni fornite dal sistema.
La responsabilità individuale del magistrato impone un uso consapevole e conforme degli strumenti IA, supportato dall’obbligo di partecipare a percorsi di formazione specifici sulle potenzialità, i limiti e i rischi legati all’intelligenza artificiale.
In vista dei prossimi scenari in cui i magistrati si troveranno a confrontarsi con sistemi di intelligenza artificiale anche nella fase più strettamente valutativa, il Consiglio superiore della magistratura ha delineato una roadmap operativa per guidarne l’impiego.
L’obiettivo principale è rendere i magistrati pienamente consapevoli delle potenzialità e dei limiti di questi strumenti.
Poiché l’IA produce output probabilistici e non deterministici, soggetti a errori, incertezze e possibili allucinazioni, è fondamentale che l’operatore giudiziario conosca la natura probabilistica dei risultati, le soglie di confidenza, il rischio di bias e il fenomeno del model drift.
In questo contesto, le strutture consiliari svolgeranno un ruolo attivo nel raccogliere e diffondere buone pratiche relative all’uso dell’IA, dalla minimizzazione degli input al divieto di trattare dati di procedimento, fino alle tecniche per verificare e replicare l’output su fonti ufficiali.
L’uso dell’IA non deve essere finalizzato unicamente a incrementare efficienza e produttività, ma a liberare risorse per la valutazione critica del magistrato.
Poiché non sarà realisticamente possibile vagliare in autonomia gli algoritmi sottostanti, la verifica umana dovrà concentrarsi sull’output, valutandone pertinenza, coerenza giuridica, replicabilità e assenza di errori o distorsioni significative.
Solo così il giudice potrà preservare la propria autonomia critica, correggere eventuali errori del sistema e resistere all’attrazione dell’efficienza numerica, evitando compromissioni della qualità della decisione e dei presidi del giusto processo.
Infine la roadmap riafferma la centralità dell’esperienza processuale come momento insostituibile della funzione giudiziaria.
Il Consiglio sottolinea infatti che il processo non può essere ridotto a una mera interazione digitale: la decisione nasce dalla relazione viva tra giudice, parti e prove, in uno spazio e in un tempo che ne garantiscano serietà, pubblicità e responsabilità.
L’adozione di sistemi di IA dovrà, pertanto, integrarsi in maniera trasparente e controllata, senza compromettere il valore umano e relazionale della giurisdizione.
Il Csm auspica la realizzazione di un sistema interno di IA gestito dal Ministero della Giustizia, integrabile con le applicazioni online già in uso (Desk Cassazione, App), capace di garantire sicurezza, riservatezza e tracciabilità dei dati.
Parallelamente, si promuovono sandbox regolatorie, audit periodici e tavoli tecnici con avvocatura e esperti esterni, per verificare l’impatto tecnologico e giuridico dei sistemi IA.
Le raccomandazioni del Csm delineano un quadro chiaro. L’intelligenza artificiale può supportare l’attività giudiziaria, ma mai sostituire l’autonomia decisionale del magistrato.
La transizione verso sistemi certificati e conformi all’AI Act deve essere accompagnata da formazione, sperimentazione controllata e massima attenzione alla protezione dei dati e ai diritti fondamentali.
In attesa dell’entrata in vigore delle norme europee, l’Italia privilegia quindi un approccio prudente e progressivo, in grado di bilanciare innovazione e rispetto del giusto processo.