L’eco mediatica di avvocati che citano sentenze inesistenti, generate da sistemi di intelligenza artificiale, è un campanello d’allarme che squarcia il velo sull’affidabilità delle nuove tecnologie in ambito legale.
Un recente caso ha visto la Cassazione esprimere perplessità nei confronti della sentenza di una corte territoriale, annullata con rinvio dai giudici della Suprema Corte in quanto avrebbe fatto riferimento “a principi di legittimità non affermati” e sentenze “inesatte nel numero riportato”.
Nessun riferimento esplicito all’AI, ma un chiaro richiamo all’utilizzo di fonti e precedenti inesistenti, tipici del problema sistemico noto come “allucinazione AI”.
Negli ultimi tempi, l’eco mediatica si è concentrata sull’uso dell’AI da parte di avvocati che avrebbero citato precedenti e sentenze inesistenti.
Nel caso del TAR Lombardia, il Collegio ha trasmesso all’Ordine degli Avvocati di Milano copia della sentenza di rigetto di un ricorso, affermando che il legale avrebbe citato estremi di pronunce inesistenti o non pertinenti.
Il TAR giudicava “sleale” la condotta del legale che aveva omesso di verificare gli elementi del suo ricorso e asseriva che tale comportamento aveva reso inutilmente gravoso il compito dei giudici costretti a verificare precedenti inesistenti per “smontarli”.
Il Tribunale di Firenze, Sez. Imprese, l’ordinanza del 14/17 marzo 2025 ha riconosciuto “il disvalore relativo all’omessa verifica” delle sentenze generate da ChatGPT, pur ritenendo che ciò non comporta automaticamente, in mancanza di danno concreto e dolo, la condanna per lite temeraria.
Il fatto che perfino la terza sezione penale della Cassazione esprima ora perplessità nei confronti di una sentenza di una Corte d’Appello, che avrebbe avuto delle lacune motivazionali quantomeno sospette e precedenti di legittimità mai affermati, evidenzia che l’uso “disattento” dell’AI e delle sue allucinazioni sia un fenomeno che riguarda ormai anche i giudici.
L’allucinazione AI è un fenomeno in cui un sistema di intelligenza artificiale generativa, come un Large Language Model (LLM), produce informazioni false, inventate o fuorvianti presentandole con estrema sicurezza e coerenza linguistica, come fossero fatti assodati.
In sostanza, il modello “confabula” un dato (una sentenza, una data, un fatto storico) che non esiste nella sua base di conoscenza.
In ambito legale, l’allucinazione si manifesta tipicamente come la citazione di sentenze inesistenti, riferimenti normativi errati, casistiche e precedenti di fantasia o l’attribuzione di pareri a giuristi mai pronunciati.
La pericolosità è insita nella loro plausibilità: il testo generato è spesso ben formulato e corredato di riferimenti così convincenti (seppur inventati), da sembrare autentico a un occhio non attento.
Le allucinazioni derivano dalla natura stessa del funzionamento degli LLM, cioè dalla struttura matematica e logica di questi, che sono addestrati per prevedere la sequenza di parole più probabile in un dato contesto, non per verificare la veridicità fattuale di ciò che scrivono.
Le cause principali sono molteplici:
Non si tratta, dunque, di una vera e propria “autonomia” dell’AI in senso cosciente, bensì di derive fantasiose che originano da limiti intrinseci al suo meccanismo di predizione statistica, dall’inquinamento della base informativa e del processo di generazione.
Il modello non sa di mentire; sta semplicemente completando un testo nel modo statisticamente più atteso e più coerente con le richieste dell’utente.
Il tema delle “hallucinations” non è solo italiano. A livello globale, le giurisdizioni stanno affrontando lo stesso dilemma: come integrare strumenti di AI generativa nel processo decisionale senza minare la credibilità delle istituzioni giudiziarie.
Un noto caso è Mata v. Avianca, Inc. (2023) in cui avvocati citarono memorie contenenti citazioni di sentenze inventate da strumenti generativi.
In quell’occasione la corte ha riaffermato il ruolo di gate-keeper degli avvocati che impone loro di assicurarsi dell’accuratezza dei loro atti.
È emerso l’obbligo etico sulla disclosure dell’uso dell’AI negli atti degli avvocati.
La Canadian Bar Association (CBA) ha pubblicato uno strumento-guida intitolato “Ethics of Artificial Intelligence for the Legal Practitioner”, rivolto ai professionisti del diritto, che evidenzia le implicazioni etiche, professionali e pratiche nell’uso dell’IA nella pratica legale in Canada.
A livello federale, il governo canadese ha avanzato il progetto di legge Artificial Intelligence and Data Act (AIDA) nell’ambito del Bill C‑27 (“Digital Charter Implementation Act, 2022”) che stabilisce un “responsible AI framework” più generale.
Nel Regno Unito, la Judicial Office for England and Wales ha pubblicato (aprile 2025) una guida aggiornata per i giudici sull’uso dell’AI che specifica che “gli utenti dell’AI sono responsabili del materiale generato”.
L’AI Act classifica l’uso dell’AI in ambito giudiziario come “alto rischio”, imponendo trasparenza, tracciabilità dei dataset e obblighi di supervisione umana.
Alcuni Paesi (es. Francia, Paesi Bassi) stanno sperimentando algoritmi di supporto alle decisioni, ma solo con regole rigide di audit e revisione ex-post.
La recente Legge n. 132/2025 ha introdotto un obbligo di trasparenza per i professionisti legali e intellettuali che impiegano strumenti di intelligenza artificiale, imponendo di informare il cliente sull’uso di tali tecnologie e di garantire che le decisioni restino di competenza umana.
Un passo che avvicina l’ordinamento italiano alle tendenze regolatorie già avviate in altri Paesi come Stati Uniti, Canada, UK.
I casi di sentenze inventate in atti legali e giudiziari, come quelli recentemente emersi, mettono in luce un punto cruciale: l’AI non sbaglia, sono gli operatori che non verificano.
La giurisprudenza, anche italiana, anche attraverso le sentenze citate, sta rapidamente stabilendo un principio chiaro: la sottoscrizione degli atti processuali attribuisce la responsabilità al sottoscrittore, indipendentemente dallo strumento utilizzato per la redazione. Avvocati, giudici o qualsiasi professionista che si affidi all’AI non possono recepire acriticamente l’output.
Se un modello linguistico suggerisce una sentenza inesistente, e l’avvocato o il giudice la inseriscono in un atto senza verificare la fonte, l’errore è imputabile all’omessa diligenza dell’operatore umano, il quale non può fidarsi ciecamente dell’AI. Questa è infatti uno strumento di supporto e non un sostituto del pensiero critico, della verifica e della diligenza professionale.
L’allarme sollevato dalla Cassazione e i casi verificatisi nei Tribunali evidenziano una probabile carenza nella preparazione degli operatori sull’uso consapevole degli strumenti AI. La natura di esseri umani non può essere un alibi per omettere un dovere di vigilanza e verifica che è intrinseco alla professione, soprattutto in settori critici come la giustizia.
Dovrebbe quindi essere imposto un controllo umano sistematico e promosso lo sviluppo di una cultura della due diligence tecnologica. Solo attraverso un’adeguata formazione e la consapevolezza dei limiti dei modelli, si potrà sfruttare il potenziale dell’AI riducendo il rischio che le sue “allucinazioni” diventino un elemento di ignoranza artificiale piuttosto che di progresso.
E tuttavia, resta la domanda più scomoda: siamo davvero certi che, in assenza di AI, quei professionisti avrebbero citato riferimenti corretti?
La storia giudiziaria è piena di errori umani, di precedenti travisati, di dottrine mal comprese.
Non è l’intelligenza artificiale ad aver introdotto l’imprecisione nel diritto. L’ha solo resa più visibile, più tracciabile e quindi meno giustificabile.