L’articolo 13, comma II, della legge italiana sull’AI entrata in vigore il 10 ottobre 2025 (Legge 132/2025, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, il cui obiettivo è quello di regolare l’uso dell’intelligenza artificiale in campi come sanità, lavoro e giustizia), introduce una nuova normativa sulle professioni intellettuali, prevedendo due punti principali.
Il primo stabilisce che l’utilizzo di sistemi tecnologici avanzati deve limitarsi ad attività strumentali e di supporto alla prestazione professionale, mentre il lavoro intellettuale del professionista rimane prevalente.
Il secondo punto introduce l’obbligo di comunicare al cliente tutte le informazioni relative ai sistemi utilizzati, con linguaggio chiaro, semplice ed esaustivo, con l’obiettivo dichiarato di garantire il rapporto fiduciario tra professionista e cliente.
L’effettiva applicazione di questa disposizione può risultare complessa: definire cosa comunicare, in quali termini e con quale livello di dettaglio può generare incertezze operative, senza che sia immediatamente chiaro se questo adempimento migliori concretamente la tutela del cliente.
Come detto, l’obiettivo dichiarato dell’articolo 13 è garantire trasparenza e rafforzare la fiducia tra professionista e cliente.
La norma mira a far sì che chi riceve una prestazione sia consapevole del ricorso a strumenti avanzati di supporto, potendo valutare in maniera informata la prestazione professionale.
Due casi recenti mostrano concretamente i rischi legati all’uso di strumenti avanzati senza verifica e controllo da parte dei professionisti.
Deloitte concederà un rimborso parziale al governo australiano per un report contenente citazioni e riferimenti inesistenti, generati da un uso superficiale di strumenti avanzati.
Il documento, destinato al governo e del valore di circa 440 mila dollari, conteneva parti inventate o basate su studi inesistenti.
La notizia ha suscitato scalpore, ma il problema principale non era l’uso della tecnologia in sé, quanto l’assenza di verifiche interne.
L’episodio dimostra come l’impiego superficiale di strumenti avanzati possa produrre risultati inaccurati e sottolinea l’importanza di procedure rigorose e della responsabilizzazione dei professionisti, a prescindere dalla tecnologia utilizzata.
Nel settore legale, un recente caso del Tribunale di Torino (sentenza n. 2120, depositata il 16 settembre 2025) ha rigettato un ricorso redatto “col supporto dell’intelligenza artificiale” e ha sanzionato il ricorrente per malafede o colpa grave ai sensi dell’art. 96, comma 3, c.p.c.
Il giudice ha rilevato come il ricorso fosse costituito da un insieme di citazioni normative e giurisprudenziali astratte, prive di ordine logico e spesso inconferenti, senza collegamento concreto alla situazione di causa.
Il caso rappresenta un monito sull’importanza di un uso professionale, rigoroso e consapevole degli strumenti di supporto tecnologico.
L’obbligo di informativa, così come è concepito, presenta numerose criticità che ne riducono l’efficacia pratica.
La norma non distingue tra strumenti, metodi o contesti, costringendo il professionista a spiegare concetti complessi in un linguaggio definito “semplice”, che rischia inevitabilmente di diventare astratto e poco utile.
La trasparenza promessa dalla legge si traduce così spesso in lunghe informative standardizzate, piene di formalismi e prive di sostanza reale, che rallentano il lavoro quotidiano e distolgono tempo prezioso dalle attività che realmente tutelano il cliente.
La fiducia, del resto, non si costruisce con moduli firmati, ma con competenza, esperienza e responsabilità concreta.
L’obbligo di informativa solleva questioni sia di principio sia di ordine pratico. Sul piano istituzionale, il Movimento Forense ha pubblicato un comunicato critico, arrivando a chiedere addirittura l’abrogazione della norma, giudicandola un adempimento burocratico privo di reale utilità per il rapporto fiduciario tra professionista e cliente.
Sul piano operativo, la sfida riguarda l’uso quotidiano di strumenti tecnologici avanzati ormai integrati in molti processi professionali.
L’introduzione dell’intelligenza artificiale in attività di supporto, automazione e analisi rende complesso stabilire quali informazioni comunicare e in quale forma, trasformando un obbligo teorico in un adempimento rapidamente ingestibile.
A livello professionale, il Movimento Forense ha evidenziato come l’obbligo rischi di trasformare la trasparenza in un mero adempimento burocratico che ignora la natura etica, culturale e deontologica dell’Avvocatura.
Secondo il presidente nazionale, le formule generiche imposte dalla norma non aggiungono valore al naturale rapporto fiduciario tra avvocato e cliente e limitano la libertà del professionista di comunicare in modo adeguato al caso concreto, producendo informative standardizzate che svuotano di significato la consapevolezza del cliente.
Per tali ragioni, si chiede al Consiglio Nazionale Forense e all’Organismo Congressuale Forense di impegnarsi affinché venga abrogata tale disposizione.
A complicare ulteriormente la questione è la diffusione ormai generalizzata di strumenti tecnologici avanzati utilizzati nei processi professionali.
Applicazioni come Copilot di Microsoft, integrate in Excel, consentono di automatizzare operazioni complesse come la riconciliazione bancaria, la generazione di report di bilancio o la costruzione di dashboard interattive per il cliente.
Anche chatbot avanzati, ad esempio utilizzati per fornire risposte rapide o supporto documentale, fanno parte di questo ecosistema.
L’integrazione dell’intelligenza artificiale si estende anche ad altre professioni intellettuali: studi di architetti, ingegneri e geometri sfruttano sistemi di AI per generare concept visivi, modelli tridimensionali e rendering, velocizzando la produzione di immagini e la realizzazione di progetti complessi.
Nei settori di analisi e consulenza, l’AI supporta l’elaborazione di grandi quantità di dati territoriali o normativi, aiutando i professionisti a orientarsi in quadri regolatori articolati, frammentari e complessi.
Poiché l’intelligenza artificiale ormai entra in molte fasi del processo intellettuale, dalla raccolta e analisi dei dati alla generazione di contenuti e modelli, garantire una trasparenza efficace verso il cliente diventa un compito estremamente complesso, rischiando di trasformare l’informativa in un adempimento teorico piuttosto che in uno strumento realmente utile.
In definitiva, i casi Deloitte e del Tribunale di Torino dimostrano che il rischio di errori, sciatteria o superficialità nell’uso di strumenti avanzati esiste realmente.
Tuttavia, l’obbligo di informativa, così come concepito, non incide su questi fattori: comunicare al cliente che si utilizza l’intelligenza artificiale non aumenta la qualità del controllo, né riduce la responsabilità professionale.
Considerando poi le difficoltà operative già evidenziate, come la molteplicità degli strumenti, la loro integrazione nei processi quotidiani e la complessità di spiegare correttamente il loro impiego, la trasparenza rischia di trasformarsi in un semplice esercizio di stile, incapace di mitigare i rischi generali legati all’uso dell’IA.