Il 10 ottobre 2025 è entrata in vigore la Legge 132/2025, la prima legge italiana sull’intelligenza artificiale che integra l’AI Act europeo con disposizioni nazionali.
Ecco, articolo per articolo, la nuova normativa quadro italiana sull’intelligenza artificiale (IA), promulgata con l’obiettivo di governare lo sviluppo tecnologico in modo etico e competitivo.
La legge 132/2025 si inserisce in linea con le iniziative legislative dell’Unione europea, in particolare con il Regolamento Ue 2024/1689, noto come AI Act (che, dal 2 febbraio 2025, vieta le applicazioni di IA ad “alto rischio inaccettabile”, per i sistemi di intelligenza artificiale che minacciano diritti e libertà fondamentali), con l’obiettivo strategico di creare un ecosistema di fiducia e prevenire la frammentazione normativa all’interno del mercato unico digitale.
Con la promulgazione della nuova legge quadro sull’intelligenza artificiale, l’Italia si dota di uno strumento strategico per governare lo sviluppo tecnologico in modo etico e competitivo, inserendosi coerentemente nel solco delle iniziative legislative dell’Unione europea.
Questo intervento normativo non si pone come un freno, ma come un binario per guidare lo sviluppo tecnologico lungo un percorso responsabile e sostenibile.
Posizionandosi in modo coerente all’interno del quadro delle iniziative europee, come il Regolamento europeo sull’IA, la legge mira a creare un ecosistema di fiducia e a valorizzare le opportunità offerte dall’intelligenza artificiale, mitigandone al contempo i rischi.
Gli obiettivi primari della normativa, delineati nell’articolo 1, riflettono un duplice scopo attentamente bilanciato.
Da un lato, si intende promuovere la ricerca, la sperimentazione e l’adozione di sistemi di intelligenza artificiale come volano per l’innovazione e la competitività del Paese. Dall’altro lato, la legge stabilisce un rigoroso quadro di vigilanza sui rischi economici, sociali e, soprattutto, sull’impatto che queste tecnologie possono avere sui diritti fondamentali delle persone.
La norma adotta un approccio dichiaratamente “antropocentrico”, ponendo l’essere umano al centro di ogni fase del ciclo di vita della tecnologia, dalla progettazione all’utilizzo finale.
Per dare concreta attuazione a questa visione, la normativa definisce innanzitutto con chiarezza il proprio ambito di applicazione e i termini tecnici fondamentali: questo aspetto è essenziale per garantire la certezza del diritto e l’applicazione coerente dei principi su cui si basa.
In ogni disciplina giuridica, e in particolare in quelle che regolano le nuove tecnologie, la precisione terminologica è un prerequisito indispensabile per garantire la certezza del diritto.
Definire in modo univoco concetti complessi come “sistema di intelligenza artificiale” consente di stabilire confini chiari, attribuire responsabilità e garantire che gli obblighi e le tutele previsti dalla legge siano applicati in modo coerente ed efficace da tutti gli attori coinvolti.
L’articolo 2 assolve a questa funzione fondamentale ancorando la normativa italiana al quadro europeo. Il “sistema di intelligenza artificiale” e i “modelli di intelligenza artificiale” sono definiti facendo diretto riferimento alle definizioni contenute nel Regolamento Ueu 2024/1689.
Accanto a queste, viene adottata una definizione ampia di “dato”, che include qualsiasi rappresentazione digitale di atti, fatti o informazioni, comprese le registrazioni sonore, visive o audiovisive.
Questa scelta terminologica non è casuale, ma riflette la chiara intenzione del legislatore di garantire la massima coerenza con l’impianto normativo dell’Unione europea.
Ciò è fondamentale per evitare la frammentazione normativa all’interno del Mercato unico digitale europeo e garantire l’interoperabilità giuridica, offrendo un quadro stabile e prevedibile alle imprese e agli innovatori che operano negli Stati membri.
Queste definizioni tecniche, pur essendo essenziali, rappresentano solo il punto di partenza. Il loro vero significato emerge quando vengono lette alla luce dei principi etici e giuridici che ne regolano l’uso.
L’articolo 3 costituisce il nucleo etico-giuridico dell’intera normativa. I principi qui enunciati non sono mere dichiarazioni di intenti, ma veri e propri criteri guida che devono informare l’interpretazione e l’applicazione di ogni disposizione della legge.
Questi principi costituiscono le fondamenta su cui deve svilupparsi un’intelligenza artificiale affidabile, sicura e rispettosa dei valori democratici e dei diritti della persona.
La sintesi dei principi cardine:
Questi principi forniscono una solida cornice valoriale che viene successivamente declinata e applicata in specifici settori strategici della società e dell’economia, in cui l’impatto dell’IA si manifesta in modo più intenso.
L’efficacia di una legge quadro sull’innovazione si misura nella sua capacità di
regolamentare ambiti specifici, traducendo i principi generali in norme concrete.
La normativa italiana sull’intelligenza artificiale (IA) interviene su diversi settori chiave, cercando di conciliare la spinta verso l’efficienza e il progresso con la necessità di garantire tutele mirate.
L’articolo 5 delinea una strategia che prevede l’utilizzo dell’intelligenza artificiale come leva per l’innovazione, la produttività e la competitività del sistema economico nazionale, con un’attenzione particolare alle micro, piccole e medie imprese.
Tra le misure specifiche previste figurano:
L’articolo 6 affronta il delicato tema dell’uso dell’intelligenza artificiale (IA) nei contesti di sicurezza e difesa nazionale, inclusi i compiti delle Forze armate e delle Forze dell’ordine.
La legge riconosce la specificità e la sensibilità di questo settore e stabilisce che le attività in esso svolte, in quanto regolate da normative speciali, sono escluse dall’ambito di applicazione generale della presente normativa.
Questa esclusione è una prassi consolidata nella regolamentazione tecnologica, in quanto le materie di sicurezza nazionale costituiscono una funzione sovrana fondamentale, governata da quadri giuridici distinti e spesso classificati che operano al di fuori dell’ambito del diritto civile e commerciale generale.
Per implementare e supervisionare un’architettura normativa così complessa e articolata, è indispensabile una solida struttura di governance.
L’articolo 7 riconosce il potenziale trasformativo dell’intelligenza artificiale nel settore della salute.
La legge mira a impiegare queste tecnologie per migliorare il sistema sanitario nazionale, in particolare nei settori della prevenzione, della diagnosi e della cura delle malattie.
Parallelamente, la legge promuove lo sviluppo di soluzioni basate sull’intelligenza artificiale per migliorare le condizioni di vita delle persone con disabilità, favorendo l’accessibilità, la mobilità e l’inclusione sociale.
Tuttavia, vengono posti limiti invalicabili a tutela dei pazienti e dei soggetti più vulnerabili.
Si stabilisce un divieto chiaro e inequivocabile di discriminazione nell’accesso alle prestazioni sanitarie basato sull’uso di sistemi di IA.
Inoltre, viene riaffermato un principio fondamentale: l’intelligenza artificiale può agire solo come strumento di supporto, ma la decisione finale in ambito terapeutico spetta sempre e unicamente al medico, garantendo il ruolo centrale della relazione umana e della competenza professionale.
L’impiego dell’intelligenza artificiale nel settore pubblico è regolamentato con grande cautela, distinguendo nettamente l’ambito amministrativo da quello giurisdizionale.
Pubblica amministrazione | Ambito giudiziario |
L’intelligenza artificiale deve essere impiegata per migliorare l’efficienza, la trasparenza e la qualità dei servizi pubblici. | L’AI può essere utilizzata esclusivamente come strumento di supporto per il giudice nelle sue attività. |
L’utilizzo deve avvenire nel pieno rispetto dei diritti dei cittadini e dei processi democratici, garantendo la non discriminazione e la spiegabilità delle decisioni. | È categoricamente escluso che un sistema di IA possa sostituire la funzione decisionale del magistrato, che rimane l’unico depositario della funzione giurisdizionale. |
L’obiettivo è ottimizzare l’azione amministrativa e semplificare il rapporto tra cittadino e Stato. | L’obiettivo è supportare l’organizzazione e l’analisi dei dati, garantendo sempre la centralità dell’elemento umano nel processo decisionale. |
Un impianto legislativo ambizioso come quello sull’intelligenza artificiale richiede un solido quadro di governance per poter tradurre i principi in azioni concrete.
È fondamentale dotarsi di organi e strumenti in grado di coordinare le politiche, monitorare l’evoluzione tecnologica e vigilare sul rispetto delle regole.
La legge prevede una struttura di governance chiara, basata sulla sinergia tra indirizzo strategico e vigilanza operativa.
I ruoli e le responsabilità sono così distribuiti:
La combinazione di principi chiari, regole settoriali specifiche e una governance ben definita crea un sistema normativo completo, volto a governare l’intelligenza artificiale in modo equilibrato e lungimirante.
In tale ambito sono comprese le nuove fattispecie di reato per tutelare il diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale e per sanzionare le attività criminali che sfruttano le potenzialità dirompenti di questa tecnologia, come nel caso dei deep fake (video – e non solo – falsi generati dall’intelligenza artificiale che stanno diventando sempre più diffusi e convincenti).
La nuova normativa italiana sull’intelligenza artificiale si presenta come un intervento organico e ponderato che cerca di delineare un percorso nazionale per la regolamentazione di una tecnologia all’avanguardia.
L’analisi del testo mette in luce alcuni tratti distintivi che ne definiscono la filosofia e l’approccio.
Da questa architettura normativa si possono distillare tre messaggi chiave:
Ci si aspetta ora un forte impulso alla ricerca e allo sviluppo di tecnologie e soluzioni basate sull’intelligenza artificiale.
Ma la norma è carente da questo punto di vista, in quanto non sono previsti fondi di finanziamento specifici.
Pertanto, spetta agli enti e agli organismi competenti rimodulare i propri bilanci e individuare, all’interno delle risorse disponibili, delle fonti di finanziamento da destinare agli investimenti nell’intelligenza artificiale.