La nuova normativa italiana sull’IA: principi, applicazioni e governance della Legge 132/2025
意大利于2025年10月10日实施《人工智能法案》(Legge 132/2025),作为首部整合欧洲AI Act与国内规定的全国性法律。该法旨在通过伦理法律框架规范AI发展,涵盖经济发展、国家安全、卫生保健及公共行政等领域,并建立治理结构以确保技术负责任地应用。 2025-10-16 07:1:55 Author: www.cybersecurity360.it(查看原文) 阅读量:38 收藏

Il 10 ottobre 2025 è entrata in vigore la Legge 132/2025, la prima legge italiana sull’intelligenza artificiale che integra l’AI Act europeo con disposizioni nazionali.

Ecco, articolo per articolo, la nuova normativa quadro italiana sull’intelligenza artificiale (IA), promulgata con l’obiettivo di governare lo sviluppo tecnologico in modo etico e competitivo.

La Legge 132/2025

La legge 132/2025 si inserisce in linea con le iniziative legislative dell’Unione europea, in particolare con il Regolamento Ue 2024/1689, noto come AI Act (che, dal 2 febbraio 2025, vieta le applicazioni di IA ad “alto rischio inaccettabile”, per i sistemi di intelligenza artificiale che minacciano diritti e libertà fondamentali), con l’obiettivo strategico di creare un ecosistema di fiducia e prevenire la frammentazione normativa all’interno del mercato unico digitale.

Contesto e finalità della legge 132/2025

Con la promulgazione della nuova legge quadro sull’intelligenza artificiale, l’Italia si dota di uno strumento strategico per governare lo sviluppo tecnologico in modo etico e competitivo, inserendosi coerentemente nel solco delle iniziative legislative dell’Unione europea.

Questo intervento normativo non si pone come un freno, ma come un binario per guidare lo sviluppo tecnologico lungo un percorso responsabile e sostenibile.

Posizionandosi in modo coerente all’interno del quadro delle iniziative europee, come il Regolamento europeo sull’IA, la legge mira a creare un ecosistema di fiducia e a valorizzare le opportunità offerte dall’intelligenza artificiale, mitigandone al contempo i rischi.

L’articolo 1 della Legge 132/2025

Gli obiettivi primari della normativa, delineati nell’articolo 1, riflettono un duplice scopo attentamente bilanciato.

Da un lato, si intende promuovere la ricerca, la sperimentazione e l’adozione di sistemi di intelligenza artificiale come volano per l’innovazione e la competitività del Paese. Dall’altro lato, la legge stabilisce un rigoroso quadro di vigilanza sui rischi economici, sociali e, soprattutto, sull’impatto che queste tecnologie possono avere sui diritti fondamentali delle persone.

La norma adotta un approccio dichiaratamente “antropocentrico”, ponendo l’essere umano al centro di ogni fase del ciclo di vita della tecnologia, dalla progettazione all’utilizzo finale.

Per dare concreta attuazione a questa visione, la normativa definisce innanzitutto con chiarezza il proprio ambito di applicazione e i termini tecnici fondamentali: questo aspetto è essenziale per garantire la certezza del diritto e l’applicazione coerente dei principi su cui si basa.

Definizioni chiave e ambito di applicazione

In ogni disciplina giuridica, e in particolare in quelle che regolano le nuove tecnologie, la precisione terminologica è un prerequisito indispensabile per garantire la certezza del diritto.

Definire in modo univoco concetti complessi come “sistema di intelligenza artificiale” consente di stabilire confini chiari, attribuire responsabilità e garantire che gli obblighi e le tutele previsti dalla legge siano applicati in modo coerente ed efficace da tutti gli attori coinvolti.

L’articolo 2 assolve a questa funzione fondamentale ancorando la normativa italiana al quadro europeo. Il “sistema di intelligenza artificiale” e i “modelli di intelligenza artificiale” sono definiti facendo diretto riferimento alle definizioni contenute nel Regolamento Ueu 2024/1689.

Accanto a queste, viene adottata una definizione ampia di “dato”, che include qualsiasi rappresentazione digitale di atti, fatti o informazioni, comprese le registrazioni sonore, visive o audiovisive.

Questa scelta terminologica non è casuale, ma riflette la chiara intenzione del legislatore di garantire la massima coerenza con l’impianto normativo dell’Unione europea.

Ciò è fondamentale per evitare la frammentazione normativa all’interno del Mercato unico digitale europeo e garantire l’interoperabilità giuridica, offrendo un quadro stabile e prevedibile alle imprese e agli innovatori che operano negli Stati membri.

Queste definizioni tecniche, pur essendo essenziali, rappresentano solo il punto di partenza. Il loro vero significato emerge quando vengono lette alla luce dei principi etici e giuridici che ne regolano l’uso.

L’architettura etico-giuridica: i principi generali

L’articolo 3 costituisce il nucleo etico-giuridico dell’intera normativa. I principi qui enunciati non sono mere dichiarazioni di intenti, ma veri e propri criteri guida che devono informare l’interpretazione e l’applicazione di ogni disposizione della legge.

Questi principi costituiscono le fondamenta su cui deve svilupparsi un’intelligenza artificiale affidabile, sicura e rispettosa dei valori democratici e dei diritti della persona.

Il fulcro della Legge 132/2025

La sintesi dei principi cardine:

  • principio antropocentrico e supervisione umana: i sistemi e i modelli di IA devono essere sviluppati e applicati nel pieno rispetto dell’autonomia e del potere decisionale dell’essere umano. La loro operatività non deve mai compromettere la capacità di controllo e l’autonomia dell’uomo, che rimane l’unico soggetto in grado di prendere decisioni;
  • trasparenza e spiegabilità: questi principi sono fondamentali per instaurare un rapporto di fiducia tra la tecnologia, le istituzioni e i cittadini. Gli algoritmi non devono essere delle “scatole nere”, ma il loro funzionamento deve essere comprensibile, in modo da poter verificare le decisioni automatizzate, attribuirne le responsabilità e contestarle;
  • sicurezza e cibersicurezza: la legge pone l’accento sulla necessità di garantire la sicurezza, l’affidabilità e la resilienza dei sistemi di IA per tutto il loro ciclo di vita. Questo approccio, basato sulla proporzionalità del rischio, mira a prevenire malfunzionamenti, attacchi malevoli e utilizzi impropri;
  • proporzionalità e non discriminazione: l’uso dell’intelligenza artificiale deve sempre essere proporzionato agli scopi perseguiti e non deve mai generare o amplificare pregiudizi o discriminazioni. La normativa mira a prevenire la creazione di bias algoritmici che possano ledere i principi di equità e parità di trattamento;
  • sostenibilità e Inclusione: la legge promuove un’intelligenza artificiale sostenibile dal punto di vista ambientale e sociale. Si presta particolare attenzione all’inclusione, garantendo l’accesso completo ai sistemi di IA alle persone con disabilità, in conformità con i principi di uguaglianza;
  • tutela dei principi democratici: viene sancito il principio secondo cui l’impiego dell’intelligenza artificiale non deve in alcun modo pregiudicare il corretto svolgimento del dibattito democratico, né interferire con i processi elettorali o con il funzionamento delle istituzioni, prevenendo l’uso della tecnologia a fini di disinformazione o manipolazione.

Questi principi forniscono una solida cornice valoriale che viene successivamente declinata e applicata in specifici settori strategici della società e dell’economia, in cui l’impatto dell’IA si manifesta in modo più intenso.

La declinazione settoriale: analisi delle aree di applicazione strategica

L’efficacia di una legge quadro sull’innovazione si misura nella sua capacità di
regolamentare ambiti specifici, traducendo i principi generali in norme concrete.

La normativa italiana sull’intelligenza artificiale (IA) interviene su diversi settori chiave, cercando di conciliare la spinta verso l’efficienza e il progresso con la necessità di garantire tutele mirate.

Sviluppo economico e competitività

L’articolo 5 delinea una strategia che prevede l’utilizzo dell’intelligenza artificiale come leva per l’innovazione, la produttività e la competitività del sistema economico nazionale, con un’attenzione particolare alle micro, piccole e medie imprese.
Tra le misure specifiche previste figurano:

  • la promozione di un mercato dell’IA competitivo, equo e aperto, la facilitazione dell’accesso ai dati di alta qualità per le imprese e la comunità scientifica, al fine di sviluppare e addestrare nuovi sistemi;
  • l’obiettivo di favorire lo sviluppo e l’adozione di soluzioni basate sull’intelligenza artificiale prodotte sul territorio nazionale.

Sicurezza nazionale e difesa nella Legge 132/2025

L’articolo 6 affronta il delicato tema dell’uso dell’intelligenza artificiale (IA) nei contesti di sicurezza e difesa nazionale, inclusi i compiti delle Forze armate e delle Forze dell’ordine.

La legge riconosce la specificità e la sensibilità di questo settore e stabilisce che le attività in esso svolte, in quanto regolate da normative speciali, sono escluse dall’ambito di applicazione generale della presente normativa.

Questa esclusione è una prassi consolidata nella regolamentazione tecnologica, in quanto le materie di sicurezza nazionale costituiscono una funzione sovrana fondamentale, governata da quadri giuridici distinti e spesso classificati che operano al di fuori dell’ambito del diritto civile e commerciale generale.

Per implementare e supervisionare un’architettura normativa così complessa e articolata, è indispensabile una solida struttura di governance.

Settore sanitario e tutela della disabilità

L’articolo 7 riconosce il potenziale trasformativo dell’intelligenza artificiale nel settore della salute.

La legge mira a impiegare queste tecnologie per migliorare il sistema sanitario nazionale, in particolare nei settori della prevenzione, della diagnosi e della cura delle malattie.

Parallelamente, la legge promuove lo sviluppo di soluzioni basate sull’intelligenza artificiale per migliorare le condizioni di vita delle persone con disabilità, favorendo l’accessibilità, la mobilità e l’inclusione sociale.

Tuttavia, vengono posti limiti invalicabili a tutela dei pazienti e dei soggetti più vulnerabili.
Si stabilisce un divieto chiaro e inequivocabile di discriminazione nell’accesso alle prestazioni sanitarie basato sull’uso di sistemi di IA.

Inoltre, viene riaffermato un principio fondamentale: l’intelligenza artificiale può agire solo come strumento di supporto, ma la decisione finale in ambito terapeutico spetta sempre e unicamente al medico, garantendo il ruolo centrale della relazione umana e della competenza professionale.

Pubblica amministrazione e settore giudiziario

L’impiego dell’intelligenza artificiale nel settore pubblico è regolamentato con grande cautela, distinguendo nettamente l’ambito amministrativo da quello giurisdizionale.

Pubblica amministrazione
Ambito giudiziario
L’intelligenza artificiale deve essere impiegata per migliorare l’efficienza, la trasparenza e la qualità dei servizi pubblici.L’AI può essere utilizzata
esclusivamente come strumento di supporto
per il giudice nelle sue attività.
L’utilizzo deve avvenire nel pieno rispetto dei diritti dei cittadini e dei processi democratici, garantendo la non discriminazione e la spiegabilità delle decisioni.È categoricamente escluso che un sistema di IA possa sostituire la funzione decisionale del magistrato, che rimane l’unico depositario della funzione giurisdizionale.
L’obiettivo è ottimizzare l’azione amministrativa e semplificare il rapporto tra cittadino e Stato.L’obiettivo è supportare l’organizzazione e l’analisi dei dati, garantendo sempre la centralità dell’elemento umano nel processo decisionale.

Governance, strategia e autorità nazionali

Un impianto legislativo ambizioso come quello sull’intelligenza artificiale richiede un solido quadro di governance per poter tradurre i principi in azioni concrete.

È fondamentale dotarsi di organi e strumenti in grado di coordinare le politiche, monitorare l’evoluzione tecnologica e vigilare sul rispetto delle regole.

La legge prevede una struttura di governance chiara, basata sulla sinergia tra indirizzo strategico e vigilanza operativa.

La struttura di governance

I ruoli e le responsabilità sono così distribuiti:

  • La strategia nazionale per l’intelligenza artificiale rappresenta il documento di indirizzo programmatico per lo sviluppo del settore. Viene adottata e aggiornata con una frequenza almeno biennale, al fine di garantire che le politiche nazionali rimangano allineate al rapido progresso tecnologico e alle priorità del Paese.
  • Il comitato di coordinamento delle attività di indirizzo su enti, organismi e fondazioni che operano nel campo dell’innovazione digitale e dell’intelligenza artificiale svolge un ruolo centrale di coordinamento, in quanto è l’organo deputato all’adozione della strategia nazionale. Ciò garantisce un approccio integrato e intersettoriale alle politiche sull’intelligenza artificiale;
  • autorità nazionali per l’intelligenza artificiale (Agid e Acn,l’Agenzia per la Cybersicurezza Nazional ): l’articolo 22 designa l’Agenzia per l’Italia digitale (Agid) e l’Agenzia per la cybersicurezza nazionale (Acn) come autorità nazionali competenti in materia di intelligenza artificiale. Queste due agenzie hanno il compito di notificare e vigilare sul mercato, assicurando che i sistemi di IA immessi e utilizzati sul territorio nazionale siano conformi alla legge.

Nuove fattispecie di reato nella Legge 132/2025

La combinazione di principi chiari, regole settoriali specifiche e una governance ben definita crea un sistema normativo completo, volto a governare l’intelligenza artificiale in modo equilibrato e lungimirante.

In tale ambito sono comprese le nuove fattispecie di reato per tutelare il diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale e per sanzionare le attività criminali che sfruttano le potenzialità dirompenti di questa tecnologia, come nel caso dei deep fake (video – e non solo – falsi generati dall’intelligenza artificiale che stanno diventando sempre più diffusi e convincenti).

Tre messaggi chiave dall’architettura normativa

La nuova normativa italiana sull’intelligenza artificiale si presenta come un intervento organico e ponderato che cerca di delineare un percorso nazionale per la regolamentazione di una tecnologia all’avanguardia.

L’analisi del testo mette in luce alcuni tratti distintivi che ne definiscono la filosofia e l’approccio.

Da questa architettura normativa si possono distillare tre messaggi chiave:

  • L’approccio antropocentrico. La centralità della persona umana e il principio della supervisione umana non sono semplici clausole di stile, ma costituiscono il fondamento irrinunciabile dell’intera legge. Ogni norma, dalla definizione dei principi generali alle applicazioni settoriali, è concepita per garantire che la tecnologia rimanga uno strumento al servizio dell’uomo e non viceversa;
  • Integrazione nel contesto europeo. La legge compie una scelta strategica di forte allineamento con l’impianto normativo e la terminologia dell’Unione europea. Questa coerenza assicura l’interoperabilità giuridica, previene la frammentazione del mercato unico digitale e posiziona l’Italia come partner affidabile nella costruzione di un quadro normativo europeo per un’intelligenza artificiale etica e affidabile;
  • Il duplice binario. In ultima analisi, la legge si muove costantemente su un duplice binario: da un lato, la decisa spinta verso la promozione dell’innovazione, della ricerca e della competitività economica; dall’altro, la ferma e inderogabile tutela dei diritti fondamentali, dei processi democratici e della sicurezza dei cittadini. Questo equilibrio tra sviluppo e protezione rappresenta il tentativo di definire un modello di regolamentazione “centrato sull’uomo”, in grado di cogliere le immense opportunità offerte dall’intelligenza artificiale senza mai sacrificare i valori fondanti della nostra società.

Prospettive future

Ci si aspetta ora un forte impulso alla ricerca e allo sviluppo di tecnologie e soluzioni basate sull’intelligenza artificiale.

Ma la norma è carente da questo punto di vista, in quanto non sono previsti fondi di finanziamento specifici.

Pertanto, spetta agli enti e agli organismi competenti rimodulare i propri bilanci e individuare, all’interno delle risorse disponibili, delle fonti di finanziamento da destinare agli investimenti nell’intelligenza artificiale.


文章来源: https://www.cybersecurity360.it/legal/la-nuova-normativa-italiana-sullia-principi-applicazioni-governance_legge_132-2025/
如有侵权请联系:admin#unsafe.sh