Legge sull’intelligenza artificiale: il nuovo quadro normativo italiano
意大利于2025年9月25日发布《人工智能规范法》(第132号),10月10日起生效。该法在欧盟AI法案基础上制定本土原则,涵盖研究、实验、开发及应用,并针对网络安全、医疗健康等多领域设具体规定。同时设立治理机构并投资10亿欧元支持相关产业发展。 2025-10-7 21:46:9 Author: www.cybersecurity360.it(查看原文) 阅读量:17 收藏

Il 25 settembre 2025 è stata pubblicata in Gazzetta Ufficiale la legge n. 132 recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, entrata in vigore il 10 ottobre 2025.

Il provvedimento introduce un quadro normativo organico che disciplina ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale sul territorio nazionale.

La legge si inserisce nel contesto del regolamento europeo 2024/1689 (AI Act), rispetto al quale l’Italia ha scelto di definire principi e disposizioni integrative specifiche per il contesto nazionale.

Il testo normativo affronta trasversalmente tutti i principali settori di applicazione
dell’IA, stabilendo regole differenziate in base agli ambiti di utilizzo e ai livelli di rischio.

Architettura normativa e principi fondamentali

La legge si articola in sei capi e ventotto articoli che delineano un’architettura normativa complessa ma strutturata.

Il capo I stabilisce i principi generali e le finalità, ponendo al centro un approccio antropocentrico all’intelligenza artificiale. L’articolo 1 chiarisce immediatamente l’obiettivo: promuovere un utilizzo “corretto, trasparente e responsabile” dell’IA, garantendo al contempo la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali.

L’articolo 3 enumera i principi cardine che devono governare ogni fase del ciclo di vita dei sistemi di IA: rispetto dei diritti costituzionali, trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.

Particolare enfasi viene posta sulla necessità di garantire “la sorveglianza e
l’intervento umano” in tutti i processi decisionali supportati dall’intelligenza artificiale.

Focus sulla cyber sicurezza

Un elemento caratterizzante del provvedimento è l’attenzione alla cyber sicurezza, definita all’articolo 3, comma 6, come “precondizione essenziale” per il rispetto dei diritti e dei principi stabiliti dalla legge.

Il legislatore richiede l’adozione di controlli di sicurezza lungo tutto il ciclo di vita dei sistemi di IA, con particolare attenzione alla resilienza contro tentativi di alterazione o manipolazione.

Tutela persone con disabilità,

La legge dedica specifiche disposizioni alla tutela delle persone con disabilità, garantendo loro “il pieno accesso ai sistemi di intelligenza artificiale e alle relative funzionalità o estensioni, su base di uguaglianza e senza alcuna forma di discriminazione”, in conformità alla Convenzione Onu sui diritti delle persone con disabilità.

Il ruolo dell’intelligenza artificiale nella pubblica amministrazione

L’articolo 14 delinea il quadro di riferimento per l’utilizzo dell’IA nella pubblica
amministrazione. Le finalità indicate sono infatti chiare: incrementare l’efficienza dell’attività amministrativa, ridurre i tempi di definizione dei procedimenti e aumentare qualità e quantità dei servizi erogati a cittadini e imprese.

Il legislatore ha stabilito che l’utilizzo dell’IA avviene esclusivamente “in funzione strumentale e di supporto all’attività provvedimentale”, mantenendo ferma la responsabilità del funzionario pubblico per tutti i provvedimenti e procedimenti. Questo principio garantisce dunque che l’autonomia e il potere decisionale restino sempre in capo alla persona fisica, che rimane “l’unica responsabile” delle decisioni amministrative.

Le amministrazioni sono tenute ad assicurare agli interessati “la conoscibilità del
funzionamento e la tracciabilità” dell’utilizzo dei sistemi di IA.

Questo obbligo di trasparenza algoritmica rappresenta una garanzia fondamentale per i cittadini che interagiscono con la PA digitale.

Il comma 3 dell’articolo 14 impone alle pubbliche amministrazioni l’adozione di misure tecniche, organizzative e formative per garantire un utilizzo responsabile dell’IA e sviluppare le capacità trasversali degli utilizzatori.

Significativamente, il comma 4 specifica che tutti questi adempimenti devono essere realizzati “con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente”, senza quindi prevedere stanziamenti aggiuntivi.

Sanità: innovazione e tutela del paziente

Il settore sanitario riceve un’attenzione particolare attraverso gli articoli 7, 8, 9 e 10.

L’articolo 7 stabilisce che l’IA deve contribuire “al miglioramento del sistema sanitario, alla prevenzione, alla diagnosi e alla cura delle malattie”, sempre nel rispetto dei diritti e della riservatezza dei dati personali.

Un principio fondamentale è poi espresso al comma 2: “L’introduzione di sistemi di intelligenza artificiale nel sistema sanitario non può selezionare e condizionare l’accesso alle prestazioni sanitarie secondo criteri discriminatori”.

Il comma 5 chiarisce inoltre che i sistemi di IA costituiscono solo “un supporto” nei processi clinici, “lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica”.

L’articolo 8 introduce inoltre una novità rilevante dichiarando di “rilevante interesse pubblico” i trattamenti di dati personali effettuati per la ricerca scientifica nella realizzazione di sistemi di IA in ambito sanitario.

Questo facilita l’uso secondario di dati sanitari per finalità di ricerca, sempre nel rispetto del Gdpr e con specifiche garanzie procedurali.

L’articolo 10 prevede l’istituzione presso Agenas di una piattaforma nazionale di intelligenza artificiale per la sanità.

La piattaforma fornirà servizi di supporto ai professionisti sanitari, ai medici nella pratica clinica e agli utenti per l’accesso ai servizi delle Case della comunità, sempre attraverso “suggerimenti non vincolanti”.

Giustizia: limiti e opportunità dell’IA

Il settore giustizia viene disciplinato dall’articolo 15 con un approccio particolarmente cauto.

Il comma 1 stabilisce un principio inderogabile: “è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.

Il ministero della Giustizia è incaricato di disciplinare gli impieghi dell’IA per l’organizzazione dei servizi, la semplificazione del lavoro giudiziario e le attività amministrative accessorie.

Il comma 3 introduce una fase transitoria: fino alla completa attuazione del regolamento europeo, ogni sperimentazione negli uffici giudiziari deve essere autorizzata dal ministero, sentite le autorità nazionali competenti.

La formazione assume inoltre un ruolo centrale. Il comma 4 prevede che il ministro della Giustizia promuova attività didattiche sull’IA per magistrati e personale amministrativo, finalizzate all’acquisizione di competenze digitali e alla sensibilizzazione su benefici e rischi.

Lavoro e professioni: trasparenza e tutele

Gli articoli 11, 12 e 13 affrontano l’impatto dell’IA sul mondo del lavoro. L’articolo 11 stabilisce che l’IA deve essere impiegata per “migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività”.

Il comma 2 introduce un obbligo di trasparenza: “Il datore di lavoro o il committente è tenuto a informare il lavoratore dell’utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152”.

L’utilizzo dell’IA deve avvenire senza discriminazioni e nel rispetto della dignità umana e della riservatezza.

L’articolo 12 istituisce presso il ministero del lavoro l’Osservatorio sull’adozione di sistemi di IA nel mondo del lavoro, con compiti di monitoraggio, definizione di strategie e promozione della formazione. L’Osservatorio opererà senza oneri aggiuntivi per la finanza pubblica.

Per le professioni intellettuali, l’articolo 13 specifica che l’IA può essere utilizzata solo “per le attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale”. È previsto l’obbligo di comunicare al cliente l’utilizzo di sistemi di IA “con linguaggio chiaro, semplice ed esaustivo”.

Governance e autorità di controllo

La struttura di governance viene definita dagli articoli 19 e 20. L’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (Acn) sono designate quali autorità nazionali per l’intelligenza artificiale, con una divisione funzionale delle competenze.

AgID assume la responsabilità di “promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale” e di gestire le procedure di notifica, valutazione e accreditamento degli organismi di certificazione.

L’Acn si occupa invece della vigilanza, delle attività ispettive e sanzionatorie,
oltre che della promozione dell’IA per gli aspetti di cybersicurezza. Le due agenzie gestiscono congiuntamente gli spazi di sperimentazione (regulatory sandbox) per testare sistemi di IA in ambiente controllato.

Un Comitato di coordinamento presso la Presidenza del Consiglio assicura il raccordo tra le autorità, coinvolgendo quando necessario Banca d’Italia, Consob e Ivass per gli aspetti di vigilanza del mercato finanziario.

L’articolo 19 prevede inoltre l’elaborazione di una strategia nazionale per l’IA, da aggiornare con cadenza almeno biennale e approvare attraverso il Comitato interministeriale per la transizione digitale (Citd).

Investimenti e sviluppo economico

L’articolo 23 autorizza investimenti fino a un miliardo di euro per sostenere lo sviluppo di imprese nei settori dell’intelligenza artificiale e della cyber sicurezza. Gli investimenti, gestiti attraverso il Fondo di sostegno al venture capital, si concentreranno su due categorie di imprese:

  • Pmi innovative con elevato potenziale di sviluppo, in fase di sperimentazione, costituzione, avvio o sviluppo del prodotto;
  • imprese anche di maggiori dimensioni con elevato potenziale innovativo, per promuoverne lo sviluppo come “campioni tecnologici nazionali”.

I settori di interesse includono intelligenza artificiale, cyber sicurezza, tecnologie quantistiche, sistemi di telecomunicazioni (con particolare riferimento al 5G), mobile edge computing, architetture software aperte e Web 3.

Quadro sanzionatorio e disposizioni penali

Il Capo V introduce significative modifiche al codice penale per contrastare l’uso illecito dell’IA.

L’articolo 612-quater del codice penale introduce il nuovo reato di “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”, punibile con la reclusione da uno a cinque anni per chi diffonde senza consenso immagini, video o voci falsificati “idonei a indurre in inganno sulla loro genuinità”.

L’utilizzo di sistemi di IA diventa circostanza aggravante comune quando costituisce “mezzo insidioso” o quando ostacola la pubblica o privata difesa. Sono previste pene aumentate anche per i reati societari e di manipolazione del mercato finanziario commessi mediante IA.

Deleghe e attuazione

L’articolo 24 conferisce al Governo ampie deleghe per l’emanazione di decreti legislativi di adeguamento al regolamento europeo e per la disciplina di specifici aspetti.

Tra i principi e criteri direttivi figurano:

  • l’attribuzione alle autorità nazionali di tutti i poteri di vigilanza, ispettivi e sanzionatori previsti dal regolamento Ue;
  • la previsione di percorsi di alfabetizzazione e formazione sull’IA a tutti i livelli;
  • il potenziamento delle competenze Stem nei curricoli scolastici;
  • la disciplina specifica per l’utilizzo dell’IA nell’attività di polizia;
  • l’integrazione di attività formative sull’IA nei corsi universitari, AFAM e ITS Academy.

Una seconda delega riguarda la disciplina dei casi di realizzazione e impiego illeciti di sistemi di IA, con particolare attenzione agli strumenti di tutela e alle responsabilità penali e civili.

Diritto d’autore e tutela della creatività

L’articolo 25 modifica la legge sul diritto d’autore (633/1941) per chiarire che la tutela si applica alle opere dell’ingegno “umano”, anche quando create con l’ausilio di IA, purché costituiscano “risultato del lavoro intellettuale dell’autore”.

Viene inoltre introdotto l’articolo 70-septies che regola le riproduzioni ed estrazioni da opere per l’addestramento di modelli di IA, rinviando alle disposizioni già esistenti sul text e data mining.

Prospettive di implementazione

La legge 132/2025 rappresenta un intervento normativo articolato che tocca tutti i principali ambiti di applicazione dell’intelligenza artificiale.

L’implementazione richiederà l’emanazione di numerosi decreti attuativi nei prossimi mesi, oltre all’adeguamento organizzativo delle amministrazioni coinvolte.

Il vincolo dell’invarianza finanziaria, ribadito in più punti del testo, rappresenta una sfida significativa per le amministrazioni che dovranno implementare le nuove disposizioni con le risorse esistenti.

La formazione del personale emerge come elemento critico per il successo dell’implementazione, richiamata trasversalmente in tutti i settori disciplinati.

Il quadro normativo italiano si caratterizza per un approccio che bilancia innovazione e tutele, sviluppo tecnologico e protezione dei diritti fondamentali.

L’efficacia di questo equilibrio potrà essere valutata solo con l’effettiva entrata in operatività delle diverse disposizioni e con il completamento del quadro attuativo previsto dalle numerose deleghe contenute nella legge.


文章来源: https://www.cybersecurity360.it/legal/legge-sullintelligenza-artificiale-il-nuovo-quadro-normativo-italiano/
如有侵权请联系:admin#unsafe.sh