AI Act e la proposta di moratoria: in gioco è il modello europeo di governo del digitale
欧洲内部对人工智能法案(AI Act)的实施产生分歧,部分企业及行业呼吁暂停以待技术标准完善,否则可能影响创新和竞争力。 2025-10-27 09:48:42 Author: www.cybersecurity360.it(查看原文) 阅读量:12 收藏

Nel dibattito europeo sull’intelligenza artificiale l’appello a “mettere in pausa” l’AI Act non è più il riflesso prevedibile delle grandi piattaforme d’oltreoceano.

Il dilemma sulla richiesta di moratoria ha assunto i tratti, i nomi, e la grammatica di un dissenso interno, che proviene dal tessuto produttivo europeo, dai suoi fondi di investimento, dalle sue imprese manifatturiere e dai suoi campioni industriali.

Ecco qual è la vera posta in gioco.

Ai Act e richiesta di moratoria

Il dilemma del regolamento sull’intelligenza artificiale entra nel vivo. L’AI Act è il primo regolamento completo sull’intelligenza artificiale dell’Unione Europea, in vigore dal luglio 2024.

La prima crepa si è resa visibile con la lettera aperta di decine di startupper e investitori europei che domandano alla Commissione di fermare l’orologio dell’attuazione per evitare un quadro applicativo opaco, frammentato e controproducente per l’innovazione.

Non si tratta di una richiesta di abrogazione, bensì di un rinvio “prudenziale” in attesa di standard tecnici maturi e linee guida univoche, tanto che la denuncia, pubblicata in anteprima dalla stampa specializzata, è semplice.

Senza certezza regolatoria il capitale e il talento migrano verso giurisdizioni più agili.

Il segnale dei 40 gruppi europei

Poco dopo, un secondo segnale – ben più rumoroso – è giunto da oltre quaranta tra i principali gruppi europei: dall’aerospazio all’energia, dalla grande distribuzione al bancario, fino ai semiconduttori e all’automotive, i vertici di imprese come Airbus, ASML, Axa, BNP Paribas, Carrefour, Siemens ed altri hanno chiesto una “pausa” di due anni, con accenti che riecheggiano l’esigenza di stabilità interpretativa e di tempi industriali compatibili con investimenti pluriennali.

Si tratta senza dubbio di una pressione politica ed economica che, per ampiezza e autorevolezza, non può più essere rubricata a riflesso lobbistico di attori extraeuropei.

Le scadenze

Sul piano istituzionale la Commissione ha reagito con un equilibrio di fermezza e disponibilità: “un testo giuridico è un testo giuridico”, quindi le scadenze adottate dai co-legislatori restano il faro, ma c’è consapevolezza che alcuni strumenti attuativi sono in ritardo.

Emblematico è il codice di buone pratiche per i modelli ad uso generale: nato per fungere da corrimano volontario nella prima applicazione degli obblighi sui modelli di base, ha accumulato rinvii e potrebbe slittare verso fine 2025, erodendo la funzione di “ponte” tra norma e standard armonizzati.

Il rischio paradosso

Da ciò discende un inevitabile paradosso. Si chiedono alle imprese impegni significativi proprio mentre il principale strumento di coordinamento interpretativo tarda ad arrivare.

Ed è proprio in questo vuoto che perfino un codice non vincolante diventa terreno di negoziazione politica, perché la sua forza dipende dal numero e dal profilo dei sottoscrittori e la minaccia, oggi concreta, è che a sottrarsi non siano solo le grandi statunitensi, ma anche i protagonisti europei.

In ritardo i riferimenti tecnici

A complicare il quadro giunge la fisiologia, lenta e consensuale, della normazione tecnica.

L’ AI Act, per i sistemi ad alto rischio, rinvia a standard armonizzati che dovrebbero tradurre requisiti giuridici – gestione del rischio, qualità del dato, robustezza, trasparenza, sorveglianza post-commercializzazione – in specifiche verificabili.

Ma la gestazione di questi standard, affidata ai comitati europei di normazione, richiede cicli di consultazione, allineamento tra trentatré e più membri, voto e pubblicazione in Gazzetta ufficiale.

È plausibile che una parte rilevante degli standard non sia pronta nei tempi “ideali”.

Il risultato è che il 2026 – tappa di avvio per molte obbligazioni sui sistemi ad alto rischio – potrebbe arrivare senza un set completo di riferimenti tecnici.

Il rischio legale asimmetrico

Ciò sposta l’onere della prova di conformità sul produttore, aumentando il rischio legale asimmetricamente:

  • i grandi possono permettersi team di compliance e contenzioso;
  • chi innova al margine, o in nicchie verticali, rischia di contrarre il perimetro dell’offerta o di rinviare il rilascio.

È proprio in questa asimmetria che l’argomento “competitività” diventa un argomento “di giustizia”. L’assenza di standard, lungi dall’essere un dettaglio tecnocratico, si traduce in barriere all’ingresso per gli sfidanti e in vantaggio relativo per chi ha scala e cassa.

La geografia del dissenso contro l’AI Act e la richiesta di moratoria

Entrando nel merito della fattispecie, diventa poi opportuno segnalare che la geografia del dissenso fino ad ora delineata non è poi così marginale.

Infatti, la lettera dei fondatori riflette un ecosistema abituato a cicli di innovazione rapidi e a mercati digitali integrati. E così la richiesta di pausa trova sponde politiche.

Il primo ministro svedese ha definito “confuso” l’assetto senza standard comuni, chiedendo esplicitamente un rinvio e la presidenza danese del Consiglio ha annunciato di voler rimettere mano alla semplificazione del rulebook digitale, includendo l’AI Act.

Il linguaggio segnala un cambio di fase: non abbandono del principio regolatorio, ma manutenzione del disegno per ricucire tempi politici e tempi tecnici.

Sul fronte occidentale, la Francia, spesso percepita come motore della stagione regolatoria, esprime una tensione interna. Da un lato, l’orgoglio di una filiera AI in crescita, dall’altro, l’istanza di alcuni suoi massimi attori economici di calibrare oneri e tempi.

Se ne ricava che il cleavage non è tra “pro” e “contro” la regolazione, ma tra diverse idee di sequencing: c’è chi chiede di modulare il calendario per preservare la traiettoria industriale europea, senza arretrare sui diritti fondamentali.

Governance europea: l’AI Act è architettura a più piani

Qui entra in gioco la fisiologia dell’Internet governance europea: l’AI Act è architettura a più piani.

Al piano alto, i divieti e i principi che attengono alla tutela dei diritti – sorveglianza biometrica remota “in tempo reale” se non nei casi strettamente ammessi, protezione della dignità e della non discriminazione, sicurezza e tracciabilità – non sono negoziabili e non possono essere assoggettati alla ciclicità dell’innovazione.

Invece, al piano intermedio, gli obblighi di processo e di trasparenza vanno tradotti in “oggetti tecnici” misurabili. Standard e codici di pratica hanno la funzione di ridurre l’entropia interpretativa, evitando che lo stesso requisito si frantumi in ventisette prassi nazionali.

Al piano basso, infine, vive l’economia reale dei fornitori e degli utilizzatori, che chiede interoperabilità di verifiche, “presunzione di conformità” reale e non fittizia, e un corridoio di introduzione al mercato sostenibile nel tempo.

È quindi, in questo incastro, che il “fermare l’orologio” può essere letto non come flessibilità lassista, ma come tecnica di governo: allineare l’entrata in applicazione con la disponibilità degli standard e con la maturazione del codice di condotta per i modelli ad uso generale, preservando l’integrità del quadro dei diritti e la credibilità dell’Unione come ordinatore del digitale.

L’obiezione, legittima e da non eludere, è il rischio di smarrire l’autorità normativa, proprio mentre si consolidano poteri privati senza precedenti.

La pausa non è neutrale

Una “pausa” non è un fatto neutrale. Può essere colta come segnale di cedimento agli interessi forti o come presa d’atto di una progettazione attuativa incompiuta.

A fare la differenza è la qualità del mandato politico e la chiarezza della rotta: se il rinvio è parte di una strategia dichiarata, allora la pausa diventa strumento di affidabilità, non di regressione.

Se invece il rinvio è indefinito e disancorato da output verificabili, scava il terreno sotto i piedi alla rule of law digitale.

Per questo la Commissione deve parlare il linguaggio della prevedibilità:

  • pubblicare un calendario attuativo vincolato;
  • includere indicatori di performance per l’AI Office;
  • attivare meccanismi di adesione progressiva al codice di condotta che premino la conformità anticipata e non solo puniscano l’inadempienza;
  • chiarire l’allocazione degli oneri tra fornitori di modelli e integratori a valle, così da evitare scaricabarile che rallentano l’adozione in settori critici.

Il modello europeo di governo del digitale

In definitiva, la domanda non è se l’Europa debba regolare: lo ha già fatto, e giustamente.

La vera domanda è come esercitare la virtù politica della gradualità senza sacrificare la tutela sostanziale. In controluce, l’AI Act è un test di maturità dell’Unione come sovranità regolatoria capace di coniugare diritti, competitività e autonomia strategica.

Una pausa “intelligente” – circoscritta, finalizzata, misurabile – può servire ad evitare che l’innovazione si infranga contro l’opacità procedurale; ma solo se accompagnata da una diplomazia degli standard che riduca il divario tra norma e tecnica, e da una politica industriale che sostenga l’adozione responsabile in filiere chiave, diversamente, la pausa diventa rimozione e l’Europa cede il campo simbolico della leadership per cui ha combattuto.

La posta in gioco non è un mese in più o in meno di moratoria, bensì il modello europeo di governo del digitale.

Un modello che, per restare tale, deve dimostrare che la certezza del diritto non è zavorra all’innovazione, ma il suo prerequisito civile.


文章来源: https://www.cybersecurity360.it/legal/ai-act-e-la-proposta-di-moratoria-in-gioco-e-il-modello-europeo-di-governo-del-digitale/
如有侵权请联系:admin#unsafe.sh