Gli ambasciatori dei 27 paesi dell’Unione Europea (Coreper) hanno votato all’unanimità, lo scorso 2 febbraio 2024, l’ultimo testo (in bozza) dell’AI Act, approvando l’accordo politico che era stato raggiunto a dicembre, dopo un’estenuante negoziazione.
Dunque, il primo testo al mondo che intende regolamentare l’intelligenza artificiale è prossimo alla sua votazione finale prevista per il 24 aprile 2024.
Si tratta ora di seguire gli ultimi sviluppi, ma intanto facciamo un rapido punto.
AI Act approvato, quali impatti sui diritti: tutti i punti chiave
Breve recap temporale di questi ultimi mesi
Come sappiamo, il 9 dicembre 2023 il trilogo ha raggiunto l’intesa (politica) sui principali nodi critici dell’AI Act.
Il 21 gennaio 2024, è stato presentato dalla Commissione in una riunione tecnica la versione finale del testo, in sintesi qui.
Quindi, il 2 febbraio 2024 c’è stato il via libera all’unanimità di tutti i Paesi della UE, sciogliendo ogni riserva. Insomma, l’ultimo testo possiamo dire che convinca tutti.
Finanza Digitale: proteggiti dagli hacker (e dalle sanzioni) con il DORA
AI Act: i punti chiave, in estrema sintesi
Ricapitoliamo anche i punti cardine sui quali il testo, alla luce dell’ultima bozza, si basa.
Anzitutto una definizione che si rifà ai principi dell’OCSE, promuovendo un uso dell’IA innovativo e affidabile nel pieno rispetto dei diritti umani e dei valori democratici; o almeno questo è il radicato intento. Un approccio basato sul rischio è l’altro cuore della disciplina. Ne deriva che tanto più alto sarà il rischio, quanto più rigide saranno le regole.
Se provassimo a riassumere per punti gli aspetti chiave diremmo che si è voluto fondare l’AI Act su:
- regole da applicare ai sistemi di AI per finalità generali ad alto impatto comportanti rischi sistemici in futuro, nonché sui sistemi di AI ad alto rischio;
- sistemi di governance rivisti anche alla luce di alcuni poteri di esecuzione europei;
- un elenco più ampliato dei divieti, pur potendo utilizzare l’identificazione biometrica remota da parte delle Autorità, fatte salve le tutele;
- una rafforzata protezione dei diritti imponendo agli operatori dei sistemi di AI ad alto rischio di dover effettuare una valutazione d’impatto prima di poter utilizzare un sistema di AI.
AI Act: la UE chiude il cerchio nonostante critiche e opposizioni
Il risultato raggiunto non è affatto scontato. Negli ultimi mesi, infatti, alcuni governi in primis quello francese, ma non solo hanno rappresentato critiche in merito alle proposte dell’AI Act, e in particolare per:
- limitare l’innovazione con la categorizzazione delle AI prevedendo vari livelli in base ai potenziali rischi per gli individui;
- l’uso nella sorveglianza basata sui sistemi di AI, tanto a livello pubblico quanto privato;
- l’autoregolamentazione con il fiducioso auspicio che saranno trovati una giusta misura nell’uso dell’AI e un corretto equilibrio tra diritti e opportunità (di tipo informatico/tecnologico).
Oltre alle critiche, ricordiamo che si sono formate poi anche precise opposizioni specie dal versante della Francia, la quale mirava addirittura respingere l’accordo provvisorio. Ma anche questi ostacoli sono stati superati e non hanno rallentato affatto il calendario serrato della Commissione.
Il ruolo chiave dell’Italia: la dichiarazione del sottosegretario Butti
L’importanza storica di questo ulteriore passo verso l’approvazione finale dell’AI Act è stata sottolineata anche dal sottosegretario all’Innovazione, Alessio Butti: “L’approvazione all’unanimità dell’AI Act segna un momento storico per l’Unione Europea con il contributo determinante dell’Italia e del governo Meloni”.
“Fin da quando l’Unione Europea ha iniziato a discutere di AI Act”, ha ricordato ancora il sottosegretario, “l’Italia ha compreso l’importanza fondamentale di un quadro normativo chiaro e robusto per l’intelligenza artificiale. Il nostro obiettivo è stato quello di garantire che tutte le applicazioni, inclusi i modelli generativi all’avanguardia, operassero all’interno di un sistema di regole che fosse sia semplice che rigoroso, in grado di tutelare i diritti dei cittadini e promuovere l’innovazione responsabile”.
“L’iter che ha portato all’approvazione dell’AI Act è stato complesso e ha richiesto una negoziazione serrata tra gli Stati membri”, ha sottolineato Butti, “L’Italia ha sempre sottolineato la necessità di un approccio strutturato che prevedesse norme chiare e sanzioni per le violazioni e non semplici codici di autocondotta. Grazie alla nostra diplomazia e alla capacità di dialogo con gli altri paesi membri, in particolare con Francia e Germania, siamo riusciti a superare le divergenze, mantenendo una linea coerente con la posizione espressa fin dall’inizio”.
“Questo regolamento”, ha concluso il sottosegretario all’Innovazione, Alessio Butti, “non solo stabilisce standard elevati per lo sviluppo e l’uso dell’intelligenza artificiale ma posiziona anche l’UE come leader globale nella regolamentazione di questa tecnologia fondamentale. L’Italia ha giocato un ruolo cruciale in questo processo, dimostrando la sua leadership e il suo impegno verso un futuro digitale sicuro, etico e innovativo. Guardiamo ora al futuro, pronti a collaborare con gli altri Stati membri e le istituzioni europee per implementare efficacemente l’AI Act, consapevoli che questo è solo l’inizio di un percorso che vedrà l’intelligenza artificiale sempre più al centro delle nostre società e delle nostre economie. L’Italia continuerà a essere in prima linea in questo importante dibattito, promuovendo un’IA che sia al servizio dell’uomo e rispettosa dei valori fondamentali su cui si fonda la nostra Unione”.
Brando Benifei, un importante traguardo dopo due anni di lavoro
Anche Brando Benifei, l’eurodeputato che ha guidato il negoziato parlamentare coi governi europei per l’approvazione della prima legge al mondo per la regolazione complessiva dell’AI, ha sottolineato l’importanza del traguardo raggiunto con il via libera all’unanimità dei Paesi UE: “Oggi è un bel giorno per l’Unione Europea: dopo settimane di rumors sulla stampa e di dubbi, fomentati da qualche grande impresa perlopiù extra-europea e magari da ministri che avrebbero voluto usare queste tecnologie per sorveglianza e attività di controllo sociale senza regole, abbiamo avuto oggi l’approvazione unanime dai rappresentanti permanenti dei governi europei del testo finale del regolamento sull’Intelligenza Artificiale, l’AI Act. Una grande soddisfazione dopo più di due anni di lavoro”.
“Con gli ultimi passaggi in Parlamento Europeo, a metà febbraio nelle commissioni parlamentari e poi a marzo o inizio aprile in sessione plenaria, il Regolamento sarà legge e inizierà la sua graduale entrata in vigore”, ha sottolineato Benifei.
Che conclude: “È fondamentale sostenere l’applicazione anticipata delle regole per il contrasto a disinformazione e deepfake, sicuramente inizialmente approssimativa per via degli standard ancora non pienamente adottati, ma che sarà fondamentale pur in forma imperfetta per proteggere le nostre democrazie nell’anno elettorale più importante per l’Europa e per il mondo. Con l’AI Act saremo più sicuri nell’uso delle nuove tecnologie nella vita di tutti i giorni, nel lavoro così come nel funzionamento delle nostre istituzioni”.
Gli impatti dell’AI Act
Soffermiamoci ancora sugli impatti prima sugli individui, e poi sulle aziende, inevitabili dal momento che l’AI tocca tutti gli aspetti di una società.
Impatti sugli individui
Classificare e regolamentare tipi di AI ha il precipuo scopo di proteggere gli individui da potenziali rischi dell’uso dell’intelligenza artificiale. Perciò, le tecnologie emergenti cioè quelle basate sull’AI, dovranno assolutamente:
- garantire trasparenza sul funzionamento, spiegandolo in modo comprensibile ed evidente e informando gli interessati su come verranno utilizzati i loro dati;
- consentire di rimuovere tutti i propri dati revocando il consenso prestato in qualsiasi momento;
- assicurare di mai limitare in alcun modo la libertà delle persone nonché i diritti umani;
- rispettare gli standard di qualità;
- sottoporsi a verifiche periodiche e ripetute al fine di rendere effettivo l’AI Act.
Impatto sulla tecnologia e sulle aziende
Secondo alcuni, l’AI Act potrebbe frenare lo sviluppo dell’intelligenza artificiale “rallentando l’invenzione e il lancio sul mercato di servizi basati sull’AI”, a discapito quindi della competitività di molte aziende europee attive in questo ambito.
Ancora, è previsto che, nei prossimi mesi, si raggiunga un accordo tra associazioni di settore e commissioni governative, che dia sì la priorità alle persone ma che salvaguardi non di meno e a un tempo, i progetti imprenditoriali nel settore dell’AI in termini di fattibilità.
I prossimi passi
L’AI Act sta dunque per tagliare il traguardo finale, dopo anni di lavori preparatori. Ancora qualche passo, tuttavia, deve affrontarlo.
Anzitutto, le commissioni per il mercato interno e le libertà civili del Parlamento europeo, il prossimo 13 febbraio, adotteranno il Regolamento sull’AI.
Ad aprile, verosimilmente il 10-11, si terrà un’ulteriore votazione in seduta plenaria, a cui seguirà l’adozione formale, fissata per il 24 aprile 2024, con l’approvazione ultima.
Solo a quel punto, la legge sull’AI sarà approvata ed entrerà in vigore 20 giorni dopo la pubblicazione in Gazzetta ufficiale europea con l’attuazione differita entro i due anni successivi.
Password e sicurezza: come creare parole-chiave inviolabili ma facili da ricordare
Identity & Access Management
@RIPRODUZIONE RISERVATA