I membri del Parlamento europeo coinvolti nella legge sull’IA hanno discusso l’aspetto della governance alla luce delle recenti discussioni sui più potenti modelli di intelligenza artificiale.
Attualmente, la legge sull’IA è al suo ultimo stadio di un lungo iter legislativo, in cui il Parlamento europeo e il Consiglio concordano le disposizioni finali, lasciando alla Commissione il ruolo di intermediario tra le due istituzioni.
La Commissione, infatti, ha presentato il testo che coniuga le aspettative di entrambi gli organi legislativi, ricomprendendo anche la formulazione di una nuova proposta sulla regolamentazione dei modelli di intelligenza artificiale di uso generale.
Intelligenza artificiale più sicura, i paletti del G7 e di Biden
Suddividere la regolamentazione in base al rischio
Secondo il nuovo testo, il cosiddetto “Ufficio AI” ha il compito di monitorare e richiedere informazioni pertinenti per l’applicazione delle disposizioni della legge sull’IA ai fornitori di modelli di linguaggio “General Purpose of Artificial Intelligence” (GPAI), compresa la loro adesione ai codici di condotta già approvati.
I DATI sono il nuovo PETROLIO, ma sostenibile! Ecco come metterli al servizio delle aziende
L’approccio, già messo in atto per il Digital Markets Act e il Digital Services Act, è quello di suddividere la regolamentazione in base al rischio, prevedendo regole più intransigenti per coloro che hanno un impatto più forte e generale sulla società.
Nei recenti sviluppi della legge, la scorsa settimana si è verificata una battuta d’arresto sui modelli di fondazione, mezzi di intelligenza artificiale su cui possono essere costruiti altri sistemi di IA, come per esempio ChatGPT che è alimentato da GPT-4 di OpenAI.
A tal proposito, la Commissione europea ha diffuso il 19 novembre un possibile compromesso sulla legge sull’IA per rompere lo stallo sui tali modelli di fondazione, applicando l’approccio a più livelli e introducendo codici di condotta per modelli con rischi sistemici.
A seguito della crescente opposizione della Francia, sostenuta da Germania e Italia (pressate dalle varie aziende tecnologiche nazionali che temono di venire sfavorite rispetto alle concorrenti americane e cinesi), la presidenza spagnola di turno al Consiglio dell’UE ha chiesto una rivisitazione dell’approccio a tali modelli, poiché intende la regolamentazione come un compromesso che potrebbe mettere a repentaglio l’approccio basato sul rischio alla base della legge sull’IA.
Riguardo la proposta a più livelli con obblighi più stringenti per il modello di fondazione “ad alto impatto” – sul quale in origine sembrava esserci un consenso unanime – appare sussistere ancora una discussione a livello politico, poiché non avere obblighi per i modelli di fondazione non è considerata un’opzione plausibile per il Parlamento europeo e per gli eurodeputati.
Il progetto è volto a fare in modo che siano gli sviluppatori dei modelli di fondazione a definire le schede modello, ovvero una documentazione che comprenda tutte le informazioni sullo strumento così che chi ne entra in possesso ne conosca le capacità e i limiti del modello e le best practice da attuare.
I punti ancora in discussione
Per il compromesso, il Consiglio comprenderà un rappresentante per paese dell’UE con un mandato triennale e rieleggibile solo una volta.
Il Consiglio dovrà adottare ogni decisione interna a maggioranza dei due terzi e avere due sottogruppi permanenti che si occupano di sorveglianza del mercato e autorità di notifica.
Tale impostazione riprende la proposta del Parlamento di istituire un forum consultivo per le parti interessate, come rappresentanti del settore, PMI, start-up, società civile e mondo accademico di modo da fornire competenze tecniche al Consiglio di amministrazione e all’Ufficio per l’IA.
Seguendo l’esempio del comitato europeo per la protezione dei dati, il comitato per l’intelligenza artificiale sarebbe incaricato di garantire un’applicazione coerente del regolamento sull’IA in tutto il blocco, fornendo allo stesso tempo consulenza sulla legislazione secondaria, sui codici di condotta e sugli standard tecnici.
La composizione del Consiglio di amministrazione dovrebbe garantire la rappresentanza di genere e geografica. Il panel consiglia l’AI Office sui modelli di General Purpose AI (GPAI), in particolare, contribuendo allo sviluppo di metodologie per la valutazione delle capacità dei modelli e consigliando la classificazione dei modelli con rischi sistemici. Inoltre, gli esperti del gruppo dovrebbero allertare l’Ufficio AI quando ritengono che un modello GPAI presenti un rischio concreto a livello dell’UE o soddisfi i requisiti per classificarlo come modello con rischi sistemici.
Obblighi chiari sugli usi specifici dell’IA
Dunque, la proposta di regolamentazione mira a fornire agli sviluppatori, ai deployers e agli utenti requisiti e obblighi chiari in merito agli usi specifici dell’IA e, allo stesso tempo, a ridurre gli oneri amministrativi e finanziari per le aziende, in particolare per le piccole e medie imprese (PMI).
A tal proposito, la governance dell’IA gioca un ruolo determinante che può migliorare il quadro organizzativo e l’adozione stessa dei sistemi “intelligenti”, guidando l’innovazione e l’efficienza dei processi.
Inoltre, un adeguato modello di gestione può impedire la duplicazione degli sforzi nello sviluppo e nell’implementazione dei sistemi di intelligenza artificiale, evitando così investimenti affrettati e poco ponderati.
La governance dell’IA, quindi, dovrebbe essere ricondotta alla funzione di “compliance and risk”, ma dovrebbe essere intesa anche come un’iniziativa di business di ampio respiro predisposta e pianificata dalla leadership organizzativa.
Questo sentimento è condiviso non solo dai leader nello sviluppo di tecnologie AI, come Microsoft, IBM e Google. Aziende di altri settori, come Pfizer in quello farmaceutico e Mastercard in quello dei pagamenti, hanno dichiarato che stanno progettando dei propri processi di governance dell’IA, dotati di responsabilità funzionale incrociata in modo da affrontare il crescente uso di questi strumenti per le comuni attività aziendali.
Mantenere la fiducia di consumatori e stakeholder
La combinazione di un solido processo di privacy by design e di un framework per la governance dell’IA è, dunque, l’approccio giusto per mantenere la fiducia dei consumatori e degli stakeholder.
Il governo spagnolo sta spingendo affinché il Consiglio e il Parlamento adottino la nuova legge sull’IA dell’UE prima che la sua presidenza si concluda alla fine di quest’anno e durante il suo mandato ha svolto un ruolo attivo adottando misure significative per posizionarsi come un paese leader nell’IA e dimostrando il suo impegno a incoraggiare e garantire la sua corretta regolamentazione.
Tuttavia, potrebbe essere una sfida raggiungere un accordo sulla legge sull’IA prima della fine di quest’anno a causa dei blocchi nei negoziati, considerato che l’artificial intelligence è una tecnologia in rapida evoluzione.
La proposta ha un approccio a tale sistema tecnologico a prova di futuro, che dovrà consentire alla normativa di adattarsi e conformarsi sulla base degli sviluppi e dei cambiamenti tecnologici nonostante persista il pericolo che un’eccessiva regolamentazione possa soffocare il settore di riferimento.
Il principio alla base dell’intesa non è dunque quello di regolare l’intelligenza artificiale in quanto tale, ma assicurare la sua concreta applicazione in equilibrio tra il terreno tecnologico e quello giuridico.
Finanza Digitale: proteggiti dagli hacker (e dalle sanzioni) con il DORA
@RIPRODUZIONE RISERVATA