Il punto di intersezione tra intelligenza artificiale e privacy è costituito dai dati: la maggior parte dei sistemi di AI necessita di grandi quantità di dati di addestramento per sviluppare capacità di classificazione o di supporto decisionale.
Anche quando non trattano direttamente informazioni su singoli individui, se i dati utilizzati contengono elementi personali – in particolare dati identificabili – tali sistemi rientrano, con ogni probabilità, nell’ambito di applicazione delle normative sulla privacy e protezione dei dati.
La crescente esigenza di dati – resa particolarmente evidente nei sistemi di intelligenza artificiale generativa, come ChatGPT – genera una nuova corsa all’acquisizione di informazioni. Ancora più intensa rispetto a quella osservata durante l’epoca dei Big data.
Tale dinamica è destinata ad avere, inevitabilmente, un impatto significativo sulla privacy. Non solo a livello individuale ma anche collettivo, influenzando aspetti cruciali come il consenso, la tracciabilità dei dati, l’intera filiera di approvvigionamento e, più in generale, l’intero ciclo di vita dei dati.
Negli ambienti di intelligenza artificiale, i rischi per la privacy derivano principalmente da: raccolta dei dati, problematiche di mancato consenso, minacce alla sicurezza informatica, progettazione di modelli difettosi e framework di governance inadeguati.
Ciascuna categoria comporta sfide specifiche che possono mettere a rischio le informazioni personali attraverso accessi non autorizzati, esposizioni nvolontarie o flussi di dati articolati che rendono difficile individuare le responsabilità. Vediamo in dettaglio di che si tratta.
È importante sottolineare che molte delle attuali preoccupazioni legate alla privacy derivano dal modo in cui i sistemi di intelligenza artificiale raccolgono ed elaborano i dati sensibili.
Le moderne applicazioni di IA, infatti, si basano su una vasta gamma di informazioni personali, tra cui dati biometrici quali: impronte digitali, riconoscimento facciale, registrazioni vocali e altri identificatori biologici, utilizzati spesso per l’addestramento degli algoritmi.
A questi si affiancano dati ancora più delicati, come informazioni sanitarie, registri finanziari, storici lavorativi e educativi, che costituiscono l’infrastruttura informativa alla base di molti modelli di machine learning.
È doveroso evidenziare che l’evoluzione tecnologica ha reso possibile archiviare e trasmettere quantità di dati sensibili senza precedenti, aumentando di conseguenza il rischio di violazioni della privacy e furti di identità.
Inoltre, i modelli linguistici di grandi dimensioni (Large Language Models, Llm) ed altre applicazioni avanzate di intelligenza artificiale richiedono – spesso – l’accesso a comunicazioni personali, cronologie di navigazione e abitudini comportamentali per funzionare in modo efficace.
Ancora, quando si raccolgono i dati tramite dispositivi e piattaforme interconnessi, si creano profili altamente dettagliati che superano di gran lunga quanto inizialmente autorizzato dagli utenti.
Un altro dei rischi più rilevanti associati all’intelligenza artificiale riguarda l’utilizzo non autorizzato dei dati personali nei processi di addestramento dei modelli.
Inoltre, informazioni raccolte per scopi specifici, sempre più spesso, trovano impiego in modo secondario, senza il consenso esplicito o la piena consapevolezza degli utenti.
Episodi concreti dimostrano la gravità del problema. Immagini mediche – originariamente acquisite per finalità cliniche – sono state incluse in dataset per l’addestramento di sistemi di intelligenza artificiale, nonostante i pazienti avessero autorizzato unicamente l’uso in ambito sanitario.
In altri casi, piattaforme professionali hanno utilizzato i dati dei propri utenti per alimentare modelli algoritmici, senza fornire un’opzione chiara e trasparente per accettare (opt-in) tale utilizzo.
È a tutti noto che i sistemi di sorveglianza basati sull’AI comportano rischi significativi per la privacy, grazie alla loro capacità di monitorare, analizzare e profilare gli individui su scala ampia.
Tali tecnologie possono trasformare attività di raccolta dati – apparentemente ordinarie – in profili comportamentali dettagliati, rivelando aspetti intimi della vita privata, delle relazioni personali e delle abitudini quotidiane.
Inoltre, l’utilizzo di sistemi di riconoscimento facciale e algoritmi di polizia predittiva da parte delle forze dell’ordine ha sollevato forti preoccupazioni. Soprattutto per l’impatto sproporzionato sulle comunità emarginate, a fronte di numerosi episodi di arresti ingiustificati e ricondotti a errori nei sistemi di riconoscimento, mettendo in evidenza l’intersezione tra violazioni della privacy e dei diritti civili.
Ancora, la sofisticazione degli algoritmi di machine learning consente di inferire caratteristiche personali da fonti di dati apparentemente innocue. Infine, informazioni tratte dai social media, dalla geolocalizzazione, dalla cronologia degli acquisti e dai metadati delle comunicazioni possono essere combinate per prevedere con grande accuratezza preferenze individuali e comportamenti futuri.
È doveroso evidenziare che i sistemi di intelligenza artificiale introducono nuove vulnerabilità dal punto di vista della cybersecurity.
In particolare, gli attacchi di iniezione immediata (prompt injection) rappresentano una minaccia crescente, in cui input appositamente progettati inducono l’intelligenza artificiale a divulgare informazioni riservate o a inoltrare documenti a destinatari non autorizzati.
Inoltre, i modelli ad alto rischio – che utilizzano dataset sensibili – rappresentano obiettivi particolarmente appetibili per i criminali informatici, interessati a sottrarre informazioni di valore.
Ancora, le tradizionali misure di protezione dei dati risultano, spesso, inadeguate contro attacchi sofisticati che colpiscono direttamente l’architettura e i flussi informativi propri delle moderne applicazioni di intelligenza artificiale.
Il bilanciamento tra intelligenza artificiale e privacy rappresenta una priorità cruciale e, in quest’ottica, l’integrazione armonica tra Gdpr, AI Act e Data Act va interpretata come una risposta multilivello alle sfide poste dalla protezione dei dati.
Tale approccio è tanto più rilevante se si considera che l’intelligenza artificiale ha profondamente trasformato le modalità di raccolta, di elaborazione e di utilizzo delle informazioni personali.
L’Unione europea si sta muovendo in direzione di una strategia digitale che coniuga promozione dell’innovazione tecnologica e tutela dei diritti fondamentali.
Il risultato è un quadro giuridico integrato che mira a costruire un mercato digitale europeo unificato, fondato su elevati standard di protezione dei dati e sul rispetto della dignità e dell’autonomia individuale.
Vediamo come.
Entrato in vigore nel 2018, il Gdpr ha introdotto requisiti chiave in materia di protezione della privacy, stabilendo principi fondamentali che restano estremamente rilevanti anche nell’era dell’intelligenza artificiale.
Tra questi figurano:
Tuttavia, l’applicazione del Gdpr ai sistemi di intelligenza artificiale presenta sfide interpretative significative.
Il principio di minimizzazione dei dati, per esempio, può entrare in conflitto con la necessità dell’intelligenza artificiale di accedere a grandi dataset per funzionare efficacemente.
Inoltre, il diritto alla spiegazione delle decisioni automatizzate diventa altrettanto complesso, quando applicato ad algoritmi di machine learning che operano attraverso processi non facilmente interpretabili.
Ancora il Gdpr richiede che il trattamento dei dati sia basato su una base giuridica legittima. Tuttavia, determinare quale base giuridica si applichi ai sistemi di intelligenza artificiale può essere complesso.
Infine, l’interesse legittimo, spesso invocato per giustificare il trattamento dei dati per scopi dell’intelligenza artificiale, deve essere bilanciato con i diritti e le libertà degli interessati, un equilibrio che può essere difficile da valutare nel contesto di sistemi algoritmici complessi.
L’AI Act si caratterizza per un approccio basato sul rischio, classificando i sistemi di intelligenza artificiale in diverse categorie in base al loro potenziale impatto sui diritti fondamentali e sulla sicurezza.
In particolare, i sistemi di intelligenza artificiale ad alto rischio – che includono quelli utilizzati per il riconoscimento biometrico, la valutazione del credito, il reclutamento e l’istruzione – sono soggetti a requisiti rigorosi in termini di trasparenza, accuratezza, robustezza e supervisione umana che hanno implicazioni dirette per la privacy. Infatti impongono agli sviluppatori di sistemi di intelligenza artificiale di implementare misure di protezione dei dati by design e by default.
Inoltre, l’AI Act introduce divieti specifici per alcune pratiche di intelligenza artificiale – quali i sistemi di punteggio sociale o la manipolazione subliminale del comportamento – che sono considerate inaccettabili in termini di diritti fondamentali, incluso il diritto alla privacy.
È doveroso evidenziare che una delle innovazioni più significative dell’AI Act è l’introduzione di obblighi specifici di trasparenza, valutazione dei rischi e mitigazione degli impatti negativi per i modelli di intelligenza artificiale di uso generale (General Purpose AI Models), soprattutto quelli con capacità sistemiche e che includono i large language models più avanzati.
Il Data Act completa il quadro normativo europeo affrontando la governance dei dati e mira a creare un mercato unico europeo per i dati, facilitando la condivisione dei dati tra settori ed attori diversi, pur mantenendo elevati standard di protezione della privacy.
Inoltre, il Data Act introduce il diritto alla portabilità dei dati generati dall’utilizzo di prodotti o di servizi, estendendo il controllo degli individui sui propri dati, oltre quanto previsto dal Gdpr.
Ciò è particolarmente rilevante per i sistemi di AI, che spesso generano insight e metadati derivati dall’interazione con gli utenti.
Il regolamento stabilisce, altresì, regole per l’accesso ai dati da parte delle autorità pubbliche per scopi di interesse generale, bilanciando le esigenze di innovazione e governance pubblica con la protezione dei diritti individuali.
Tale disposizione è particolarmente cruciale per lo sviluppo di sistemi di intelligenza artificiale per il bene pubblico, come quelli utilizzati nella sanità, nell’ambiente o nella gestione delle emergenze.
L’integrazione tra Gdpr, AI Act e Data Act consente, di fatto, di adottare approcci proattivi alla privacy, assicurando che le misure di protezione dei dati siano incorporate lungo l’intero ciclo di vita dei sistemi di intelligenza artificiale. Tuttavia, ciò richiede l’attuazione di una serie di attività chiave, descritte di seguito.
E, precisamente:
La valutazione continua dei rischi per la privacy rappresenta una componente chiave dell’implementazione responsabile dell’intelligenza artificiale. Ovvero le
organizzazioni devono valutare i potenziali danni sia per gli utenti diretti sia per le persone i cui dati possono essere dedotti o elaborati indirettamente attraverso i sistemi di intelligenza artificiale.
Tale approccio richiede un monitoraggio continuo dei flussi di dati, degli output algoritmici e dei potenziali impatti sulla privacy.
Inoltre, l’identificazione precoce dei rischi per la privacy consente l’implementazione di strategie di mitigazione efficaci prima che i sistemi raggiungano gli ambienti di produzione.
Ancora, audit e valutazioni regolari aiutano le organizzazioni a identificare le minacce emergenti e le lacune di conformità, supportando approcci adattivi di gestione del rischio che si evolvono in risposta ai cambiamenti sia tecnologici sia normativi.
Le valutazioni del rischio dovrebbero valutare non solo le pratiche di raccolta diretta dei dati, ma anche il potenziale dei sistemi di intelligenza artificiale di acquisire/dedurre informazioni sensibili da input apparentemente innocui. Ovvero un approccio olistico in grado di supportare le organizzazioni nella comprensione delle implicazioni sulla privacy associate alle loro implementazioni di intelligenza artificiale.
Il principio di raccogliere i dati solo per scopi leciti e specifici è in linea con le ragionevoli aspettative degli interessati e con i requisiti normativi del Gdpr.
Di fatto, le organizzazioni dovrebbero implementare pratiche di minimizzazione dei dati che riducano i rischi per la privacy e, a contempo, supportare obiettivi aziendali legittimi.
A tal proposito le organizzazioni devono adottare framework strutturati di governance dei dati che garantiscano non solo la raccolta iniziale dei dati di formazione, ma anche la gestione continua dei dati esistenti, comprese le revisioni periodiche dell’utilizzo dei dati, le pratiche di archiviazione e i controlli di accesso.
Le organizzazioni devono dunque stabilire strutture di responsabilità chiare per la gestione dei dati durante l’intero ciclo di vita dei loro sistemi di AI.
I meccanismi di consenso ben strutturati forniscono alle persone un controllo granulare sui propri dati, richiedendo loro di rinnovare il consenso quando le finalità del trattamento cambiano o si espandono oltre l’ambito originale. Pertanto, le organizzazioni dovrebbero garantire una comunicazione trasparente sulla raccolta, sull’elaborazione e sull’utilizzo dei dati nei sistemi di AI per creare fiducia e per garantire la conformità ai requisiti previsti da: Gdpr, AI Act e Data Act.
Inoltre, controlli di facile utilizzo della privacy e le interfacce di gestione delle preferenze consentirebbero alle persone di prendere decisioni informate sui propri dati grazie a meccanismi, oltre a fornire informazioni chiare sul modo in cui i dati personali contribuiscono alla funzionalità dei sistemi di AI e sui diritti di cui godono le persone in relazione alle proprie informazioni.
Infine, le organizzazioni devono garantire che i processi di consenso affrontino adeguatamente:
Per garantire la protezione dei dati personali nei sistemi di intelligenza artificiale, è fondamentale adottare misure di sicurezza efficaci, capaci di contrastare sia le minacce esterne sia i rischi interni.
Queste misure devono, inoltre, tenere conto delle specifiche vulnerabilità dell’IA, come gli attacchi di iniezione immediata (prompt injection), i tentativi di esfiltrazione dei dati e la possibile divulgazione involontaria di informazioni attraverso gli output dei modelli.
Tra le misure consigliate rientrano:
Sono inoltre disponibili soluzioni tecnologiche avanzate che consentono di rafforzare la tutela della privacy senza compromettere le funzionalità dei sistemi di intelligenza artificiale.
Di seguito un elenco di tecnologie emergenti che offrono potenziali soluzioni per migliorare la privacy nell’era dell’intelligenza artificiale e, precisamente (in ordine alfabetico):
L‘apprendimento federato (federated learning) consente l’addestramento collaborativo dei modelli di intelligenza artificiale su fonti di dati distribuite senza centralizzare le informazioni sensibili, consentendo alle organizzazioni di:
Un metodo che consente di elaborare i dati in forma crittografata, fornendo risultati ma senza esporre i dati sottostanti.
Si tratta di tecniche che mirano a proteggere i dati personali durante le operazioni di data mining, tra cui: l’anonimizzazione e l’aggregazione dei dati che impediscono il collegamento dei dati alle identità.
Il mascheramento dei dati comporta la modifica dei dati in modo che la struttura rimanga invariata ma il contenuto informativo sia sicuro.
La tokenizzazione sostituisce i dati sensibili con equivalenti non sensibili, chiamati token, che possono essere utilizzati senza rischi nel dataset.
La privacy differenziale fornisce garanzie che i singoli punti dati non possono essere identificati all’interno di set di dati più grandi utilizzati per
‘addestramento dell’intelligenza artificiale.
Questa tecnica aggiunge rumore statistico attentamente calibrato ai dati, impedendo l’estrazione di informazioni personali specifiche e mantenendo
l’utilità complessiva dei dati ai fini dell’apprendimento automatico.
La sfida consiste nel bilanciare la protezione della privacy con l’accuratezza del modello, poiché un rumore eccessivo può degradare le prestazioni del sistema di intelligenza artificiale.
Un approccio che consente alle parti di calcolare congiuntamente una funzione sui propri input, mantenendoli privati.
Può essere utile in scenari in cui la condivisione di dati grezzi non è un’opzione.
Un protocollo avanzato di crittografia che consente di condividere e verificare le informazioni senza rivelare dati non necessari, mantenendo così un livello di sicurezza molto elevato.
La sfida tra intelligenza artificiale e privacy richiede un impegno collettivo e proattivo da parte di tutti gli stakeholder coinvolti.
È doveroso evidenziare che, pur disponendo di normative europee – quali Gdpr, AI Act e Data Act – che offrono una base solida per gestire questa sfida, l’efficacia delle stesse dipenderà dalla capacità di adattamento alle evoluzioni tecnologiche e da un enforcement rigoroso delle stesse.
Di fatto, il futuro della privacy nell’era dell’intelligenza artificiale è nelle nostre mani e dipende dalle scelte che compiamo oggi.
Ne consegue che è quanto mai necessario superare una visione limitata ai soli diritti individuali per abbracciare strategie di governance che trattino i dati come risorsa da utilizzare responsabilmente, considerando altresì gli impatti sociali e i diritti umani connessi.
Un approccio sistemico non deve ostacolare l’innovazione necessaria per le sfide globali. E deve garantisca, al contempo, il rispetto della dignità umana e dei diritti collettivi.
Solo così potremo realizzare il potenziale trasformativo dell’IA, mantenendo fiducia pubblica e coesione sociale.
È doveroso evidenziare che l’intelligenza artificiale non è intrinsecamente benefica o dannosa. Infatti è uno strumento che riflette le intenzioni e i valori di chi la sviluppa.
Pertanto, come afferma Andrea Vigliotti, Consulente Strategico AI per la Crescita Aziendale, riconosciuto a livello nazionale, si tratta di prendere coscienza che “abbiamo tra le mani il martello più potente della storia. La
domanda che dovremmo porci non è quanto forte possa colpire, ma se siamo ancora capaci di essere dei bravi fabbri”.