Tra innovazione tecnologica e democrazia, le sfide elettorali dell’AI: possibili soluzioni regolatorie
2024-2-1 01:2:0 Author: www.cybersecurity360.it(查看原文) 阅读量:5 收藏

L'APPROFONDIMENTO

La capacità dell’AI generativa di produrre fake news ha fatto emergere la necessità di costruire un sistema normativo volto a mitigarne e limitarne gli effetti destabilizzanti. Le democrazie dovranno quindi trovare un equilibrio tra la necessità di regolare i contenuti prodotti e il rispetto dei principi di pluralità e libertà d’opinione

Pubblicato il 31 Gen 2024

Con l’avvento dell’intelligenza artificiale generativa e la sua capacità di produrre fake news e contenuti che possono influenzare l’opinione pubblica, è emersa la questione di quanto queste tecnologie possano condurre a una crisi dei processi democratici.

In particolare, il dibattito attuale si focalizza sulla possibilità di costruire un sistema normativo volto a mitigare e limitare gli effetti destabilizzanti che le nuove tecnologie possono avere sul dibattito politico.

In quattro miliardi chiamati al voto nel 2024, il rischio diventa planetario

Quale influenza ha l’AI sull’opinione pubblica

Nel 2024, infatti, 76 paesi terranno elezioni nazionali, comunitarie o locali, coinvolgendo il 51% della popolazione globale: da Taiwan, a inizio gennaio, fino agli Stati Uniti il 5 novembre, passando per la Bielorussia, l’Iran, la Russia, l’India, il Messico e le elezioni dell’Europarlamento nel mese di giugno.

Artificial Intelligence of Things: cos’è, come funziona e quali vantaggi offre

L’elemento di incognita attorno a queste tornate elettorali è quanta influenza è effettivamente in grado di esercitare la tecnologia nei confronti dell’opinione pubblica, e quanto efficaci potranno essere le misure volte a contenere i suoi effetti indesiderati.

L’intelligenza artificiale è, ad oggi, applicata in diversi campi, come la produzione di modelli previsionali, la raccolta e l’analisi dei dati e la produzione di contenuti testuali volti a supportare i processi decisionali o a diffondere le informazioni.

Intelligenza artificiale e il rischio del data poisoning

Inoltre, gli stessi algoritmi di apprendimento possono essere alimentati, anche in maniera deliberata, con dati erronei o compromessi (data poisoning) al fine di influenzare i contenuti prodotti dall’algoritmo e diffondere disinformazione.

Nel contesto delle elezioni politiche, i candidati o coloro che ne sostengono la corsa possono utilizzare tali tecnologie per produrre contenuti e rispondere in tempi brevi agli sviluppi della campagna elettorale, o diffondere informazioni manipolate o video deepfake sui propri avversari politici in modo da favorire la propria agenda.

Alla luce di ciò, appare chiaro come urga una risposta, sia a livello nazionale che internazionale, che possa regolamentare questa nuova tecnologia.

Il watermarking contro la diffusione di informazioni manipolate

Da un punto di vista prettamente tecnico, una possibile soluzione è il watermarking, una procedura che permette di distinguere i contenuti creati dall’AI da quelli creati dagli esseri umani; questa tecnica prevede l’apposizione di una filigrana digitale, cioè di informazioni inserite nel file multimediale che possono essere estratte in un secondo momento e che marcano permanentemente il documento digitale.

Tuttavia, questo tipo di precauzione è limitata dal fatto che tale filigrana può risultare tanto difficile da individuare quanto facile da rimuovere.

In questo ambito vale la pena citare la Coalition for Content Provenance and Authenticity (C2PA), un progetto nato dalla collaborazione tra le grandi aziende tech Adobe, Arm, Intel, Microsoft e Truepic; tale coalizione si pone l’obiettivo di contrastare la diffusione di informazioni false tramite la creazione e l’implementazione di standard tecnici che possano certificare l’origine e lo sviluppo dei contenuti digitali.

Un ulteriore progetto volto a limitare la disinformazione tramite l’utilizzo trasparente e responsabile dell’AI è il programma europeo vera.ai (VERification Assisted by Artificial Intelligence), avviato nel settembre 2022 e la cui conclusione è prevista per l’autunno del 2025.

Vera.ai sfrutta la collaborazione tra professionisti del settore mediatico e ricercatori accademici per assicurare l’affidabilità dei sistemi di AI; per esempio, il progetto promuove l’adozione di un approccio fact-checker-in-the-loop (ovvero una procedura che prevede che il modello di AI sia continuamente riallenato tramite i feedback degli utenti) e lo sviluppo di sistemi che controllino costantemente le fonti dei contenuti, incluse quelle già verificate.

Le iniziative dell’Unione europea contro la disinformazione

L’Unione Europea si è dimostrata particolarmente recettiva nei confronti dei potenziali effetti destabilizzanti che la disinformazione, in particolare quella generata tramite AI, può avere sui processi democratici interni, e si è attivata per regolamentare il suo utilizzo.

La Commissione Europea ha lanciato diverse iniziative volte a incrementare la trasparenza dei contenuti prodotti tramite questa nuova tecnologia: per esempio, nel 2022 è stato aggiornato il Code of Practice on Disinformation, un accordo volontario proposto dalla Commissione nel 2018, che prevede che le aziende firmatarie preparino dei report annuali di autovalutazione da sottoporre all’organo europeo.

La nuova versione prevede delle misure più robuste che possano assicurare maggiori standard di trasparenza: ad esempio, nell’ambito della comunicazione politica, le società responsabili dell’attività sono tenute a contrassegnare e a definire chiaramente i propri prodotti (sviluppando sistemi di labelling più efficienti) e impegnandosi a rendere pubblici sia gli sponsor sia la spesa pubblicitaria sostenuta per il relativo periodo di tempo.

Infine, il codice mira a rendere più consapevole l’utente, mettendo a sua disposizione degli strumenti che gli permettano di accedere a delle fonti autorevoli e verificate e che contribuiscano a determinare quando un’informazione è falsa.

L’impatto del Digital Services Act

Un’ulteriore iniziativa è il Digital Services Act (DSA), entrato in vigore a fine 2022; questa misura impone alle grandi piattaforme online l’adozione di un approccio risk-based, tramite il quale degli enti indipendenti verificano la sicurezza dei loro sistemi di gestione del rischio, in modo tale da evitare che questi sistemi vengano utilizzati in maniera non etica e non responsabile (ad esempio per creare campagne di disinformazione).

In seguito alla verifica, tali piattaforme sono tenute a implementare tutte le misure necessarie per mitigare i rischi, tra le quali vi è la possibilità di moderare e limitare i contenuti resi disponibili sulla piattaforma stessa.

Più nel dettaglio il DSA, oltre a vietare la pubblicità mirata che abbia come target specifico un soggetto minorenne, vieta l’utilizzo di dati sensibili (per esempio la posizione politica) per la profilazione dell’utente.

L’AI Act per garantire uno sviluppo sicuro della tecnologia

Sempre in ambito europeo, la normativa più recente in tema di regolamentazione tecnologica è l’Artificial Intelligence Act (AI Act), il cui obiettivo è quello di garantire che questa tecnologia sia sicura e che non leda i diritti fondamentali e i valori dell’Unione Europea, promuovendo, allo stesso tempo, gli investimenti e l’innovazione tecnologica a livello europeo.

In generale, la legge punta a responsabilizzare sia la tecnologia sia l’essere umano. Più nel dettaglio, richiede che i sistemi di IA a rischio elevato siano trasparenti, in modo tale che si possa comprendere il loro funzionamento e impedire che vengano utilizzati in maniera impropria, dannosa o discriminatoria.

Allo stesso tempo, il regolamento stabilisce che la responsabilità per i danni causati da un sistema di AI a rischio elevato debba essere attribuita sia al soggetto che ha sviluppato la tecnologia sia al soggetto che l’ha utilizzata.

Il giusto equilibrio tra innovazione tecnologica e democrazia

Le democrazie dovranno quindi trovare un equilibrio tra la necessità di regolare i contenuti prodotti da questa tecnologia e il rispetto dei principi della pluralità e della libertà d’opinione.

Relativamente al contesto europeo, il rapporto 2023 “Threat Landscape” dell’Agenzia dell’Unione Europea per la Sicurezza Informatica (ENISA) evidenzia la necessità di una maggiore attenzione in vista delle imminenti elezioni europee del 2024.

L’ENISA ha invitato alla vigilanza, in relazione ai recenti aumenti degli strumenti di intelligenza artificiale, incluse le chatbot come ChatGPT, ed ai 2.580 incidenti di sicurezza informatica correlati registrati da luglio 2022 a giugno 2023.

Il direttore esecutivo dell’agenzia, Juhan Lepassaar ha dichiarato che: “la fiducia nel processo elettorale dell’UE dipenderà in modo cruciale dalla nostra capacità di fare affidamento su infrastrutture di sicurezza informatica e sull’integrità e disponibilità delle informazioni”.

Cosa si può chiedere a ChatGPT? Scarica la guida 2023: consigli per l’uso, esempi ed opinioni

@RIPRODUZIONE RISERVATA


文章来源: https://www.cybersecurity360.it/nuove-minacce/tra-innovazione-tecnologica-e-democrazia-le-sfide-elettorali-dellai-possibili-soluzioni-regolatorie/
如有侵权请联系:admin#unsafe.sh