Il rapido sviluppo tecnologico avvenuto in questi ultimi anni ha portato a una crescente preoccupazione riguardo all’uso di intelligenza artificiale (AI) per la creazione di deepfake, soprattutto in concomitanza delle elezioni del 2024, che si terranno in numerosi Paesi, i quali comprendono complessivamente più del 41% della popolazione mondiale e il 42% del PIL globale.
Il 16 febbraio 2024, un consorzio di imprese operanti nel settore dell’informatica, tra le quali spiccano Google, Microsoft e OpenAI, ha stipulato un accordo tecnologico durante una conferenza tenutasi a Monaco proprio con lo scopo di contrastare l’impiego di deepfake nelle campagne elettorali.
L’accordo, noto come “Tech Accord to Combat against Deceptive Use of AI in 2024 Elections” ha ricevuto fin da subito attenzione a livello internazionale.
L’AI nell’arsenale dei cyber criminali: Microsoft e OpenAI svelano tecniche e sviluppi futuri
Limitare i rischi connessi a contenuti generati dall’AI
Attraverso tale accordo le società hanno delineato diversi obiettivi da conseguire entro il 2024.
Tra questi, la prevenzione emerge come obiettivo principale, al fine di limitare i rischi connessi a contenuti generati dall’intelligenza artificiale.
10 utilizzi dell'AI in azienda. Scopri i risultati dell'indagine
In secondo luogo, si punta a garantire la trasparenza sull’origine dei contenuti, fornendo la fonte originaria, e si mira a perfezionare le strategie di risposta agli incidenti che riguardano la creazione e la diffusione di contenuti multimediali creati artificialmente.
Infine, viene sottolineata la necessità di portare avanti iniziative di sensibilizzazione degli utenti, affinché siano in grado di riconoscere i contenuti generati dall’intelligenza artificiale, promuovendo una partecipazione informata e consapevole nell’ambiente digitale.
Per raggiungere tali obiettivi, le società sottoscrittrici dell’accordo hanno delineato una serie di strategie, che comprendono lo sviluppo e l’implementazione di tecnologie atte a mitigare i rischi connessi ai contenuti deepfake, supportando nel contempo lo sviluppo di innovazioni tecnologiche che permettano di identificare tempestivamente le immagini generate dall’AI in modo realistico, certificandone l’autenticità del contenuto.
Le aziende si impegneranno, altresì, a individuare e controllare la diffusione di tali contenuti sulle piattaforme online, adottando misure atte a gestire in maniera adeguata la diffusione dei contenuti generati artificialmente.
Nel rispetto dei principi di libertà di espressione e sicurezza, si adotteranno politiche coerenti e trasparenti, fornendo chiarezza al pubblico attraverso la divulgazione di documenti, aggiornamenti sull’origine della ricerca e ulteriori informazioni conformi agli impegni assunti.
Tali impegni prevedono anche un processo di sensibilizzazione del pubblico mediante campagne educative, lo sviluppo di strumenti open source e collaborazioni con organizzazioni e comunità.
A rischio la credibilità delle campagne politiche
L’AI generativa, attraverso algoritmi sofisticati, è in grado di manipolare video e immagini in modo tale da rendere estremamente difficile distinguere ciò che è autentico da ciò che è stato alterato.
Questa vulnerabilità mette a rischio la credibilità delle campagne politiche, poiché informazioni false e manipolazioni possono influenzare in modo significativo l’opinione pubblica.
Nel contesto delle elezioni globali, la portata di questa minaccia diventa ancora più ampia. Le campagne elettorali coinvolgono un pubblico vasto e diversificato, e la diffusione di deepfake può influenzare l’orientamento degli elettori su scala globale.
La manipolazione delle informazioni attraverso l’AI generativa può alterare il dibattito pubblico, minando la fiducia nel sistema democratico e alterando il processo decisionale degli elettori.
Le campagne politiche, tradizionalmente basate sulla trasparenza e sull’informazione accurata, si trovano ora di fronte a una sfida senza precedenti.
Le volte in cui l’AI ha compromesso il panorama democratico
Esistono almeno tre casi nei quali dei contenuti generati dall’intelligenza artificiale hanno compromesso il panorama democratico.
- Il primo caso, risalente al settembre 2023, ha coinvolto le elezioni parlamentari in Slovacchia, e ha riguardato la diffusione di un audio sui principali social media a soli due giorni dalle elezioni. L’audio riproduceva la voce di Michal Šimečka (leader del partito progressista, favorevole al sostegno alla NATO e all’assistenza militare all’Ucraina) e la voce di un giornalista, mentre pianificavano di manipolare le elezioni, comprando i voti della minoranza Rom del Paese.
- L’audio è stato ampiamente diffuso, dal momento che è riuscito a sfuggire alle politiche di Meta, mirate soprattutto ai video falsificati.
- Il secondo caso ha riguardato le elezioni presidenziali in Argentina nell’ottobre 2023. Anche in questo caso, si è trattato di registrazioni audio circolate online, che riproducevano la voce del candidato Carlos Melconian mentre offriva posizioni governative in cambio di favori sessuali.
- Il terzo caso, infine, ha riguardato una robocall che riproduceva la voce del presidente degli Stati Uniti Joe Biden, il quale cercava di dissuadere gli elettori dal votare alle primarie del New Hampshire, tenutesi lo scorso gennaio. Questo precedente ha sollevato preoccupazioni sull’utilizzo di deepfake sempre più accurati e sofisticati, specie all’approssimarsi delle elezioni presidenziali.
Il watermarking sui contenuti generati dall’AI potrebbe non bastare
In tal senso, preoccupa il vuoto normativo statunitense. Secondo la National Conference of State Legislatures, organo che monitora le proposte di legge, nel 2023 soltanto tre Stati hanno adottato provvedimenti legislativi in materia.
Altri sette Stati hanno presentato proposte di legge; tuttavia, queste iniziative non hanno portato a risultati concreti.
Le proposte legislative avanzate dal Senato e dalla Camera degli Stati Uniti volte a regolamentare l’utilizzo di deepfake nell’ambito delle campagne elettorali non hanno fatto progressi significativi.
Nonostante l’espressa volontà da parte della Commissione Elettorale Federale di regolamentare i deepfake negli annunci elettorali, non sono seguiti risultati tangibili di tale iniziativa.
Lo scorso ottobre, il presidente Joe Biden ha emesso un ordine esecutivo incaricando il Dipartimento del Commercio di sviluppare linee guida sul watermarking dei contenuti generati dall’AI, al fine di segnalare quando un contenuto multimediale è stato creato artificialmente e come è stato successivamente modificato.
Tuttavia, questo metodo, utile quando applicato a contenuti testuali, può rivelarsi inefficace nel caso di video e immagini, in quanto i metadati possono essere facilmente modificati.
Protocollo C2PA, contro deep fake e disinformazione: certificazione dei contenuti generati dall’AI
Conclusioni
La collaborazione tra diversi attori, pubblici e privati, unita a iniziative normative mirate, si presenta come imperativa per proteggere l’integrità del processo democratico e assicurare che gli elettori possano discernere accuratamente tra informazioni autentiche e manipolazioni nell’ambiente digitale sempre più complesso.
L’implementazione di strategie, focalizzate sullo sviluppo, la diffusione e il monitoraggio dei risultati, costituirà un contributo essenziale per attenuare alcuni degli impatti negativi che l’AI generativa può esercitare sull’integrità complessiva delle informazioni, specialmente durante periodi cruciali come le elezioni.
In particolare, l’accordo sottoscritto a Monaco, seppur encomiabile nel suo intento di prevenire e mitigare tali rischi, mette in evidenza la necessità di un impegno più esteso a livello globale per affrontare questa minaccia emergente.
AI Generativa: strategie per non perdere il treno dell’automazione intelligente
@RIPRODUZIONE RISERVATA