Erano 193 i siti online che, nella rete di Portal Kombat, diffondevano disinformazione, quando, a febbraio, le autorità francesi hanno scoperto il network di propaganda russa.
Oggi, in vista delle elezioni europee dell’8 e 9 giugno, il network delle fake news può fare affidamento su oltre 220 siti per manipolare, influenzare e interferire, permettendo agli attori nation-state di minacciare le nostre democrazie.
“L’intelligence occidentale è consapevole dell’efficace macchina della propaganda russa e delle campagne di disinformazione passate e tutt’ora in corso”, commenta Pierluigi Paganini, analista di cyber security e CEO Cybhorus: “Si tratta di uomini ed infrastrutture impegnate nella diffusione di false notizie con lo scopo di destabilizzare le società democratiche“.
“L’operazione intercettata dall’intelligence francese è significativa”, conferma Luca Mella, Cyber Security Expert, “ci dà la dimensione del modo esatto in cui il nostro quotidiano digitale viene manipolato da attori come la Russia, in quel caso. Producendo oltre 1500 articoli falsi al giorno e facendo leva su reti di amplificazione sui social, il network di Portal Kombat, e altri come questo, radicalizzano i nostri connazionali, ed il danno ci riguarda da vicino: molti dei nostri cari, amici, parenti, e figli, ne sono presi di mira”. Ecco come mitigare il rischio di una minaccia globale.
L’8 e il 9 giugno circa 359 milioni di europei si recheranno alle urne per le elezioni europee. Ma sul voto incombe la spada di Damocle della disinformazione, con ben 224 siti appartenenti alla rete di Portal Kombat, secondo l’agenzia francese Viginum, impegnata nella lotta alle interferenze digitali straniere.
“Nel contesto contemporaneo, circa dagli anni ’50 fino ad oggi, è subentrata, ultimamente grazie ad algoritmi (intelligenza artificiale e social), una cosiddetta conflittualità non convenzionale“, spiega Marco Santarelli, Investigative analysis government entities advisory: “Ovvero si sono sviluppate delle azioni, non propriamente riconducibili a Stati o a persone, proprio per fuggire dalla responsabilità, concetti come quelli di disinformazione, fake news o addirittura campagne social. Questo permette ai mandanti di nascondersi, come è successo e sta succedendo per la guerra russo – ucraina, attraverso profili falsi e notizie false che attecchiscono con più velocità“.
Scritte in un italiano scorretto e sgrammaticato, finora senza l’ausilio dell’intelligenza artificiale per evitare traduzioni grossolane, le home page dei siti propongono contenuti di propaganda, frutto di notizie decontestualizzate, mescolando tuttavia notizie false o inventate a informazioni vere, per creare un mix esplosivo e disorientante in grado di confondere i lettori meno attenti.
Una notte buia e caotica della disinformazione dove “tutte le vacche sono nere” e solo gli esperti, o i lettori più accorti, sanno destreggiarsi, riconoscendo propaganda e fake news dall’informazione verificata.
Questa conflittualità non convenzionale “risulta comunque più violenta proprio perché utilizza un linguaggio diretto che raggiunge sempre più persone“, continua Santarelli: “Nell’ambito della sicurezza, ciò genera un’agitazione sommersa, propedeutica ad atti di terrorismo e di disequilibrio su accordi geopolitici stabiliti da tempo”.
“Per esempio nell’ambito del terrorismo, che definisco sociale, quello che sta succedendo è che, attraverso questi strumenti, si arriva direttamente alle persone, proprio perché quest’ultime hanno delle difese del pensiero critico abbassate per l’evidente capacità soporifera che hanno i social o i nostri device. Oggi l’essere umano fatica ad adattarsi ad una tecnologia sempre più veloce“, mette in evidenza Santarelli.
In questo clima, a preoccupare è il passaggio alla Gen AI. “Sebbene questo genere di attività non sia nuovo nella dottrina militare”, mette in guardia Paganini, “l’utilizzo dell’intelligenza artificiale generativa (AI) da parte di attori-nation state sta radicalmente cambiando il modello di propaganda utilizzato da Paesi come la Russia“. Anche se la Russia non ha certamente il monopolio, anzi, è in numerosa compagnia.
L’AI generativa potrebbe infatti rendere la disinformazione più difficile da riconoscere, eliminando la sintassi incerta, gli errori grammaticali e l’eccesso di refusi.
“Questi strumenti, facilmente reperibili sul mercato da chiunque”, continua Paganini, “consentono di generare contenuti efficaci a supporto di una narrativa in linea con gli obiettivi dell’intelligence russa. La manipolazione dell’opinione pubblica è quindi molto più agevole, l’intento è seminare discordia e minare la fiducia nelle istituzioni nei governi presi di mira.
Inoltre preoccupa l’estensione della rete di disinformazione russa, che include componenti in paesi dell’Africa e dell’Asia“.
Infatti, oltre alle elezioni europee, nel mirino della disinformazione ci sono anche Burkina Faso, Niger (in questi Paesi c’è stato un colpo di Stato), Repubblica Centrafricana, Taiwan, Giappone, Sud e Nord Corea. Ma non solo: Norvegia, Moldova, Albania, Macedonia del Nord, Bosnia-Erzegovina e Serbia sono altri Paesi dove non ha tregua il bombardamento di siti di propaganda e fake news.
“Preoccupa l’estensione della rete di disinformazione russa”, evidenzia Paganini, “che include componenti in paesi dell’Africa e dell’Asia. Va sottolineato tuttavia che la Russia non è l’unico Paese ad utilizzare tattiche di disinformazione online e che la minaccia è globale”.
L’unica vera arma per difendersi dalle fake news è la consapevolezza, oltre a usare le regole del giornalismo, come la verifica delle fonti.
“È fondamentale che i cittadini siano consapevoli di questa minaccia e adottino misure per proteggersi”, sottolinea Paganini, “è necessario ovviamente che i governi e le organizzazioni internazionali collaborino nelle attività di contrasto alla disinformazione online“.
Ma la consapevolezza dei cittadini non basta. “Tecnicamente, non basta la consapevolezza di questo fenomeno per sconfiggerlo poiché anche se sappiamo che l’uso gli strumenti di alta tecnologia possono fare del male, al contrario, sappiamo anche che possono procurare parecchie opportunità”, avverte Santarelli.
“Quindi il punto di equilibrio della questione risulta essere non tanto l’informazione, ma la formazione all’interno di processi educativi che possono portare una popolazione non ad adeguarsi in maniera passiva a queste forme di tecnologia, ma in maniera attiva, studiando prevalentemente i vari processi che si manifestano man mano“, conclude Santarelli: “Utile in tal senso è ‘Disinformare: ecco l’arma’ (Rubbettino editore 2024) di Mario Caligiuri, esperto di intelligence e pedagogia, e Alberto Pagani, docente di sociologia, l’antidoto alla disinformazione è l’istruzione”.
Inoltre servono sforzi ad ampio spettro. “Possibili azioni includono lo sviluppo di strumenti per rilevare tempestivamente campagne di disinformazione e tracciare gli attori dietro esse, per poterli prontamente bloccare“.
Gran parte della propaganda e disinformazione, infine, corre sui social e Telegram. “Ruolo cruciale è quello delle piattaforme di social media ed instant messaging, vettori della moderna propaganda“, avverte Paganini: “A queste aziende, che ricordiamo operano per profitto, fa chiesto di offrire una collaborazione attiva nel contrasto e nella eradicazione a contenuti condivisi con finalità di disinformazione”.
La lotta alla disinformazione online è una sfida complessa, “ma è una sfida che dobbiamo affrontare per proteggere le nostre democrazie e le nostre libertà”, conclude Paganini.