In un momento in cui le difese contro i cyber attacchi ai sistemi di intelligenza artificiale sono carenti e di fronte all’incremento delle sfide che interessano le infrastrutture critiche a livello nazionale, il National Institute of Standards and Technology (NIST) ha rilasciato un rapporto intitolato “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations (NIST.AI.100-2)“.
Le ragioni che hanno portato alla realizzazione del playbook partono dalla considerazione che l’attuale espansione vertiginosa del dominio cibernetico rende l’analisi di ogni singolo bit di dati un compito insormontabile dal punto di vista umano: di conseguenza, l’impiego dell’intelligenza artificiale si presenta come un elemento cruciale per garantire l’efficienza del sistema.
Le potenziali soluzioni proposte dall’IA promettono di rendere gestibile la sicurezza nello spazio cibernetico entro limiti temporali ragionevoli.
D’altra parte, la manipolazione tanto del software quanto dell’hardware nell’ambito dell’intelligenza artificiale può innescare conseguenze di notevole importanza, come è stato illustrato dalla creazione, già cinque anni fa, ad opera dei ricercatori dell’Università di Berkeley, di un sistema di guida autonoma capace di eludere un segnale di stop.
È sorto, dunque, l’inevitabile imperativo di implementare solide contromisure al fine di affrontare la complessità e la diversificazione delle minacce rivolte ai sistemi di intelligenza artificiale.
Il playbook del NIST sulla sicurezza informatica dell’IA
La pubblicazione del NIST offre un’analisi dettagliata delle minacce correlate al machine learning avversario, delineando con precisione le strategie destinate alla mitigazione di tali rischi.
Scopri gli impatti che l’obbligo di DPIA avrà per le aziende e nelle PA. Scarica la guida 2023
Il documento si focalizza principalmente sulla vulnerabilità intrinseca degli attuali sistemi di intelligenza artificiale quando esposti a dati di dubbia affidabilità, evidenziando come gli attaccanti sappiano sfruttare in maniera egregia questa debolezza.
Inoltre, sottolinea il NIST, attualmente non si dispone di un metodo assolutamente sicuro per preservare l’integrità dell’intelligenza artificiale da eventuali fenomeni di deviazione. Pertanto, gli sviluppatori e gli utilizzatori di intelligenza artificiale sono esortati a essere cauti di fronte a dichiarazioni che suggeriscano il contrario.
L’iniziativa intrapresa dall’agenzia governativa con sede a Gaithersburg (Maryland) si colloca all’interno del contesto più ampio dell'”Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence”, emanato il 30 ottobre scorso dal Presidente degli Stati Uniti, Joe Biden.
L’obiettivo di tale decreto presidenziale è quello di affidare a diverse agenzie governative la formulazione di linee guida e misure volte a promuovere lo sviluppo sicuro, protetto e affidabile dell’Intelligenza Artificiale.
Le quattro principali categorie di cyber attacco all’IA
Il rapporto del NIST fornisce una dettagliata analisi di quattro principali categorie di attacco:
- Evasion attacks;
- Poisoning attacks;
- Privacy attacks;
- Abuse attacks.
Una ulteriore categorizzazione è strutturata in ottemperanza a diversi parametri, tra cui il metodo e la fase del processo di apprendimento in cui l’attacco è attuato, gli obiettivi e le finalità dell’aggressore, nonché le competenze e la conoscenza di quest’ultimo relativamente al processo di apprendimento.
Evasion attacks (attacchi di evasione)
Il primo esempio citato nel documento sono gli Evasion attacks, i quali manifestano la propria presenza successivamente all’implementazione di un sistema di IA e perseguono l’obiettivo di modificare un input al fine di influenzare la risposta del sistema stesso.
Un esempio concreto di tali attacchi potrebbe consistere nell’inserire segnaletica inappropriata presso segnali di stop, al fine di indurre un veicolo con pilota automatico a interpretarli erroneamente come limiti di velocità.
Allo stesso modo, è possibile creare segnaletica stradale fuorviante al fine di deviare il veicolo dalla sua traiettoria predefinita.
Poisoning attacks (attacchi di avvelenamento)
I Poisoning attacks, al contrario, si manifestano durante la fase di apprendimento automatico del sistema mediante l’inserimento di dati corrotti.
Un esempio emblematico consiste nell’introdurre linguaggio inappropriato nei registri delle conversazioni, con l’obiettivo di indurre una chatbot a interpretare tali istanze come esempi consueti da impiegare nelle proprie interazioni con i clienti.
Privacy attacks (attacchi alla privacy)
Come nel caso precedentemente illustrato, anche i Privacy attacks si manifestano durante la fase di implementazione.
Questi attacchi rappresentano sforzi mirati a estrarre informazioni sensibili relative all’intelligenza artificiale o ai dati utilizzati per il suo addestramento, al fine di perseguire un uso improprio di tali informazioni.
In particolare, un attaccante potrebbe formulare una serie di domande legittime a una chatbot e successivamente utilizzare le risposte ottenute per condurre un processo di reverse engineering del modello, al fine di identificare i punti vulnerabili o dedurne le fonti.
Abuse attacks (attacchi di abuso)
Infine, gli attacchi di tipo Abuse si caratterizzano per l’inserimento di informazioni errate in una sorgente, come una pagina web o un documento online, successivamente assorbite da un sistema di intelligenza artificiale.
Diversamente dagli attacchi di tipo Poisoning menzionati in precedenza, gli attacchi di tipo Abuse mirano a fornire all’intelligenza artificiale dati erronei provenienti da una fonte legittima ma compromessa, allo scopo di alterarne l’utilizzo previsto.
Intelligenza artificiale, è sfida aperta tra chi attacca e chi si difende
Gli attacchi all’IA nell’ambito warfare
Spostando il focus sull’ambito warfare, l’integrazione dell’IA nei veicoli militari potrebbe consentire a individui con intenzioni malevole di intervenire nel sistema, modificare le impostazioni del veicolo armato e generare risultati potenzialmente catastrofici.
L’imperativo di potenziare le difese contro la possibile militarizzazione dell’intelligenza artificiale nei contesti di attacchi informatici assume pertanto una rilevanza senza precedenti.
Una delle questioni più rilevanti sorge in relazione alla potenziale fragilità intrinseca dei dati utilizzati. Questi ultimi, difatti, provengono da fonti di svariato tipo ed offrono agli attaccanti molteplici opportunità di comprometterne l’integrità.
Suddetta compromissione può verificarsi sia durante la fase di addestramento di un sistema di intelligenza artificiale, che successivamente, mentre l’IA perfeziona i propri comportamenti attraverso l’interazione con l’ambiente fisico, inducendola a manifestare comportamenti indesiderati.
I rischi della manipolazione del comportamento delle IA
Attualmente, gli attori avversari sono in grado di sfruttare l’intelligenza artificiale per orchestrare attacchi informatici mirati con straordinaria precisione, sfruttando vulnerabilità con una rapidità e portata inaccessibili agli hacker umani.
Nello specifico, l’intelligenza artificiale può essere impiegata per elaborare e-mail di phishing di eccezionale persuasione, sviluppare malware capace di adattarsi alle contromisure di sicurezza e persino automatizzare l’estrazione di dati di valore da sistemi compromessi.
Globalmente, le minacce associate all’intelligenza artificiale stanno registrando una preoccupante crescita. Nel periodo tra gennaio e febbraio 2023, gli studiosi di Darktrace hanno evidenziato un aumento del 135% nei casi di “ingegneria sociale innovativa”, in concomitanza con la diffusa adozione di ChatGPT.
La dinamicità intrinseca degli attacchi basati sull’IA spesso compromette l’efficacia dei meccanismi di difesa statici e le tradizionali misure di sicurezza informatica, quali software antivirus basati su firme, firewall e sistemi di rilevamento delle intrusioni, manifestano difficoltà nel tenere il passo, sottolineando l’urgente necessità di strategie di sicurezza informatica più avanzate.
Con l’incremento graduale di autonomia e complessità da parte dei sistemi di IA, il panorama delle minacce si evolve, richiedendo una costante attenzione e piano di intervento per prevenire possibili interruzioni.
Secondo il rapporto “Cybersecurity Forecast 2024: Insights for Future Planning” pubblicato da Google nel novembre scorso, le principali minacce per le infrastrutture critiche e la cyber sicurezza degli Stati Uniti e delle democrazie occidentali emergono dalle attività nel cyber spazio di quattro principali attori statali: la Repubblica Popolare Cinese, la Federazione Russa, la Repubblica Islamica dell’Iran e la Repubblica Popolare Democratica di Corea.
Questi Stati sono riconosciuti come protagonisti fondamentali nella generazione di rischi significativi per la sicurezza digitale e la stabilità delle infrastrutture critiche. In particolare, si evidenziano i precetti della dottrina Gerasimov adottata dal Cremlino, le operazioni di spionaggio cibernetico della Cina e le attività del gruppo Lazarus, che agisce sotto la guida di Pyongyang.
AI e cyber security, ecco che cosa possono fare l’una per l’altra
Conclusioni
Nell’esame del contesto attuale della sicurezza informatica in connessione all’intelligenza artificiale, emerge con chiarezza – come dimostrato dagli ultimi avvenimenti – la necessità impellente di promuovere un impegno congiunto a livello internazionale al fine di assicurare la sicurezza nei prossimi anni.
Sarà pertanto d’uopo che ogni entità governativa, organizzazione sovranazionale e stakeholder rilevante assuma un ruolo attivo nella formulazione e nell’implementazione di strategie avanzate e sostenibili in materia di sicurezza informatica.
Tuttavia, risulta essenziale sottolineare che solo mediante l’adozione di un approccio olistico e proattivo sarà possibile affrontare con successo le crescenti sfide insite nella dimensione cibernetica, sempre più evoluta e complessa.
Sei sicuro della conformità ESG dei tuoi prodotti? Elimina ogni dubbio scaricando l'eBook!
@RIPRODUZIONE RISERVATA