Cresce e si evolve l’applicazione dell’IA nel settore della sicurezza nazionale. Gli enti e le aziende che si occupano di difesa e sicurezza nazionale stanno ancora riflettendo sulle migliori strategie per integrare l’intelligenza artificiale nelle loro operazioni, mentre chi si occupa dell’acquisizione di nuove tecnologie non sa quale approccio adottare perché la tecnologia in commercio è già intrisa di IA.
In molti contesti, dal mondo della politica a quello dell’industria e della ricerca, si è discusso delle potenzialità e delle incertezze legate all’adozione dell’intelligenza artificiale, nonché dei criteri per scegliere gli strumenti più adeguati a soddisfare i rispettivi obiettivi.
Ecco le sfide legate alla differenziazione dei sistemi di IA e una guida per un uso appropriato di tali sistemi, per vedere come allinearli agli obiettivi.
Mentre le organizzazioni interessate si impegnano a sfruttare i sistemi di intelligenza artificiale, l’ingegneria dell’IA emerge come disciplina fondamentale per l’acquisizione, lo sviluppo, l’implementazione e la manutenzione di tali sistemi.
In questo senso, l’implementazione dell’intelligenza artificiale ha già prodotto benefici tangibili.
L’integrazione dell’intelligenza artificiale ha permesso di automatizzare attività quali la generazione di codice e lo smistamento dei documenti, consentendo così ai fruitori di dedicare tempo e risorse a iniziative di maggiore impatto.
Nonostante ciò, sono state segnalate una serie di difficoltà che possono essere
classificate come generali o specifiche.
Queste sfide includono l’identificazione di strumenti di IA in grado di supportare la strategia di sicurezza nazionale, lo sviluppo di metodologie di test per tali strumenti e la determinazione della provenienza delle informazioni generate dall’IA.
Queste criticità sottolineano la necessità di considerare fattori che vanno oltre l’aspetto superficiale di uno strumento di IA.
La scelta degli strumenti deve essere in linea con le reali esigenze operative, garantire l’affidabilità ed essere compatibile con i sistemi, le metodologie e i flussi di lavoro già in uso.
Analizziamo le principali sfide poste dall’intelligenza artificiale (IA) nei settori della difesa e della pubblica amministrazione.
L’implementazione dell’AI nei contesti di sicurezza nazionale presenta una serie di sfide uniche, diverse da quelle riscontrate nei contesti industriali e commerciali.
Per comprendere questa peculiarità, consideriamo i seguenti aspetti:
In primo luogo, per valutare correttamente il potenziale dell’intelligenza artificiale come soluzione, è fondamentale riconoscere che l’IA non è una panacea per tutte le situazioni.
A tale proposito, il mondo della ricerca ha delineato le seguenti linee guida per valutare l’utilizzo dell’IA:
Introduciamo un quadro metodologico per allineare gli strumenti di intelligenza artificiale ai requisiti richiesti dall’obiettivo operativo.
La scelta di una soluzione dipende dalle esigenze specifiche, mentre la sua adeguatezza è determinata dal miglioramento apportato rispetto alla situazione attuale.
È responsabilità di chi si occupa dell’acquisizione assicurare che i sistemi di IA soddisfino le esigenze degli operatori e che il sistema funzioni correttamente nel loro ambiente di lavoro.
Sono stati sviluppati, per esempio, numerosi strumenti commerciali per i sistemi basati sul cloud che presuppongono un accesso ininterrotto a Internet. Al contrario, gli ambienti di difesa presentano spesso una connettività limitata e requisiti di sicurezza rigorosi.
Tuttavia è importante notare che non tutti gli strumenti di IA sono adatti all’integrazione nei processi operativi mission-critical. Prima di procedere con l’acquisizione di un sistema, è fondamentale che i fruitori comprendano in modo esaustivo i vincoli esistenti e le potenziali ripercussioni dell’integrazione di un sistema dinamico.
Ciò include la gestione dei rischi, che prevede l’identificazione dei potenziali pericoli e la formulazione di piani di emergenza per mitigarne l’impatto.
La disponibilità di dati, la formazione e la supervisione umana sono fondamentali per il raggiungimento degli obiettivi prefissati, soprattutto in considerazione del contesto critico in cui operiamo. I dati sono la base di ogni sistema di intelligenza artificiale.
L’individuazione di set di dati adeguati e pertinenti al caso d’uso specifico è fondamentale per il successo del sistema. La preparazione dei dati per i sistemi di intelligenza artificiale può richiedere un notevole investimento in termini di tempo e risorse.
Inoltre, è fondamentale implementare un sistema di monitoraggio per individuare e correggere eventuali cambiamenti indesiderati nel comportamento del modello, noti generalmente come “model drift”. Tuttavia, queste modifiche potrebbero rivelarsi troppo impercettibili per essere avvertite dagli utenti.
È essenziale ricordare che l’IA non è in grado di valutare la propria efficacia né di comprendere le implicazioni dei propri risultati.
Per questo motivo, è fondamentale esercitare il discernimento e non riporre eccessiva fiducia in alcun sistema, così come non si ripone fiducia totale in un nuovo operatore umano.
Ciò sottolinea la necessità del coinvolgimento umano in tutte le fasi del ciclo di vita dell’IA, compresi la formazione, il collaudo e l’implementazione.
Non per ultimo, è anche possibile sfruttare le metodologie dell’intelligence per validare i risultati ottenuti.
Per garantire il raggiungimento degli obiettivi prefissati, è fondamentale effettuare una valutazione preventiva e completa del fornitore per identificare eventuali problemi.
L’esperienza sul campo ha evidenziato che un elemento essenziale è rappresentato dalla trasparenza dei fornitori durante la fase di acquisizione.
È fondamentale che le organizzazioni evitino di collaborare con aziende che non sono in grado o non sono disposte a spiegare le funzionalità dei propri sistemi in termini rilevanti per il caso d’uso specifico.
Un fornitore, per esempio, dovrebbe essere in grado di discutere le fonti dei dati con cui è stato addestrato uno strumento, le trasformazioni apportate a tali dati, i dati con cui lo strumento sarà in grado di interagire e i risultati attesi. Ovviamente, senza che i fornitori siano tenuti a divulgare la propria proprietà intellettuale per condividere questo livello di informazioni.
È fondamentale sottolineare che potrebbero esserci altri potenziali problemi, quali:
Indipendentemente dalla familiarità degli addetti all’acquisizione nei confronti delle complessità tecniche, il fornitore è tenuto a fornire informazioni precise sulle funzionalità del sistema e sul proprio approccio alla gestione dei rischi.
L’obiettivo di questo studio è verificare l’idoneità, l’affidabilità e la preparazione del sistema a soddisfare i requisiti effettivi della missione.
Il 14 febbraio 2025 l’Agenzia per l’Italia Digitale (AgID), in collaborazione con altri enti nazionali, ha presentato la bozza delle Linee guida per l’adozione dell’Intelligenza Artificiale nella Pubblica Amministrazione (PA), in attuazione del Piano triennale per l’informatica 2024-2026.
L’obiettivo è fornire alle amministrazioni un quadro chiaro per introdurre l’IA nei servizi pubblici in modo sicuro, trasparente ed efficace.
L’IA può migliorare l’efficienza interna, ottimizzare l’uso delle risorse, personalizzare i servizi per cittadini e imprese, e favorire decisioni basate sui dati.
Le tecnologie di IA sono viste come strumenti strategici per modernizzare la macchina amministrativa e renderla più vicina ai bisogni reali della collettività.
Le linee guida definiscono venti principi raggruppati in cinque aree:
Il documento propone un percorso basato sul ciclo PDCA (Plan-Do-Check-Act):
In conformità con l’AI Act europeo, i sistemi di IA sono classificati in base al rischio:
Per i sistemi ad alto rischio sono previsti controlli stringenti in materia di sicurezza, diritti fondamentali e impatto etico. Le amministrazioni dovranno informare chiaramente i cittadini quando interagiscono con un sistema di IA, illustrandone gli scopi, il funzionamento e i limiti.
La partecipazione di stakeholder pubblici e privati è incoraggiata nella fase di progettazione. Elemento centrale delle linee guida è lo sviluppo di competenze specifiche sull’IA, sia per il personale interno che per i cittadini e le imprese, al fine di garantire un’adozione consapevole e inclusiva.
È auspicabile che siano varate linee guida specifiche per l’ambito della sicurezza nazionale.
In sintesi, i suggerimenti più rilevanti introdotti possono essere così riassunti:
Questi punti sottolineano l’importanza dei test, della trasparenza e della responsabilità nell’ambito dei programmi di IA applicati ai settori della sicurezza nazionale.
La domanda che dobbiamo porci è come possiamo integrare l’IA in modo efficace. Sebbene l’AI non sostituirà il processo decisionale umano, ha il potenziale per migliorarlo e potenziarlo.
L’integrazione dell’intelligenza artificiale nei quadri organizzativi ha il potenziale per migliorare la sicurezza nazionale, favorendo un processo decisionale più rapido.
L’implementazione di questa tecnologia ha la capacità di ridurre il carico di lavoro manuale delle persone e migliorare la consapevolezza negli ambienti complessi.
Tuttavia, è importante sottolineare che questi benefici non sono puramente casuali. Di conseguenza, è fondamentale che i team esercitino discernimento nell’acquisto e nell’integrazione degli strumenti di IA.
Per ottenere risultati ottimali, è fondamentale che affrontino l’integrazione dell’IA nei propri processi in modo coerente, con un’attenta pianificazione, test rigorosi, una supervisione attenta e una solida governance, elementi essenziali per qualsiasi sistema critico.
Sono state avanzate una serie di raccomandazioni per il futuro dell’intelligenza artificiale nel contesto della sicurezza nazionale.
Il futuro successo dell’IA nel settore nel settore della sicurezza nazionale dipenderà dalla creazione di una cultura che raggiunga un equilibrio tra innovazione e cautela.
Questo equilibrio può essere raggiunto adottando strategie adattive, definendo chiaramente le responsabilità e favorendo un’interazione continua tra esseri umani e IA, al fine di assicurare il raggiungimento efficace degli obiettivi della missione.
Per garantire il successo futuro, si consiglia alla comunità di acquisizione di adottare le seguenti misure: