L’IA applicata nella sicurezza nazionale: sfide e soluzioni
文章探讨了人工智能(AI)在国家安全领域的应用与发展,分析了其带来的机遇与挑战。机遇包括自动化任务处理和提高决策效率;挑战则涉及工具选择、数据安全及系统整合等问题。文章还提供了选择AI工具的方法、数据管理建议及供应商评估指南,并强调了意大利公共管理在AI应用方面的指导原则及未来成功的关键因素。 2025-10-13 07:46:6 Author: www.cybersecurity360.it(查看原文) 阅读量:101 收藏

Cresce e si evolve l’applicazione dell’IA nel settore della sicurezza nazionale. Gli enti e le aziende che si occupano di difesa e sicurezza nazionale stanno ancora riflettendo sulle migliori strategie per integrare l’intelligenza artificiale nelle loro operazioni, mentre chi si occupa dell’acquisizione di nuove tecnologie non sa quale approccio adottare perché la tecnologia in commercio è già intrisa di IA.

In molti contesti, dal mondo della politica a quello dell’industria e della ricerca, si è discusso delle potenzialità e delle incertezze legate all’adozione dell’intelligenza artificiale, nonché dei criteri per scegliere gli strumenti più adeguati a soddisfare i rispettivi obiettivi.

Ecco le sfide legate alla differenziazione dei sistemi di IA e una guida per un uso appropriato di tali sistemi, per vedere come allinearli agli obiettivi.

L’AI nella sicurezza nazionale

Mentre le organizzazioni interessate si impegnano a sfruttare i sistemi di intelligenza artificiale, l’ingegneria dell’IA emerge come disciplina fondamentale per l’acquisizione, lo sviluppo, l’implementazione e la manutenzione di tali sistemi.

In questo senso, l’implementazione dell’intelligenza artificiale ha già prodotto benefici tangibili.

L’integrazione dell’intelligenza artificiale ha permesso di automatizzare attività quali la generazione di codice e lo smistamento dei documenti, consentendo così ai fruitori di dedicare tempo e risorse a iniziative di maggiore impatto.

Nonostante ciò, sono state segnalate una serie di difficoltà che possono essere
classificate come generali o specifiche.

Queste sfide includono l’identificazione di strumenti di IA in grado di supportare la strategia di sicurezza nazionale, lo sviluppo di metodologie di test per tali strumenti e la determinazione della provenienza delle informazioni generate dall’IA.

Queste criticità sottolineano la necessità di considerare fattori che vanno oltre l’aspetto superficiale di uno strumento di IA.

La scelta degli strumenti deve essere in linea con le reali esigenze operative, garantire l’affidabilità ed essere compatibile con i sistemi, le metodologie e i flussi di lavoro già in uso.

Le principali criticità

Analizziamo le principali sfide poste dall’intelligenza artificiale (IA) nei settori della difesa e della pubblica amministrazione.

L’implementazione dell’AI nei contesti di sicurezza nazionale presenta una serie di sfide uniche, diverse da quelle riscontrate nei contesti industriali e commerciali.

Per comprendere questa peculiarità, consideriamo i seguenti aspetti:

  • In questo settore il livello di rischio è elevato e le conseguenze di un fallimento sono ancora più gravi. Se gli errori nella programmazione dei chatbot commerciali possono causare confusione negli utenti, gli stessi errori nei rapporti di intelligence possono causare il fallimento delle missioni;
  • L’integrazione degli strumenti di IA con i sistemi legacy già in uso desta forti preoccupazioni, in quanto questi ultimi potrebbero non essere in grado di supportare il software moderno e diventare, di conseguenza, inutili;
  • La maggior parte dei dati utilizzati dalle applicazioni di sicurezza sono sensibili o riservati e, a volte, classificati; pertanto, è fondamentale che il protocollo di acquisizione e integrazione venga implementato in tutte le fasi del ciclo di vita dell’IA per garantirne l’integrità e la sicurezza.

Opportunità offerte

In primo luogo, per valutare correttamente il potenziale dell’intelligenza artificiale come soluzione, è fondamentale riconoscere che l’IA non è una panacea per tutte le situazioni.

A tale proposito, il mondo della ricerca ha delineato le seguenti linee guida per valutare l’utilizzo dell’IA:

  • Il primo passo del processo di acquisizione o integrazione è l’identificazione di un’esigenza operativa. È fondamentale selezionare una soluzione che non solo soddisfi i requisiti specificati, ma dimostri anche il potenziale per migliorare un problema particolare. La risposta potrebbe non essere una soluzione basata sull’intelligenza artificiale.
  • Sono fortemente gradite richieste di informazioni sui meccanismi operativi del modello. Si consiglia di prestare attenzione ed evitare l’uso di sistemi che non garantiscono trasparenza o spiegazioni chiare riguardo al loro funzionamento. I fornitori devono fornire una descrizione dettagliata del processo di formazione del modello, delle fonti di dati utilizzate e dei meccanismi decisionali impiegati.
  • Prima di avviare uno studio sull’implementazione, è indispensabile condurre una sperimentazione. Se possibile, si consiglia di condurre un esperimento su piccola scala in un contesto operativo reale prima di stipulare un contratto. L’obiettivo di questo programma pilota è triplice: in primo luogo, perfezionare i requisiti e la formulazione del contratto; in secondo luogo, valutare le prestazioni; e infine, gestire i rischi.
  • Si consiglia vivamente l’uso di sistemi modulari. Piuttosto che cercare soluzioni versatili, è consigliabile identificare strumenti che possano essere facilmente aggiunti o rimossi. Questo approccio migliora l’efficacia complessiva del sistema e riduce il rischio di dipendere da un unico fornitore.
  • È indispensabile integrare il controllo umano. I sistemi di intelligenza artificiale (IA) sono entità intrinsecamente dinamiche che richiedono un monitoraggio continuo, in particolare in ambienti ad alto rischio, sensibili o classificati, insieme a test e valutazioni.
  • È fondamentale cercare sistemi che abbiano una comprovata esperienza in termini di affidabilità. L’affidabilità dei sistemi di IA non è equivalente a quella dei software tradizionali; pertanto, è essenziale che gli utenti siano in grado di distinguere tra sistemi che funzionano correttamente e quelli che presentano malfunzionamenti. Un sistema affidabile deve assicurare un’esperienza in linea con le aspettative degli utenti finali e soddisfare i parametri di prestazione stabiliti.
  • È indispensabile integrare un piano basato sulle failure. Anche i modelli più performanti sono soggetti alla possibilità di errore. La progettazione dei sistemi di IA dovrebbe dare priorità alla resilienza per garantire il rilevamento e il ripristino in caso di problemi.

Scelta degli strumenti di AI

Introduciamo un quadro metodologico per allineare gli strumenti di intelligenza artificiale ai requisiti richiesti dall’obiettivo operativo.

La scelta di una soluzione dipende dalle esigenze specifiche, mentre la sua adeguatezza è determinata dal miglioramento apportato rispetto alla situazione attuale.

È responsabilità di chi si occupa dell’acquisizione assicurare che i sistemi di IA soddisfino le esigenze degli operatori e che il sistema funzioni correttamente nel loro ambiente di lavoro.

Sono stati sviluppati, per esempio, numerosi strumenti commerciali per i sistemi basati sul cloud che presuppongono un accesso ininterrotto a Internet. Al contrario, gli ambienti di difesa presentano spesso una connettività limitata e requisiti di sicurezza rigorosi.

Considerazioni rilevanti

  • Garantire la compatibilità del sistema di IA con l’ambiente operativo esistente è di fondamentale importanza. Non è sempre sensato presumere che le infrastrutture possano essere ricostruite da zero.
  • Prima di procedere con l’implementazione, è necessario effettuare un’approfondita valutazione del sistema nell’ambiente di destinazione designato e nelle circostanze date.
  • È fondamentale verificare la qualità, la variabilità e la fonte dei dati di addestramento, nonché la loro applicabilità alla situazione specifica. L’utilizzo di dati non conformi agli standard o sproporzionati può compromettere l’affidabilità del modello.
  • È indispensabile istituire dei meccanismi di feedback. Gli analisti e gli operatori devono possedere la capacità di identificare e documentare gli errori, favorendo così il miglioramento continuo del sistema.

Tuttavia è importante notare che non tutti gli strumenti di IA sono adatti all’integrazione nei processi operativi mission-critical. Prima di procedere con l’acquisizione di un sistema, è fondamentale che i fruitori comprendano in modo esaustivo i vincoli esistenti e le potenziali ripercussioni dell’integrazione di un sistema dinamico.

Ciò include la gestione dei rischi, che prevede l’identificazione dei potenziali pericoli e la formulazione di piani di emergenza per mitigarne l’impatto.

Dati, formazione e supervisione umana

La disponibilità di dati, la formazione e la supervisione umana sono fondamentali per il raggiungimento degli obiettivi prefissati, soprattutto in considerazione del contesto critico in cui operiamo. I dati sono la base di ogni sistema di intelligenza artificiale.

L’individuazione di set di dati adeguati e pertinenti al caso d’uso specifico è fondamentale per il successo del sistema. La preparazione dei dati per i sistemi di intelligenza artificiale può richiedere un notevole investimento in termini di tempo e risorse.

Inoltre, è fondamentale implementare un sistema di monitoraggio per individuare e correggere eventuali cambiamenti indesiderati nel comportamento del modello, noti generalmente come “model drift”. Tuttavia, queste modifiche potrebbero rivelarsi troppo impercettibili per essere avvertite dagli utenti.

È essenziale ricordare che l’IA non è in grado di valutare la propria efficacia né di comprendere le implicazioni dei propri risultati.

Per questo motivo, è fondamentale esercitare il discernimento e non riporre eccessiva fiducia in alcun sistema, così come non si ripone fiducia totale in un nuovo operatore umano.

Ciò sottolinea la necessità del coinvolgimento umano in tutte le fasi del ciclo di vita dell’IA, compresi la formazione, il collaudo e l’implementazione.

Non per ultimo, è anche possibile sfruttare le metodologie dell’intelligence per validare i risultati ottenuti.

Valutazione del fornitore

Per garantire il raggiungimento degli obiettivi prefissati, è fondamentale effettuare una valutazione preventiva e completa del fornitore per identificare eventuali problemi.

L’esperienza sul campo ha evidenziato che un elemento essenziale è rappresentato dalla trasparenza dei fornitori durante la fase di acquisizione.

È fondamentale che le organizzazioni evitino di collaborare con aziende che non sono in grado o non sono disposte a spiegare le funzionalità dei propri sistemi in termini rilevanti per il caso d’uso specifico.

Un fornitore, per esempio, dovrebbe essere in grado di discutere le fonti dei dati con cui è stato addestrato uno strumento, le trasformazioni apportate a tali dati, i dati con cui lo strumento sarà in grado di interagire e i risultati attesi. Ovviamente, senza che i fornitori siano tenuti a divulgare la propria proprietà intellettuale per condividere questo livello di informazioni.

È fondamentale sottolineare che potrebbero esserci altri potenziali problemi, quali:

  • La limitazione dell’accesso ai dati di formazione e alla documentazione è una questione critica che richiede un’attenta riflessione.
  • Gli strumenti in questione sono stati definiti “troppo complessi da spiegare”.
  • L’assenza di test indipendenti o di opzioni di revisione è un aspetto rilevante.
  • Il marketing è caratterizzato da un approccio eccessivamente ottimistico o da un senso di apprensione riguardo alle potenziali implicazioni dell’intelligenza artificiale.

Indipendentemente dalla familiarità degli addetti all’acquisizione nei confronti delle complessità tecniche, il fornitore è tenuto a fornire informazioni precise sulle funzionalità del sistema e sul proprio approccio alla gestione dei rischi.

L’obiettivo di questo studio è verificare l’idoneità, l’affidabilità e la preparazione del sistema a soddisfare i requisiti effettivi della missione.

Linee guida per l’adozione di IA nella PA italiana

Il 14 febbraio 2025 l’Agenzia per l’Italia Digitale (AgID), in collaborazione con altri enti nazionali, ha presentato la bozza delle Linee guida per l’adozione dell’Intelligenza Artificiale nella Pubblica Amministrazione (PA), in attuazione del Piano triennale per l’informatica 2024-2026.

L’obiettivo è fornire alle amministrazioni un quadro chiaro per introdurre l’IA nei servizi pubblici in modo sicuro, trasparente ed efficace.

L’IA può migliorare l’efficienza interna, ottimizzare l’uso delle risorse, personalizzare i servizi per cittadini e imprese, e favorire decisioni basate sui dati.

Le tecnologie di IA sono viste come strumenti strategici per modernizzare la macchina amministrativa e renderla più vicina ai bisogni reali della collettività.

Le linee guida definiscono venti principi raggruppati in cinque aree:

  • conformità e governance: rispetto delle leggi nazionali ed europee, gestione del rischio, protezione dei dati personali;
  • etica e inclusione: trasparenza, equità, accessibilità, prevenzione dei bias;
  • qualità ed affidabilità: uso di dati accurati, robustezza dei sistemi, supervisione umana;
  • innovazione e sostenibilità: efficienza operativa, miglioramento continuo, attenzione all’impatto ambientale;
  • formazione e organizzazione: sviluppo di competenze interne e potenziamento delle infrastrutture.

Il documento propone un percorso basato sul ciclo PDCA (Plan-Do-Check-Act):

  • strategia per l’IA: definizione di obiettivi e azioni in linea con missione e contesto della PA;
  • Analisi del contesto: valutazione dei fattori normativi, tecnologici e organizzativi;
  • Individuazione dei casi d’uso: scelta di progetti ad alto valore aggiunto, a partire da “quick win” a basso rischio;
  • Implementazione e monitoraggio: controllo costante delle prestazioni e aggiornamenti periodici;
  • Miglioramento continuo: adattamento alle evoluzioni tecnologiche e normative.

In conformità con l’AI Act europeo, i sistemi di IA sono classificati in base al rischio:

  • Vietati (rischio inaccettabile)
  • Alto rischio
  • Rischio limitato
  • Rischio minimo/nullo

Per i sistemi ad alto rischio sono previsti controlli stringenti in materia di sicurezza, diritti fondamentali e impatto etico. Le amministrazioni dovranno informare chiaramente i cittadini quando interagiscono con un sistema di IA, illustrandone gli scopi, il funzionamento e i limiti.

La partecipazione di stakeholder pubblici e privati è incoraggiata nella fase di progettazione. Elemento centrale delle linee guida è lo sviluppo di competenze specifiche sull’IA, sia per il personale interno che per i cittadini e le imprese, al fine di garantire un’adozione consapevole e inclusiva.

È auspicabile che siano varate linee guida specifiche per l’ambito della sicurezza nazionale.

Raccomandazioni

In sintesi, i suggerimenti più rilevanti introdotti possono essere così riassunti:

  • Implementare in maniera modulare. È fondamentale che i sistemi di IA dimostrino flessibilità e riutilizzabilità in un ampio spettro di casi d’uso.
  • Sviluppare un piano completo per l’integrazione legacy. È cruciale essere preparati a lavorare con sistemi legacy. La sostituzione non è generalmente considerata un’opzione praticabile.
  • Garantire la comprensibilità dei risultati. Occorre che i dirigenti e gli operatori abbiano una comprensione completa delle motivazioni alla base delle raccomandazioni specifiche del sistema.
  • Attenzionare le prestazioni sul campo. Bisogna riconoscere che un modello che funziona efficacemente in un ambiente di prova potrebbe non dimostrare prestazioni equivalenti in missioni reali.
  • Prestare attenzione alla gestione dei dati distorti. Dati di addestramento inadeguati possono comportare gravi rischi in operazioni delicate.
  • Applicare i metodi di validazione delle informazioni in uso dall’intelligence anche per validare i dati ricevuti dai modelli dell’IA.

Questi punti sottolineano l’importanza dei test, della trasparenza e della responsabilità nell’ambito dei programmi di IA applicati ai settori della sicurezza nazionale.

La domanda che dobbiamo porci è come possiamo integrare l’IA in modo efficace. Sebbene l’AI non sostituirà il processo decisionale umano, ha il potenziale per migliorarlo e potenziarlo.

L’integrazione dell’intelligenza artificiale nei quadri organizzativi ha il potenziale per migliorare la sicurezza nazionale, favorendo un processo decisionale più rapido.

L’implementazione di questa tecnologia ha la capacità di ridurre il carico di lavoro manuale delle persone e migliorare la consapevolezza negli ambienti complessi.

Tuttavia, è importante sottolineare che questi benefici non sono puramente casuali. Di conseguenza, è fondamentale che i team esercitino discernimento nell’acquisto e nell’integrazione degli strumenti di IA.

Per ottenere risultati ottimali, è fondamentale che affrontino l’integrazione dell’IA nei propri processi in modo coerente, con un’attenta pianificazione, test rigorosi, una supervisione attenta e una solida governance, elementi essenziali per qualsiasi sistema critico.

Il futuro successo dell’IA nella sicurezza nazionale

Sono state avanzate una serie di raccomandazioni per il futuro dell’intelligenza artificiale nel contesto della sicurezza nazionale.

Il futuro successo dell’IA nel settore nel settore della sicurezza nazionale dipenderà dalla creazione di una cultura che raggiunga un equilibrio tra innovazione e cautela.

Questo equilibrio può essere raggiunto adottando strategie adattive, definendo chiaramente le responsabilità e favorendo un’interazione continua tra esseri umani e IA, al fine di assicurare il raggiungimento efficace degli obiettivi della missione.

Per garantire il successo futuro, si consiglia alla comunità di acquisizione di adottare le seguenti misure:

  • Il processo di acquisizione del software deve continuare a evolversi per migliorare l’efficienza e l’efficacia dei risultati e, al contempo, garantire un approccio più iterativo e consapevole dei rischi. I sistemi di IA o i sistemi che includono componenti di IA ne miglioreranno l’efficacia.
  • È fondamentale esplorare le tecnologie disponibili. Acquisire familiarità con le tecnologie emergenti per comprenderne le funzionalità e utilizzarle in conformità con le direttive dell’organizzazione in materia di IA. Per esempio, l’intelligenza artificiale generativa (AI) può essere impiegata per attività che hanno una priorità minima e/o che richiedono una revisione umana, come la stesura di proposte, la creazione di contratti e la redazione di documentazione tecnica. Gli utenti devono fare attenzione a non diffondere informazioni private o riservate su sistemi pubblici e devono controllare con meticolosità i risultati per evitare la diffusione di informazioni false.
  • Il progresso della disciplina dell’ingegneria dell’intelligenza artificiale è fondamentale. AI Engineering fornisce supporto per lo sviluppo, l’integrazione e l’implementazione di funzionalità di intelligenza artificiale, nonché per l’acquisizione di tali funzionalità.

文章来源: https://www.cybersecurity360.it/cybersecurity-nazionale/lia-applicata-nellasicurezza-nazionale-sfide-e-soluzioni/
如有侵权请联系:admin#unsafe.sh