L’intelligenza artificiale è ormai una componente strutturale del lavoro quotidiano in azienda, dove sono d’uso quotidiano strumenti di AI generativa, copilot per la produttività, chatbot a uso interno ed esterno. La diffusione è capillare, ma, spesso, non pianificata.
Tuttavia, questa accelerazione ha un costo che le organizzazioni non possono più ignorare: il rischio cyber legato all’AI non governata sta diventando uno dei fronti più delicati per CISO, CTO e responsabili IT.
Ne abbiamo parlato con Riccardo Benetazzo Pagnin, il Cybersecurity Leader & CISO Arsenalia, system integrator partner di Cloudflare, che ci ha guidato attraverso rischi, contromisure e framework operativi per affrontare l’AI Security in modo strutturato e governato.
Il punto di partenza è culturale prima ancora che tecnico. Bloccare l’accesso agli strumenti di intelligenza artificiale non è più una strategia praticabile. Le aziende devono fare i conti con una realtà in cui i propri dipendenti già utilizzano – spesso quotidianamente – una pluralità di tool AI, anche al di fuori di qualsiasi perimetro di governance aziendale.
“Le organizzazioni non possono più fare a meno di utilizzare le AI: chi parte dal principio ‘blocco tutto’ non è più sostenibile. Bisogna arrivarci con un occhio attento sulla parte security”, afferma Riccardo Benetazzo Pagnin, Cybersecurity Leader & CISO Arsenalia.
Il problema, infatti, non è l’AI in sé, ma l’AI non governata. E i rischi sono concreti, stratificati e, in larga parte, già documentati da incidenti reali.
Il primo e più diffuso vettore di rischio è la perdita di informazioni sensibili.
Un dipendente che usa uno strumento AI non aziendale può – in modo del tutto involontario – condividere con un modello di terze parti dati riservati: contratti con i clienti, brevetti, strategie commerciali, piani finanziari.
La natura stessa degli LLM, addestrati su grandi quantità di testo, rende questi dati potenzialmente accessibili o tracciabili.
“Il rischio più ampio è quello della perdita di informazioni: un utente che usa un’AI non governata, magari involontariamente, può portare alla perdita di informazioni molto importanti per l’azienda – contratti coi clienti, brevetti eccetera”, mette in guardia Riccardo Benetazzo Pagnin.
Un secondo vettore, meno intuitivo ma altrettanto pericoloso, è quello della prompt injection.
Si tratta di tecniche con cui un attaccante – o anche un utente curioso con intenzioni malevole – manipola le istruzioni fornite a un agente AI per fargli rivelare informazioni protette o compiere azioni non autorizzate.
L’esempio, che riporta Riccardo Benetazzo Pagnin, è emblematico: una delle Big Four ha subito, attraverso il proprio chatbot pubblico, un’esfiltrazione di dati sensibili dei clienti.
“In due ore, qualcuno – per fortuna senza cattive intenzioni – è riuscito, con domande ben poste e fatte ad arte, a raccogliere tutte le informazioni dei loro clienti. Quindi il tema del prompt injection è assolutamente reale”, sottolinea il Cybersecurity Leader & CISO Arsenalia.
La lezione è che qualsiasi agente AI esposto al pubblico – anche il più semplice chatbot sul sito web aziendale – deve essere protetto prima di andare in produzione, con tecnologie mirate e specifiche, non con le stesse misure pensate per un sito web tradizionale.
L’altro grande tema è quello della Shadow AI ovvero l’insieme di strumenti AI utilizzati dai dipendenti al di fuori di qualsiasi controllo IT.
Un tempo si parlava di Shadow IT – con le applicazioni non autorizzate usate in azienda -, oggi il fenomeno si è amplificato perché qualsiasi servizio online, di qualsiasi natura, integra funzionalità AI che gli utenti tendono a sfruttare. Spesso però senza nemmeno rendersene conto.
La sfida non consiste nel trovare il modo di bloccare l’AI, ma di governarla. E governarla significa, prima di tutto, vederla. Il concetto di visibilità è il filo conduttore del framework proposto da Arsenalia.
“Il primo step è avere visibilità: conoscere cosa succede all’interno della propria organizzazione. Una volta avuta la visibilità, si possono prendere azioni corrette senza andare a sacrificare la produttività aziendale”, conferma Riccardo Benetazzo Pagnin.
Tuttavia, la visibilità, da sola, non basta. Deve essere affiancata da policy chiare – linee guida che gli utenti siano in grado di seguire – e da tecnologie in grado ditradurre quelle policy in azioni concrete ed enforcement automatizzato.
La logica è semplice e cartesiana: prima si capisce chi fa cosa, poi si definisce cosa è permesso, poi si fa in modo che le regole vengano rispettate automaticamente.
Una delle misure più efficaci – e spesso sottovalutate – è quella di mettere a disposizione degli utenti uno strumento AI gestito dall’azienda, eliminando la necessità di ricorrere a tool esterni non controllati.
“Il fattore ancora più importante è mettere a disposizione un’AI gestita: non consentire all’utente di andare sul ChatGPT free dove non abbiamo alcun tipo di controllo, ma scegliere uno strumento aziendale e far sì che gli utenti utilizzino quello”, avverte Riccardo Benetazzo Pagnin, il cui approccio si sintetizza nel binomio inossidabile di consapevolezza e governance, il presupposto indispensabile per qualsiasi strategia di AI Security.
Senza questo caposaldo, ogni altro controllo tecnico, infatti, rimane parziale.
Il quadro normativo europeo in materia di cyber security è in rapida evoluzione: NIS2, Dora, GDPR e, più recentemente, l’AI Act rappresentano un insieme di obblighi sempre più articolati per le organizzazioni.
Ma, secondo il Cybersecurity Leader & CISO Arsenalia, la complessità normativa non dovrebbe essere vissuta come un peso, bensì come una leva strategica.
“Chi governa queste tematiche all’interno dell’azienda dovrebbe sfruttare la normativa come leva per far sì che l’azienda adotti la governance e la tecnologia utile alla protezione”, mette in evidenza Riccardo Benetazzo Pagnin.
In pratica, le policy e le tecnologie di AI Security correttamente implementate sono già, di per sé, allineate ai principali requisiti normativi.
La strategia di base non cambia al variare delle singole norme: chi ha una visibilità reale sui flussi informativi, policy definite e tecnologia per applicarle, è già a un buon punto di partenza.
“Una volta che ho definito le policy e ho la tecnologia che è in grado di metterle in pratica, sono già a buon punto: posso allinearle man mano che la normativa evolve e mi chiede qualcosa di specifico”, precisa il Cybersecurity Leader & CISO Arsenalia.
Il nodo critico resta, ancora una volta, la visibilità: con la proliferazione di tool AI eterogenei – usati su device diversi, in contesti diversi -, ottenerla in modo realmente completo è una sfida tecnica significativa. Ed è proprio qui che la tecnologia diventa indispensabile, non accessoria.
Governance e policy non sono sufficienti, se non vantano il supporto da parte di un’architettura tecnologica adeguata.
Il modello Zero Trust – che presuppone che nessun utente, dispositivo o flusso informativo sia affidabile per definizione – si adatta perfettamente alle esigenze di controllo dell’AI.
“Una strategia Zero Trust ci consente di definire prima quali sono le tecnologie che vogliamo far usare ai nostri utenti, invece di agire solo quando queste tecnologie le vediamo già sfruttate: a quel punto sarebbe troppo tardi”, mette in guardia Riccardo Benetazzo Pagnin.
Accanto al modello Zero Trust, l’approccio SASE (Secure Access Service Edge) di Arsenalia rappresenta la soluzione tecnologica più adeguata per estendere il controllo a tutti i dispositivi e i canali attraverso cui gli utenti accedono agli strumenti AI: non solo dal browser aziendale, ma anche da smartphone, tablet, PC personali.
“Ho bisogno di un’unica tecnologia che sia in grado di darmi visibilità cross e di fornirmi una policy di enforcement su tutti i device nella stessa modalità, perché il rischio è pensare di avere il controllo quando in realtà non è così: il rischio è di vederli sfuggire dall’altra parte”, avvisa Riccardo Benetazzo Pagnin.
A dimostrazione che la tecnologia da sola non è sufficiente senza una visione olistica, Riccardo Benetazzo Pagnin riporta un caso reale particolarmente illuminante.
“Un cliente aveva messo in piedi le policy, adottato la tecnologia, fatto tutto. Poi scopre che il suo utente prende il file, lo copia nel suo PC di casa e lo mette dentro le AI dal PC di casa. Ha aggirato tutto”, stigmatizza il Cybersecurity Leader & CISO Arsenalia, ricordando i rischi del Byod, del lavoro ibrido e dell’AI non governata.
Il messaggio è lampante: l’AI Security non può essere un silos separato, ma deve integrarsi con l’intera strategia di sicurezza aziendale.
Non si può fare a meno delle policy tradizionali né di quelle nuove legate all’AI: servono entrambe, integrate in un’unica strategia coerente.
Con il 65% delle violazioni di dati aziendali legate all’AI che riguarda informazioni condivise, la domanda che si pongono oggi CISO, CTO e responsabili IT è concreta: da dove si comincia? Qual è il framework operativo?
Ecco, secondo Arsenalia, la risposta si articola su tre livelli:
Il framework descritto daRiccardo Benetazzo Pagnin non è teorico, ma è ciò che Arsenalia porta concretamente ai propri clienti, attraverso una partnership strutturata con Cloudflare, la cui piattaforma è il pilastro tecnologico dell’intera strategia.
“Tutte le tecnologie descritte sono in partnership con Cloudflare, la cui tecnologia ci consente di governare tutti questi ambiti. Arsenalia mette a disposizione la propria competenza per portarla ai clienti e la integra all’interno dei propri servizi gestiti”, evidenzia il Cybersecurity Leader & CISO Arsenalia.
L’esempio più significativo è quello del SOC (Security Operations Center): un servizio di monitoraggio che non può più limitarsi a proteggere il perimetro tradizionale – endpoint, server, email – ma deve estendere la propria copertura agli strumenti AI aziendali e alle interazioni che vi avvengono.
“Se mi sfilano tutto con il tool sul mio sito web, il mio SOC è bravissimo, ma non ha raggiunto l’obiettivo. C’è dunque bisogno di integrare e cambiare anche il modello operativo dei system integrator, non solo dei clienti”, mette in guardia Riccardo Benetazzo Pagnin.
L’AI Security non è un tema del futuro, bensì è una priorità operativa del presente.
Le organizzazioni che non governano l’adozione dell’AI si espongono a rischi reali – perdita di dati sensibili, prompt injection, aggiramento dei controlli – che le normative europee stanno già iniziando a presidiare.
Il messaggio di Arsenalia e Cloudflare è pragmatico: non si tratta di bloccare l’AI, perché sarebbe velleitario e dannoso come combattere contro i mulini a vento, ma di adottarla in modo consapevole e sicuro.
Visibilità, governance, tecnologia Zero Trust e SASE, e una protezione che segua l’utente ovunque vada – anche a casa propria – sono invece gli ingredienti di un framework di AI Security credibile, affidabile e sostenibile.
La strada giusta per un’AI governata passa da questo mix di competenza e sicurezza.