AI Security: proteggere l’adozione dell’intelligenza artificiale in azienda
好的,我需要帮用户总结这篇文章的内容,控制在100字以内。首先,我快速浏览文章,发现主要讨论了AI在企业中的应用及其带来的网络安全风险。 文章提到了几个关键点:Shadow AI、数据泄露、prompt injection等风险。专家Riccardo Benetazzo Pagnin强调了治理的重要性,建议企业通过提供内部AI工具来减少风险,并提到了Zero Trust和SASE等技术框架。 接下来,我需要将这些要点浓缩成一段简洁的文字,确保涵盖主要风险和解决方案。注意不要使用“文章内容总结”之类的开头,直接描述内容即可。 最后,检查字数是否在100字以内,并确保语言流畅自然。 </think> 人工智能在企业日常工作中广泛应用,但未经治理的人工智能带来数据泄露、prompt注入和Shadow AI等网络安全风险。专家指出需通过治理框架、技术措施和政策规范来应对这些挑战,确保人工智能的使用安全合规。 2026-4-13 13:54:49 Author: www.cybersecurity360.it(查看原文) 阅读量:9 收藏

L’intelligenza artificiale è ormai una componente strutturale del lavoro quotidiano in azienda, dove sono d’uso quotidiano strumenti di AI generativa, copilot per la produttività, chatbot a uso interno ed esterno. La diffusione è capillare, ma, spesso, non pianificata.

Tuttavia, questa accelerazione ha un costo che le organizzazioni non possono più ignorare: il rischio cyber legato all’AI non governata sta diventando uno dei fronti più delicati per CISO, CTO e responsabili IT.

Ne abbiamo parlato con Riccardo Benetazzo Pagnin, il Cybersecurity Leader & CISO Arsenalia, system integrator partner di Cloudflare, che ci ha guidato attraverso rischi, contromisure e framework operativi per affrontare l’AI Security in modo strutturato e governato.

Shadow AI, data leakage, prompt injection: i cyber rischi reali dell’AI non governata

Il punto di partenza è culturale prima ancora che tecnico. Bloccare l’accesso agli strumenti di intelligenza artificiale non è più una strategia praticabile. Le aziende devono fare i conti con una realtà in cui i propri dipendenti già utilizzano – spesso quotidianamente – una pluralità di tool AI, anche al di fuori di qualsiasi perimetro di governance aziendale.

“Le organizzazioni non possono più fare a meno di utilizzare le AI: chi parte dal principio ‘blocco tutto’ non è più sostenibile. Bisogna arrivarci con un occhio attento sulla parte security”, afferma Riccardo Benetazzo Pagnin, Cybersecurity Leader & CISO Arsenalia.

Il problema, infatti, non è l’AI in sé, ma l’AI non governata. E i rischi sono concreti, stratificati e, in larga parte, già documentati da incidenti reali.

Data leakage: il rischio più silenzioso

Il primo e più diffuso vettore di rischio è la perdita di informazioni sensibili.

Un dipendente che usa uno strumento AI non aziendale può – in modo del tutto involontario – condividere con un modello di terze parti dati riservati: contratti con i clienti, brevetti, strategie commerciali, piani finanziari.

La natura stessa degli LLM, addestrati su grandi quantità di testo, rende questi dati potenzialmente accessibili o tracciabili.

“Il rischio più ampio è quello della perdita di informazioni: un utente che usa un’AI non governata, magari involontariamente, può portare alla perdita di informazioni molto importanti per l’azienda – contratti coi clienti, brevetti eccetera”, mette in guardia Riccardo Benetazzo Pagnin.

Prompt injection: quando l’AI diventa un vettore d’attacco

Un secondo vettore, meno intuitivo ma altrettanto pericoloso, è quello della prompt injection.

Si tratta di tecniche con cui un attaccante – o anche un utente curioso con intenzioni malevole – manipola le istruzioni fornite a un agente AI per fargli rivelare informazioni protette o compiere azioni non autorizzate.

L’esempio, che riporta Riccardo Benetazzo Pagnin, è emblematico: una delle Big Four ha subito, attraverso il proprio chatbot pubblico, un’esfiltrazione di dati sensibili dei clienti.

“In due ore, qualcuno – per fortuna senza cattive intenzioni – è riuscito, con domande ben poste e fatte ad arte, a raccogliere tutte le informazioni dei loro clienti. Quindi il tema del prompt injection è assolutamente reale”, sottolinea il Cybersecurity Leader & CISO Arsenalia.

La lezione è che qualsiasi agente AI esposto al pubblico – anche il più semplice chatbot sul sito web aziendale – deve essere protetto prima di andare in produzione, con tecnologie mirate e specifiche, non con le stesse misure pensate per un sito web tradizionale.

Shadow AI: il problema che non si vede

L’altro grande tema è quello della Shadow AI ovvero l’insieme di strumenti AI utilizzati dai dipendenti al di fuori di qualsiasi controllo IT.

Un tempo si parlava di Shadow IT – con le applicazioni non autorizzate usate in azienda -, oggi il fenomeno si è amplificato perché qualsiasi servizio online, di qualsiasi natura, integra funzionalità AI che gli utenti tendono a sfruttare. Spesso però senza nemmeno rendersene conto.

Controlli di sicurezza efficaci senza sacrificare la produttività

La sfida non consiste nel trovare il modo di bloccare l’AI, ma di governarla. E governarla significa, prima di tutto, vederla. Il concetto di visibilità è il filo conduttore del framework proposto da Arsenalia.

“Il primo step è avere visibilità: conoscere cosa succede all’interno della propria organizzazione. Una volta avuta la visibilità, si possono prendere azioni corrette senza andare a sacrificare la produttività aziendale”, conferma Riccardo Benetazzo Pagnin.

Tuttavia, la visibilità, da sola, non basta. Deve essere affiancata da policy chiare – linee guida che gli utenti siano in grado di seguire – e da tecnologie in grado ditradurre quelle policy in azioni concrete ed enforcement automatizzato.

La logica è semplice e cartesiana: prima si capisce chi fa cosa, poi si definisce cosa è permesso, poi si fa in modo che le regole vengano rispettate automaticamente.

L’AI Security aziendale come alternativa affidabile

Una delle misure più efficaci – e spesso sottovalutate – è quella di mettere a disposizione degli utenti uno strumento AI gestito dall’azienda, eliminando la necessità di ricorrere a tool esterni non controllati.

“Il fattore ancora più importante è mettere a disposizione un’AI gestita: non consentire all’utente di andare sul ChatGPT free dove non abbiamo alcun tipo di controllo, ma scegliere uno strumento aziendale e far sì che gli utenti utilizzino quello”, avverte Riccardo Benetazzo Pagnin, il cui approccio si sintetizza nel binomio inossidabile di consapevolezza e governance, il presupposto indispensabile per qualsiasi strategia di AI Security.

Senza questo caposaldo, ogni altro controllo tecnico, infatti, rimane parziale.

NIS2, Dora, GDPR e AI Act: come allinearsi ai requisiti normativi europei nell’era dell’AI

Il quadro normativo europeo in materia di cyber security è in rapida evoluzione: NIS2, Dora, GDPR e, più recentemente, l’AI Act rappresentano un insieme di obblighi sempre più articolati per le organizzazioni.

Ma, secondo il Cybersecurity Leader & CISO Arsenalia, la complessità normativa non dovrebbe essere vissuta come un peso, bensì come una leva strategica.

“Chi governa queste tematiche all’interno dell’azienda dovrebbe sfruttare la normativa come leva per far sì che l’azienda adotti la governance e la tecnologia utile alla protezione”, mette in evidenza Riccardo Benetazzo Pagnin.

In pratica, le policy e le tecnologie di AI Security correttamente implementate sono già, di per sé, allineate ai principali requisiti normativi.

La strategia di base non cambia al variare delle singole norme: chi ha una visibilità reale sui flussi informativi, policy definite e tecnologia per applicarle, è già a un buon punto di partenza.

“Una volta che ho definito le policy e ho la tecnologia che è in grado di metterle in pratica, sono già a buon punto: posso allinearle man mano che la normativa evolve e mi chiede qualcosa di specifico”, precisa il Cybersecurity Leader & CISO Arsenalia.

Il nodo critico resta, ancora una volta, la visibilità: con la proliferazione di tool AI eterogenei – usati su device diversi, in contesti diversi -, ottenerla in modo realmente completo è una sfida tecnica significativa. Ed è proprio qui che la tecnologia diventa indispensabile, non accessoria.

Zero Trust e SASE esteso all’AI: l’approccio tecnologico per il controllo granulare

Governance e policy non sono sufficienti, se non vantano il supporto da parte di un’architettura tecnologica adeguata.

Il modello Zero Trust – che presuppone che nessun utente, dispositivo o flusso informativo sia affidabile per definizione – si adatta perfettamente alle esigenze di controllo dell’AI.

“Una strategia Zero Trust ci consente di definire prima quali sono le tecnologie che vogliamo far usare ai nostri utenti, invece di agire solo quando queste tecnologie le vediamo già sfruttate: a quel punto sarebbe troppo tardi”, mette in guardia Riccardo Benetazzo Pagnin.

Accanto al modello Zero Trust, l’approccio SASE (Secure Access Service Edge) di Arsenalia rappresenta la soluzione tecnologica più adeguata per estendere il controllo a tutti i dispositivi e i canali attraverso cui gli utenti accedono agli strumenti AI: non solo dal browser aziendale, ma anche da smartphone, tablet, PC personali.

“Ho bisogno di un’unica tecnologia che sia in grado di darmi visibilità cross e di fornirmi una policy di enforcement su tutti i device nella stessa modalità, perché il rischio è pensare di avere il controllo quando in realtà non è così: il rischio è di vederli sfuggire dall’altra parte”, avvisa Riccardo Benetazzo Pagnin.

Il caso del dipendente che aggira i controlli da remoto

A dimostrazione che la tecnologia da sola non è sufficiente senza una visione olistica, Riccardo Benetazzo Pagnin riporta un caso reale particolarmente illuminante.

“Un cliente aveva messo in piedi le policy, adottato la tecnologia, fatto tutto. Poi scopre che il suo utente prende il file, lo copia nel suo PC di casa e lo mette dentro le AI dal PC di casa. Ha aggirato tutto”, stigmatizza il Cybersecurity Leader & CISO Arsenalia, ricordando i rischi del Byod, del lavoro ibrido e dell’AI non governata.

Il messaggio è lampante: l’AI Security non può essere un silos separato, ma deve integrarsi con l’intera strategia di sicurezza aziendale.

Non si può fare a meno delle policy tradizionali né di quelle nuove legate all’AI: servono entrambe, integrate in un’unica strategia coerente.

Il framework operativo per CISO, CTO e IT Security: blindare l’adozione dell’AI in azienda

Con il 65% delle violazioni di dati aziendali legate all’AI che riguarda informazioni condivise, la domanda che si pongono oggi CISO, CTO e responsabili IT è concreta: da dove si comincia? Qual è il framework operativo?

Ecco, secondo Arsenalia, la risposta si articola su tre livelli:

  • Visibilità: capire quali strumenti AI vengono usati, da chi, su quali device e con quali dati.
  • Policy e governance: definire regole chiare su cosa è consentito, quali dati possono essere condivisi con strumenti AI e quali no.
  • Tecnologia abilitante: implementare soluzioni SASE e Zero Trust in grado di applicare le policy su tutti i canali e dispositivi, inclusi quelli cloud.

Il fronte dello sviluppo: proteggere anche il codice generato con l’AI

Il framework descritto daRiccardo Benetazzo Pagnin non è teorico, ma è ciò che Arsenalia porta concretamente ai propri clienti, attraverso una partnership strutturata con Cloudflare, la cui piattaforma è il pilastro tecnologico dell’intera strategia.

“Tutte le tecnologie descritte sono in partnership con Cloudflare, la cui tecnologia ci consente di governare tutti questi ambiti. Arsenalia mette a disposizione la propria competenza per portarla ai clienti e la integra all’interno dei propri servizi gestiti”, evidenzia il Cybersecurity Leader & CISO Arsenalia.

L’esempio più significativo è quello del SOC (Security Operations Center): un servizio di monitoraggio che non può più limitarsi a proteggere il perimetro tradizionale – endpoint, server, email – ma deve estendere la propria copertura agli strumenti AI aziendali e alle interazioni che vi avvengono.

“Se mi sfilano tutto con il tool sul mio sito web, il mio SOC è bravissimo, ma non ha raggiunto l’obiettivo. C’è dunque bisogno di integrare e cambiare anche il modello operativo dei system integrator, non solo dei clienti”, mette in guardia Riccardo Benetazzo Pagnin.

L’AI Security come priorità operativa del presente

L’AI Security non è un tema del futuro, bensì è una priorità operativa del presente.
Le organizzazioni che non governano l’adozione dell’AI si espongono a rischi reali – perdita di dati sensibili, prompt injection, aggiramento dei controlli – che le normative europee stanno già iniziando a presidiare.

Il messaggio di Arsenalia e Cloudflare è pragmatico: non si tratta di bloccare l’AI, perché sarebbe velleitario e dannoso come combattere contro i mulini a vento, ma di adottarla in modo consapevole e sicuro.

Visibilità, governance, tecnologia Zero Trust e SASE, e una protezione che segua l’utente ovunque vada – anche a casa propria – sono invece gli ingredienti di un framework di AI Security credibile, affidabile e sostenibile.

La strada giusta per un’AI governata passa da questo mix di competenza e sicurezza.


文章来源: https://www.cybersecurity360.it/soluzioni-aziendali/ai-security-proteggere-ladozione-dellintelligenza-artificiale-in-azienda/
如有侵权请联系:admin#unsafe.sh