AI e cyber security: l’intelligenza artificiale è sia risorsa sia minaccia per la sicurezza digitale
好,我需要帮用户总结这篇文章的内容,控制在100字以内。首先,我快速浏览文章,发现主要讨论AI在网络安全中的双刃剑作用。一方面AI增强了防御能力,比如异常检测和自动化响应;另一方面,攻击者也在利用AI进行更复杂的攻击,如深度伪造和数据泄露分析。 接下来,文章提到了AI带来的新威胁,比如虚假内容和自动化攻击工具的滥用。此外,还强调了AI对经济稳定的影响以及提升公众意识的重要性。最后,文章呼吁整合AI与网络安全,并加强跨领域合作。 现在我需要将这些要点浓缩成100字以内的总结。确保涵盖AI的防御和进攻作用、新威胁、经济影响、公众意识以及整合需求。避免使用复杂的术语,保持简洁明了。 最终总结应包括:AI在网络安全中的双重影响、具体应用实例、带来的新风险、经济和社会层面的影响、以及应对措施如教育和合作。 </think> 人工智能正在深刻改变网络安全格局,既作为防御工具又为攻击者提供助力。深度伪造技术使视觉信任面临挑战,同时AI也放大了风险并威胁经济稳定。提升公众安全意识与跨领域合作是应对这一挑战的关键。 2025-12-12 16:1:34 Author: www.cybersecurity360.it(查看原文) 阅读量:2 收藏

L’intelligenza artificiale sta ridefinendo in profondità il panorama della sicurezza informatica. Non solo come strumento difensivo, ma anche come leva operativa per gli attaccanti.

È quanto emerge dagli interventi di Alessio Pennasilico, Luca Bechelli e Anna Vaccarelli durante la presentazione del Rapporto Clusit 2025, che dedica una parte significativa all’evoluzione del rapporto tra AI e cyber security, sottolineando come i modelli generativi e gli automatismi abbiano ampliato sia le possibilità di protezione sia l’efficacia delle minacce.

Dalla difesa all’offesa: la nuova strategia del cybercrime

Per anni l’AI è stata descritta come una risorsa chiave per il rafforzamento delle difese digitali: algoritmi di machine learning per il rilevamento delle anomalie, analisi predittive dei rischi, automazione delle risposte agli incidenti.

Tutto questo rimane valido, ma oggi il quadro è cambiato radicalmente. «Il tema non è più l’hype mediatico sull’intelligenza artificiale, ma il modo in cui viene realmente utilizzata dagli aggressori», afferma Pennasilico.

La novità riguarda la capacità dell’AI di rendere più semplice l’analisi di enormi quantità di dati rubati. Bechelli osserva che «prima del 2022, correlare miliardi di dati raccolti nel dark web era complesso. Oggi è banale: le AI possono essere addestrate a farlo».

Le bande criminali non devono più scandagliare manualmente le informazioni sottratte, ma possono affidarsi a sistemi capaci di individuare in pochi secondi credenziali, password e relazioni tra individui e aziende.

Pennasilico aggiunge che anche la qualità delle truffe è cambiata: «Oggi gli attacchi di social engineering possono includere fatture autentiche, IBAN reali e testi perfettamente scritti. L’unico errore, spesso, è nel conto bancario dove finiscono i soldi». La progressiva scomparsa degli indizi linguistici – un tempo considerati segnali utili – dimostra il salto qualitativo dell’attacco digitale.

Deepfake e contenuti manipolati: la fine della fiducia visiva

La manipolazione di immagini, voci e video genera un ulteriore livello di rischio. Secondo Pennasilico, «oggi le tecniche di deepfake non sono più curiosità tecnologiche, ma strumenti usati in campagne di phishing, truffe aziendali e frodi di identità». L’AI consente di creare videoconferenze simulate, messaggi vocali falsificati o contenuti visivi difficili da distinguere dalla realtà.

Bechelli sottolinea che molti di questi sistemi imitano l’essere umano anche nei comportamenti sbagliati: «L’IA si comporta esattamente come un essere umano: risponde a richieste ingannevoli e commette errori simili ai nostri. L’abbiamo resa così simile a noi da trasferirle anche le nostre debolezze».

La perdita di affidabilità percettiva rende più complessa la verifica delle identità digitali e delle comunicazioni interne, introducendo un nuovo tipo di vulnerabilità che richiede approcci culturali e non solo tecnici.

L’intelligenza artificiale come amplificatore di rischio

Il rischio associato all’AI non riguarda soltanto il suo utilizzo da parte degli aggressori. Anche i sistemi basati su modelli predittivi o chatbot integrati nei processi aziendali possono diventare punti deboli se non adeguatamente gestiti. Pennasilico evidenzia che ogni innovazione che introduce automatismi può ampliare la superficie d’attacco.

Il Rapporto Clusit mostra come diversi incidenti recenti, pur non classificati come “attacchi di AI”, siano stati facilitati da automazioni non monitorate o da sistemi di analisi comportamentale che hanno reagito in modo imprevisto a input malevoli. L’IA, dunque, non è solo una nuova arma ma anche un nuovo bersaglio: un elemento critico che deve essere trattato con lo stesso rigore riservato alle infrastrutture di rete.

Una minaccia alla stabilità economica: cybersecurity e sostenibilità

Pennasilico collega il tema dell’AI a una dimensione più ampia: la sostenibilità digitale. Un attacco basato su AI può bloccare la produzione di un’impresa, interrompere pagamenti o generare effetti a catena sulla supply chain. «Ogni incidente non rappresenta solo una perdita di bit o di euro. Può compromettere la continuità di un’azienda, la sicurezza di un territorio, la fiducia dei cittadini», spiega.

Il riferimento è anche al recente caso di un grande gruppo industriale costretto a fermare i pagamenti a fornitori e dipendenti dopo un attacco, un episodio che ha richiesto l’intervento governativo. La cyber security è quindi sempre più un tema che incide sulla stabilità economica e sulla competitività.

I divari digitali accentuano questa vulnerabilità: le grandi imprese hanno risorse e competenze per proteggersi, mentre le PMI risultano spesso più esposte. L’AI, se implementata senza adeguati controlli, rischia di ampliare ulteriormente questa distanza.

Formazione e consapevolezza: il fattore umano come barriera

Un punto ricorrente negli interventi dei relatori riguarda la necessità di rafforzare la cultura della sicurezza. «L’anello debole della sicurezza è sempre l’uomo», ricorda Anna Vaccarelli, presidente del Clusit. L’associazione sta lavorando su progetti di alfabetizzazione digitale rivolti a studenti, manager e cittadini senior, per rafforzare le competenze necessarie a riconoscere manipolazioni, verificare le fonti e comprendere il funzionamento delle tecnologie generative.

Bechelli aggiunge che le normative europee – come la NIS2 o il Cyber Resilience Act – stanno spingendo verso una maggiore governance del rischio digitale, ma senza consapevolezza diffusa ogni obbligo rischia di tradursi in un adempimento formale.

La collaborazione tra pubblico, privato e mondo accademico è considerata essenziale per costruire un ecosistema resiliente, capace di anticipare le minacce basate su AI e di affrontarle in modo coordinato.

Verso un nuovo equilibrio tra intelligenza artificiale e sicurezza

Il Rapporto Clusit 2025 mette in evidenza un punto chiave: non è più possibile trattare l’AI e la cybersecurity come ambiti separati. Le due dimensioni sono ormai interdipendenti. Pennasilico sintetizza così la trasformazione in corso: «Non possiamo più pensare alla cyber security come a una disciplina separata. È parte integrante della società digitale che stiamo costruendo».

L’integrazione dell’AI nei processi di difesa e nei sistemi operativi richiede un approccio critico, in cui trasparenza, responsabilità e verifica diventano elementi centrali. La sfida non riguarda quindi solo l’innovazione tecnologica, ma anche la capacità di mantenere fiducia e integrità in un ambiente in cui anche gli algoritmi possono sbagliare o essere manipolati.


文章来源: https://www.cybersecurity360.it/nuove-minacce/ai-e-cybersecurity-lintelligenza-artificiale-e-sia-risorsa-sia-minaccia-per-la-sicurezza-digitale/
如有侵权请联系:admin#unsafe.sh