I deepfake non consensuali, sempre più spesso legati a forme di violenza di genere online, rappresentano una minaccia cyber avanzata e sistemica. Serve un cambio di prospettiva: la sicurezza deve diventare responsabilità condivisa di chi progetta, gestisce e governa la tecnologia.
I casi Clothoff e Phica avevano già mostrato l’abisso etico e tecnologico della nudificazione digitale, svelando l’uso dell’intelligenza artificiale per generare immagini intime non consensuali.
Ora il fenomeno è esploso in modo ancora più massiccio con lo scandalo emerso solo qualche giorno fa in merito al forum internazionale “SocialMediaGirls”.
Vittime e inchieste giornalistiche hanno portato alla luce l’esistenza dell’ennesima piattaforma, attiva da almeno 11 anni, con oltre 7,5 milioni di utenti registrati.
Le inchieste hanno descritto la struttura del sito come una rete organizzata di board tematiche (diviso in sezioni per Paesi e categorie di vittime), accessibili tramite iscrizione gratuita e protette da policy di anonimato, con una moderazione attiva solo contro lo spam, ma non contro l’abuso.
Secondo le stesse fonti giornalistiche nonché analisi OSINT internazionali, il forum opera come una piattaforma anonima e opaca: è protetto da DDOS-Guard, ospitato su server offshore apparentemente in Belize ma riconducibili a un provider negli Emirati Arabi Uniti. Cambia spesso indirizzi IP e name server per evitare tracciamenti e ospita pubblicità e link a contenuti rischiosi o illegali (anche pedopornografici), alcuni dei quali già segnalati alla Polizia Postale.
Nel forum vengono regolarmente pubblicate, scambiate e richieste immagini di donne “nudificate” attraverso modelli di intelligenza artificiale generativa, in particolare tool di deepfake e AI nudification in grado di ricostruire nudità sintetiche a partire da foto reali.
La pornografia sintetica non è più una devianza marginale, ma l’elemento visibile di un ecosistema organizzato che monetizza l’abuso e la violenza di genere. Una filiera digitale della violenza visiva, in cui modelli generativi, piattaforme e utenti costruiscono un’infrastruttura di manipolazione strutturata e
riproducibile.
Tra le persone colpite figurano quasi esclusivamente donne: giornaliste, attrici e influencer italiane. I thread dedicati riportano nomi e immagini di volti noti come Francesca Barra e Selvaggia Lucarelli, e contengono istruzioni dettagliate su come generare nuovi contenuti o amplificarne la diffusione.
Secondo le ricostruzioni giornalistiche, la piattaforma ospita veri e propri “mercati digitali” della manipolazione, con utenti che si scambiano link, modelli di AI pre-addestrati e persino plug-in per migliorare la resa dei volti.
Non è più un fenomeno episodico: è una filiera organizzata, un’industria della manipolazione visiva che sfrutta l’AI come infrastruttura di offesa, alimentata da dataset rubati e strumenti open source.
La scoperta del forum non è arrivata da operazioni di intelligence o strumenti di monitoraggio automatico, bensì da una segnalazione su Instagram di un utente che ha notato la presenza di contenuti riferiti a donne italiane: un esempio lampante di come oggi la prima linea di difesa resti nelle mani delle vittime e dei cittadini, e non delle piattaforme o delle autorità.
Su questo scenario è intervenuto anche il nostro Garante che, tramite un suo componente (Agostino Ghiglia), in post social ha richiamato l’urgenza di un’educazione civica digitale e di una maggiore consapevolezza nell’uso dell’intelligenza artificiale.
Ghiglia avverte che i deepfake e la nudificazione digitale rappresentano “una forma di violenza inaccettabile” che va contrastata con responsabilità condivisa, formazione e prevenzione, non solo con la repressione ex post.
Tuttavia, sebbene la mancanza di consapevolezza sia evidente, è la stessa “progettazione” a essere sbagliata.
È inaccettabile che siano ancora una volta le vittime (spesso in completa solitudine, e sempre troppo tardi purtroppo) a dover scoprire, segnalare e chiedere la rimozione di contenuti generati da sistemi che nessuno ha pensato di rendere intrinsecamente sicuri. Prima l’abuso, poi anche la burocrazia della difesa.
Finché la sicurezza continuerà a essere delegata alla vittima, in una tragica ed estenuante difesa ex-post, ogni intervento normativo o morale sarà solo un cerotto su un sistema progettato per fallire.
La tecnologia amplifica la violenza poiché è l’architettura che lo consente.
La nudificazione digitale può essere considerata, a tutti gli effetti (come in generale i deepfake), una minaccia cyber di nuova generazione, poiché sfrutta vulnerabilità tecniche (dataset non protetti, modelli open, hosting offshore) per colpire la reputazione e l’identità digitale.
Per fare ciò sfrutta modelli generativi e synthetic media, come confermano Enisa, gli studi accademici sul nudification ecosystem e sulla Non-
Consensual Synthetic Intimate Imagery (NSII).
Ghiglia ha parlato di “educazione civica digitale”, ma occorre qualcosa di più profondo, cioè ripensare la violenza di genere online come un attacco tecnologicamente assistito, automatizzato e a bassissimo costo.
Dietro ogni deepfake c’è un’intera architettura di attacco. È questo il punto in cui la cyber security incontra la progettazione dei sistemi, perché l’abuso nasce da un codice scritto senza protezioni.
In questa prospettiva, ogni deepfake generato e ogni algoritmo usato impropriamente rappresenta un fallimento di progettazione.
Non è accettabile che la sicurezza digitale continui a dipendere dalla prontezza di chi subisce, ma deve dipendere da sistemi costruiti correttamente, da chi li disegna e li governa.
Uscire da questo schema significa invertire la logica: non più la vittima come perimetro della difesa, ma la tecnologia come origine della responsabilità. Prevenire ex ante, non reagire ex post.
È qui che la violenza digitale si salda alla cyber security: oltre al tema etico e sociale, il problema è strutturale, di sicurezza dei dati, dei sistemi e, in ultima istanza, delle persone. Ed è come tale che dovrebbe essere trattato.
Le GAN (Generative Adversarial Networks) e i modelli di diffusion hanno inaugurato una fase nuova della falsificazione digitale.
Oggi un video o una foto manipolata non richiedono competenze particolari: bastano pochi click, un dataset rubato e una piattaforma online.
Il risultato è un attacco ad alta efficienza, scalabile, anonimo e replicabile.
Il deepfake diventa così una Advanced Persistent Threat (APT) personale: persiste nel tempo, si diffonde in modo non tracciabile, continua a produrre danni anche dopo la rimozione.
Il ruolo dell’AI non si esaurisce più in un puro strumento di supporto, ma diventa un vettore d’attacco. In questo modo il confine fra cybercrime e violenza digitale si dissolve: l’identità di una persona diventa la superficie d’attacco, le sue immagini il payload, la rete il vettore di propagazione.
Quando la vittima è una donna, come accade nella stragrande maggioranza dei casi, la tecnologia amplifica e automatizza una violenza antica, travestendola da gioco algoritmico.
Riconoscere questa equivalenza significa includere i deepfake non consensuali nel perimetro della cyber security, con gli stessi strumenti, gli stessi standard e la stessa urgenza riservata a un attacco informatico contro un’infrastruttura critica.
Ogni fotografia pubblicata online è un frammento di identità che può essere sottratto, ricomposto,
manipolato. Le immagini condivise sui social costituiscono un patrimonio informativo non protetto, che
finisce spesso in dataset non autorizzati, usati per addestrare modelli generativi o produrre materiale
sintetico.
In termini tecnici, si può parlare di un’effettiva inversione della logica del data-poisoning: immagini
autentiche pubblicate dall’utente vengono scrape-ate e incorporate in dataset di training non controllati.
Quei dataset alimentano modelli generativi che producono contenuti sintetici mirati contro l’individuo,
realizzando così una forma di appropriazione dell’identità digitale dovuta a un’assenza di governance sui
dati visuali.
La vulnerabilità, in questo senso, non è nella persona: è del sistema che non ha previsto limiti, controlli, watermarking o regole di addestramento trasparenti.
In questo quadro, parlare di responsabilità individuale non è più sufficiente, in quanto il problema è sistemico, cioè distribuito lungo una catena che parte dai social network e arriva ai fornitori di modelli generativi, passando per le imprese che ne fanno uso.
Hanno la capacità, e quindi il dovere, di rilevare automaticamente manipolazioni e deepfake non consensuali.
Il Digital Services Act (DSA, regolamento Ue che stabilisce norme per i servizi digitali per creare uno spazio online più sicuro e trasparente, all’insegna della tutela dei diritti fondamentali degli utenti) e il Digital Markets Act (DMA, regolamento europeo volto a rendere il mercato digitale più equo e competitivo) impongono già standard di trasparenza e di risk management.
Tuttavia tra obbligo legale e responsabilità etica si apre ancora un vuoto: la lentezza della rimozione è parte della violenza. Un video può rimanere online per ore, giorni, settimane, mentre ogni visualizzazione è una replica del danno.
Devono introdurre la security by design e la accountability by default previste dall’AI Act.
Non è più sostenibile rilasciare modelli open senza tracciabilità dei dataset o limiti di utilizzo.
Un modello che genera deepfake non consensuali – oltre ad essere un rischio legale – è un’infrastruttura di aggressione.
Devono considerare la manipolazione digitale di un dipendente o collaboratore come un incidente cyber.
Un attacco all’identità personale può tradursi in perdita di fiducia, crisi di reputazione, rischio di compliance.
L’approccio deve essere integrato, considerando privacy, sicurezza e reputazione come facce dello stesso problema.
Ogni organizzazione dispone oggi di procedure di Incident Response per data breach o ransomware. Poche, però, hanno previsto la gestione di un deepfake non consensuale.
Eppure le dinamiche sono identiche: c’è un attore malevolo, un contenuto compromesso, un danno reputazionale.
In linea con Enisa (ETL 2025) e con i framework FIRST, i Cyber Incident Response Team (CSIRT) dovrebbero aggiornare i playbook per includere incidenti legati all’AI (contenuti sintetici, impersonation, campagne di disinformazione), prevedendo monitoraggio web, valutazione del danno reputazionale, coordinamento Legal-HR-Comms e procedure rapide di takedown verso le piattaforme.
La mancata preparazione è essa stessa una vulnerabilità: se un’azienda non sa gestire la violenza digitale, diventa parte del problema.
Il rischio non è per la sola persona coinvolta, ma per l’intero ecosistema di fiducia che regge la relazione tra impresa, dipendenti e pubblico.
Prevenire significa proteggere i dati alla fonte.
L’AI non può usare ciò che non riesce a leggere correttamente. Per questo gli strumenti esistono:
Tecniche emergenti come Nightshade, FUBU o Glaze introducono distorsioni invisibili nelle immagini, rendendole inutilizzabili per l’addestramento dei modelli.
Sono strumenti di auto-difesa algoritmica, che spostano la protezione sul terreno tecnico e automatizzato.
È un primo passo verso la “privacy computazionale”.
Serve una standardizzazione globale di watermark digitali invisibili che permettano di riconoscere la manipolazione alla fonte.
Il watermarking è una firma di autenticità, utile tanto alle piattaforme quanto alle forze dell’ordine.
Il Garante stesso, nelle parole di Ghiglia, ha auspicato lo sviluppo di tecnologie di watermarking come presidio di trasparenza e tracciabilità.
Ogni azienda dovrebbe mappare le proprie superfici d’immagine (dal sito ai profili social dei dipendenti) ed integrare policy di pubblicazione e monitoraggio.
La gestione del dato visivo è la nuova frontiera della sicurezza informativa.
Bisogna smettere di considerare la violenza digitale, in particolare quella di genere, come un incidente privato o un problema di comportamento individuale. È un sintomo di una vulnerabilità sistemica: la dimostrazione che i nostri strumenti tecnologici e normativi non sono stati progettati per proteggere la
persona al centro del dato.
Ogni deepfake, ogni contenuto manipolato, ogni algoritmo privo di governance rivela un difetto di progettazione collettivo. Continuare a chiedere alle vittime di difendersi è come chiedere a un utente di chiudere manualmente le falle di un software insicuro: tecnicamente inefficace, eticamente inaccettabile.
Se serve una cultura, è quella della sicurezza empatica, cioè una visione della cyber security che riconosca la dignità umana e di genere come componente architetturale della sicurezza, e non come conseguenza.
Difendere la persona significa difendere l’infrastruttura sociale e informativa su cui si fonda la fiducia digitale. E la fiducia, come la sicurezza, non si ricostruisce dopo: si progetta.