Il Garante privacy per la protezione dei dati personali ha imposto con urgenza e con effetto immediato la limitazione provvisoria del trattamento nei confronti di Clothoff, servizio che “sveste” chiunque partendo da una foto.
La misura colpisce una società con sede nelle Isole Vergini Britanniche e nasce dal rischio elevato per i diritti e le libertà fondamentali, con un’attenzione particolare ai minori.
Non è la prima volta che il Garante interviene su app simili, infatti, già nel 2020, l’Autorità aveva aperto un’istruttoria nei confronti di Telegram per un software, disponibile sul canale social, che “spogliava” le donne, impiegando l’intelligenza artificiale per ricostruirne il corpo sotto gli indumenti.
Il provvedimento del 3 ottobre segna però un approdo importante perché arriva in un momento in cui questi strumenti hanno smesso di essere un fenomeno di nicchia per diventare industria alla portata di tutti.
C’è un’immagine utile per capire la portata del fenomeno: negli anni ‘80 circolavano gadget curiosi come gli “occhiali a raggi X”, pubblicizzati per lo più sulle riviste di fumetti, o le penne che, se capovolte, facevano scivolare via i vestiti da una figurina femminile disegnata. Erano oggetti ingenui, a metà tra scherzo e feticcio e chi li acquistava restava vittima dell’illusione, senza che nessuno subisse un danno reale.
Oggi la matrice è la stessa, cioè il desiderio di guardare senza permesso, ma l’esito è radicalmente diverso, perché l’illusione di allora si traduce ora in immagini credibili di persone reali e ciò che era un gioco goliardico diventa abuso.
Prima si trattava di cedere ad una truffa bonaria, acquistando un gadget da bancarella; oggi, l’illusionismo è diventato tecnologia consumer a basso costo, alimentata da infrastrutture cloud legittime e da modelli generativi potentissimi, che rendono l’effetto reale nella percezione sociale e devastante nelle conseguenze.
Nessuna magia, visto che i servizi di “nudificazione” usano due mattoni tecnici ormai sdoganati:
In poche parole,l’utente carica una foto e la app genera un’immagine in cui i vestiti scompaiono, sostituiti da un corpo inventato dall’algoritmo. Non c’è rivelazione, ma ricostruzione e ciò che appare è verosimile pur senza avere alcun legame con la realtà: in sostanza, per l’osservatore, la distinzione non conta, e vedere ‘quella persona nuda’ produce lo stesso effetto di un’umiliazione anche se il contenuto è artificiale.
Il software DeepNude aveva già mostrato nel 2019 che reti neurali chiamate GAN (in particolare un modello noto come pix2pixHD), potevano produrre versioni “svestite” di fotografie femminili, e, anche se la generazione non era perfetta, aveva aperto comunque la strada.
Con l’arrivo dei modelli di diffusione (diffusion models), la resa è migliorata drasticamente, offrendo immagini più nitide, corpi più proporzionati, capacità di adattarsi a pose diverse e contesti complessi.
In altre parole, ciò che prima era un risultato grossolano, oggi appare molto più realistico e credibile anche a osservatori esperti e in assenza di contenuti originali.
Si è passati da un trucco fotografico a una fabbricazione credibile, e, per chi la subisce, non fa differenza che il risultato sia “sintetico” perché l’effetto psicologico, sociale e professionale è in ogni caso reale.
Dati indipendenti mostrano da anni che l’uso prevalente dei deepfake è sessuale e colpisce quasi esclusivamente donne: nel 2019 Sensity AI rilevava che il 96% dei deepfake era di natura sessuale e il 99% dei soggetti ritratti erano donne, una tendenza confermata nel tempo da ricerche e cronaca internazionale.
In Italia, gli esempi recenti sono espliciti come il gruppo Facebook “Mia Moglie” (oltre 30mila iscritti), smantellato ad agosto 2025, utilizzato per la condivisione sistematica di immagini intime non consensuali; e la piattaforma Phica, chiusa a settembre dopo denunce e indagini per la pubblicazione di foto rubate e manipolate di donne, incluse figure pubbliche.
Episodi diversi con la stessa radice e cioè la cultura sessista della non-consensualità normalizzata, amplificata da strumenti accessibili.
Il discrimine di genere non è un dettaglio e le app non sono neutre perché, nonostante la retorica dei loro creatori, le vittime sono sempre donne. A confermarlo sono i messaggi promozionali utilizzati, il loro linguaggio, e le community che li diffondono.
Il corpo femminile è trattato come materiale da manipolare e distribuire senza limiti in una forma di violenza digitale che perpetua schemi culturali in cui la donna, ridotta a puro oggetto, viene esposta al desiderio altrui e privata della sua dignità ed autonomia di essere umano.
Ogni donna con una presenza online è esposta, visto che una semplice foto profilo può diventare materia prima per un abuso; e quando le vittime sono minorenni, l’effetto diventa spaventoso.
Clothoff, come Mia Moglie e Phica (smantellati solo dopo pressioni e scandali), mostrano che la nudificazione digitale non è affatto marginale, ma si tratta di un fenomeno radicato che trova nuovi canali e che si rinnova grazie a strumenti tecnologici sempre più sofisticati ma al contempo sempre più “democratici” e semplici da usare.
Anche Clothoff ha provato a ripulirsi l’immagine, sostenendo perfino di donare fondi a un’organizzazione per “chi è colpito dall’IA”, e in questo ci ricorda un po’ Philip Morris che per decenni ha finanziato ricerche e campagne “per la salute pubblica” e per la lotta contro il fumo passivo o McDonald’s che ha sponsorizzato programmi scolastici sull’educazione alimentare e campagne di prevenzione contro l’obesità infantile, solo per fare alcuni esempi di iniziative “cause washing” simili.
Un’inchiesta indipendente ha mostrato l’opacità delle dichiarazioni di Clothoff, rivelando che natura, sede e attività dell’ente beneficiario non sono verificabili e che perfino i loghi e i materiali grafici risultavano riciclati o inseriti all’interno dei siti della stessa app, segno che l’organizzazione presentata come indipendente potrebbe essere solo una costruzione artificiale e di fatto inesistente.
Esattamente il contrario della trasparenza: cause marketing e linguaggio rassicurante come schermo reputazionale, mentre il servizio resta progettato per produrre immagini senza il consenso delle persone coinvolte.
Sul piano regolatorio europeo, l’AI Act introduce obblighi di trasparenza per chi genera o modifica contenuti sintetici: gli output devono essere segnalati come artificiali, con specifiche ricadute per providers e deployers.
Si tratta di misure senz’altro ottime per i contesti legittimi, ma irrilevanti per chi fabbrica abusi: coloro che usano un “undresser” non cercano un’etichetta, cercano la verosimiglianza. Resta quindi essenziale l’enforcement contro i servizi stessi, mentre in questi casi non è sufficiente l’etichettatura dei contenuti.
L’età dell’utente: in Italia, per i servizi della società dell’informazione, il consenso autonomo del minore è valido dai 14 anni (art. 2-quinquies Codice Privacy), mentre, sotto questa soglia, serve il consenso di chi esercita la responsabilità genitoriale e il titolare deve compiere sforzi ragionevoli per verificarlo (art. 8 GDPR). Tuttavia, molte app si limitano a un “checkbox” o a barriere banali, del tutto inadeguate.
Il problema è che in concreto “sforzi ragionevoli” si traduce spesso in meccanismi debolissimi, tuttalpiù in una semplice checkbox in cui l’utente dichiara “ho più di 18 anni” o un popup che non richiede alcuna verifica reale.
Alcune piattaforme adottano sistemi più robusti (ad esempio upload di documenti, riconoscimento facciale), ma si tratta di casi limitati e spesso aggirabili. Nel contesto delle app di nudificazione, questi controlli sono praticamente inesistenti, pertanto, chiunque, anche un tredicenne, può caricare foto e ottenere risultati potenzialmente devastanti, senza alcun filtro.
Questo è un vuoto di tutela concreta: i minori possono essere utilizzatori, ma possono anche diventare vittime dirette, con rischi enormi quando le loro immagini vengono manipolate e diffuse.
La classica obiezione è che sarebbe sufficiente introdurre una verifica d’identità rigorosa (Know Your Customer – KYC); in realtà i sistemi di controllo dei documenti e di verifica di “liveness” possono essere facilmente ingannati proprio con i deepfake e ricerche e casi concreti lo dimostrano chiaramente.
Per questo affidarsi solo al KYC per fermare un abuso generato dall’IA è poco credibile perché servirebbero controlli esterni e verifiche indipendenti perché sia una soluzione con un minimo di efficacia.
Un precedente appartenente ad altro ambito, ma istruttivo, si trova nel provvedimento nei confronti di Replika, in cui il Garante ha imposto un age gate robusto e un’informativa aggiornata prima dell’accesso. Pur non essendo la soluzione definitiva al problema della “nudificazione”, indica almeno la direzione minima di presidio richiesta in Italia.
Se l’età riguarda chi utilizza il servizio, la questione del consenso riguarda chi ne subisce gli effetti. Chi carica una foto non è quasi mai la persona ritratta, ma potrebbe trattarsi di un ex partner, di un conoscente, di un compagno di scuola che agisce senza permesso.
Eppure, quasi tutte le piattaforme di questo tipo scaricano la responsabilità sull’utente che carica il materiale e nelle policy si legge che “l’utente garantisce di avere i diritti” sull’immagine, come se una formula legale generica fosse sufficiente a proteggere le vittime, mentre in realtà, si tratta di clausola atta solo a sollevare gli sviluppatori da ogni responsabilità.
La frattura etica e giuridica più grave sta proprio nel fatto che, ad oggi, non esiste un sistema standard per verificare che la persona rappresentata abbia davvero prestato il proprio consenso (ciò che in altri contesti viene chiamato consent capture). Né esiste un interesse economico ad implementarlo, perché significherebbe ridurre drasticamente l’attrattiva del servizio, visto che la maggioranza degli utenti cerca proprio l’assenza di consenso, cioè il “vedere qualcuno senza permesso”.
Il risultato è un vuoto normativo che trasforma il corpo delle persone (rectius, delle donne) in materiale manipolabile, distribuito e monetizzato senza alcuna possibilità di controllo da parte delle vittime.
Un’analisi di Indicator ha mappato 85 siti “nudify/undress”: 18,5 milioni di visitatori al mese negli ultimi sei mesi e ricavi potenziali fino a 36 milioni di dollari l’anno; molti si appoggiano a infrastrutture mainstream (hosting, CDN, login) di grandi provider.
Questa è l’ennesima dimostrazione di quanto l’ecosistema “regolare” permetta, spesso inconsapevolmente, la scalabilità dell’abuso.
La conseguenza è la resilienza, infatti, anche quando un dominio viene bloccato, la stessa rete rinasce con alias, landing speculari e catene di affiliazione. Inchieste OSINT hanno documentato network transnazionali che vendono crediti, “token” e servizi complementari sfruttando marketplace e intermediazioni opache. È chiaro quindi che la lotta va mossa alla rete anziché al singolo dominio.
L’AI Act impone obblighi di trasparenza per contenuti sintetici; il DSA chiede procedure più efficaci per rimozione di contenuti illegali e valutazioni del rischio sistemico per le piattaforme molto grandi e si tratta senza dubbio di un telaio utile ma non risolutivo se i soggetti dominanti del cosiddetto “ecosistema nudify” non vengono espulsi dall’infrastruttura legittima.
Il punto non è solo chi gestisce i siti, ma i servizi di base che li fanno funzionare come i domini internet che li rendono raggiungibili, le reti che distribuiscono i contenuti in modo rapido in tutto il mondo, i sistemi di accesso tramite account esterni e i circuiti di pagamento online.
È lì che si decide se questi servizi possono continuare a vivere o meno e servono controlli precisi e la possibilità di tagliarli fuori in modo coordinato.
Sul fronte nazionale, oltre ai reati già applicabili (diffusione illecita di immagini o video sessualmente espliciti, molestie, estorsione), i provvedimenti urgenti del Garante si stanno rivelando uno strumento rapido per interrompere il trattamento di dati degli utenti italiani e tagliare il mercato. Il caso Clothoff si inserisce in questo solco, dopo DeepSeek e altri interventi recenti dell’Autorità.
Clothoff è un brand di riferimento in questa nicchia, quindi fermarlo in Italia manda un messaggio a tre destinatari:
Il tutto mentre la cronaca italiana mostra che la domanda c’è ed ospitata in comunità online che si alimentano a vicenda: insieme a Mia Moglie e Phica, Clothoff è manifestazione dello stesso immaginario in cui l’agency femminile è azzerata, la non-consensualità è un dettaglio e l’IA è un acceleratore.
Per arginare questo fenomeno servirebbe l’impegno coordinato di diversi attori:
Chi obietta che si tratta di libertà d’espressione dimentica che si tratta di corpi fabbricati ed attribuiti senza consenso e la libertà di espressione non copre la violenza d’immagine; chi parla di satira o di arte trascura che l’arte non ha bisogno di identità altrui senza consenso; chi minimizza perché le immagini sono “sintetiche” ignora che l’umiliazione e il danno subìto sono invece assolutamente concreti.
Gli occhiali a raggi X e le penne che si capovolgevano erano prodotti ingenui di una cultura popolare che giocava con l’immaginario erotico senza colpire nessuno. Si trattava di gadget che promettevano l’impossibile; chi li acquistava era un credulone oppure, semplicemente, stava al gioco, ma non arrecava un danno a persone reali.
Oggi la stessa fantasia si traduce in immagini che feriscono, che umiliano, che vengono usate come strumenti di controllo e ricatto, in un salto culturale in cui si accetta che una fabbricazione possa definire la reputazione di una persona e in cui l’IA fa da moltiplicatore di ciò che già c’era (cioè sessismo, voyeurismo, mercificazione) e lo rende scalabile.
Il Garante, intervenendo, ricorda che non tutto è riducibile a ‘contenuto’ e che la dignità delle persone non è negoziabile e che occorre impedire che progresso tecnologico venga piegato all’abuso.
Lo stop del Garante a Clothoff sposta il problema sui provider e piattaforme, costringendoli a prendere posizione sulla filiera e indica che il diritto dei dati può essere usato in modo chirurgico contro servizi con finalità intrinsecamente abusive; rimette infine al centro due parole scomode nel dibattito tech: consenso e responsabilità.
Il provvedimento contro Clothoff, come i precedenti provvedimenti anche recenti, mostra con chiarezza (e lo si deve ammettere) che il Garante è una delle poche autorità che intervengono concretamente a tutela dei diritti fondamentali, con l’intento precipuo di limitare gli abusi anche quando sono opera della tecnologia.
Bloccare un’app che mercifica i corpi senza consenso è tutto tranne che frenare l’innovazione, ma significa piuttosto preservare lo spazio in cui l’innovazione può svilupparsi senza trasformarsi in violenza.
Finché l’industria della nudificazione resterà profittabile, resiliente e comodamente appoggiata all’infrastruttura legittima, nuovi Clothoff nasceranno.
Tuttavia, ogni volta che una rete viene spenta, che un flusso di pagamento viene chiuso, che un SSO viene revocato, il messaggio che deve passare è che si tratta di abuso e come tale deve essere trattato.