L’avvento dell’intelligenza artificiale (AI) ha aperto nuove frontiere nella creazione di contenuti digitali, tra cui immagini realistiche generate automaticamente: tale innovazione porta con sé sfide significative, specialmente quando queste tecnologie vengono sfruttate per scopi ingannevoli.
Una ricerca condotta da Renee DiResta dell’Università di Stanford e Josh A. Goldstein del Center for Security and Emerging Technology presso la Georgetown University, dal titolo “How Spammers, Scammers and Creators Leverage AI-Generated Images on Facebook for Audience Growth”, fa luce sulle immagini generate dall’AI su Facebook per accrescere la loro audience, spesso senza che gli utenti ne siano consapevoli.
L’indagine, focalizzata su 120 pagine Facebook in cui ciascuna ha pubblicato almeno 50 immagini generate dall’AI, rivela come tali immagini abbiano raccolto centinaia di milioni di interazioni e visualizzazioni.
Successivamente, i 120 account sono stati classificati in categorie quali spam, truffe e “altri creatori”, a seconda delle loro attività e intenti.
Tra le scoperte principali, emerge da un lato che le pagine di spam adottano tattiche di clickbait per dirottare gli utenti verso contenuti di bassa qualità al di fuori di Facebook, mentre dall’altro che le pagine di truffe mirano a vendere prodotti inesistenti o a raccogliere dati personali degli utenti.
Dunque, l’algoritmo del feed di Facebook sembra promuovere contenuti prodotti dall’IA che generano maggior impegno, anche a utenti che non seguono le pagine da cui tali contenuti provengono. Questa pratica solleva questioni sulla necessità di maggiore trasparenza e sulle strategie di etichettatura per aiutare i fruitori a riconoscere l’origine artificiale di tali immagini.
La ricerca evidenzia, inoltre, come il pubblico spesso non percepisca la natura artificiale delle immagini, evidenziando la critica mancanza di consapevolezza tra gli utenti di Facebook.
Di qui anche la necessità di implementare le misure di trasparenza per prevenire la diffusione di disinformazione e mantenere la fiducia nel panorama mediatico online. In tal senso, le istituzioni europee hanno già prodotto normative, come il Regolamento Ue 2022/2065, il Digital Services Act, i quali hanno implementato dei controlli più serrati alle big tech, in particolare in vista delle prossime elezioni previste per giugno 2024.
Nonostante le sfide presentate dall’uso distorto delle immagini generate dall’AI, lo studio offre anche raccomandazioni su come contrastare tali pratiche.
Suggerisce che le compagnie di social media, come Facebook, investano in tecnologie per rilevare ed etichettare i contenuti generati dall’AI, esplorando l’impatto di varie strategie di etichettatura per informare gli utenti sull’origine artificiale delle immagini che incontrano.
Parallelamente, è fondamentale che i creatori di strumenti di generazione di immagini AI lavorino per aumentare la consapevolezza pubblica su queste tecnologie, anche per mezzo di campagne educative che spiegano in modo chiaro e semplice come riconoscere le immagini generate da AI.
Allo stesso tempo, la ricerca sottolinea l’importanza di studi futuri che indaghino ulteriormente le implicazioni dell’uso di contenuti generati dall’AI sui social media, compresa la loro influenza sulla percezione pubblica dell’autenticità e della veridicità dei contenuti online.
Questi sforzi congiunti tra piattaforme di social media, creatori di tecnologie AI e la comunità di ricerca possono contribuire a costruire un ambiente digitale più sicuro e trasparente, in cui la fiducia nei media e l’informazione online siano preservate.
Il metodo utilizzato nella ricerca ha coinvolto l’identificazione di pagine Facebook che potenzialmente utilizzavano un numero significativo di immagini generate da intelligenza artificiale non etichettate.
I ricercatori hanno utilizzato diverse metodologie per raggiungere questo obiettivo, cercando inizialmente delle pagine che utilizzassero didascalie ricorrenti comunemente associate a contenuti “copypasta” – il termine indica un blocco di testo che viene copiato e incollato per essere diffuso sui forum online e piattaforme social dagli utenti.
Con tale approccio i ricercatori sono arrivati a individuare account che condividevano contenuti simili, il che significava un potenziale utilizzo di immagini generate da intelligenza artificiale. Inoltre, sono state analizzate pagine interconnesse, come quelle suggerite da Facebook, per identificare ulteriori esempi di immagini generate da AI.
Parallelamente, per facilitare l’identificazione di tali contenuti, i ricercatori hanno monitorato gruppi Facebook specializzati nel riconoscimento delle immagini “artificiali” per ottenere maggiori suggerimenti.
Come parte del processo, si è osservato un aumento delle riproduzioni fotografiche generate da intelligenza artificiale che comparivano nei feed di Facebook, coprendo vari temi comuni come case, animali e cibo.
Nel valutare se il contenuto fosse stato generato da intelligenza artificiale, sono stati presi in considerazione l’identificazione di errori evidenti e/o elementi irrealistici all’interno delle immagini. Allo stesso tempo, anche i modelli di pubblicazione sono stati oggetto di analisi, notando in particolare temi o stili consistenti attraverso un gran numero di fotografie.
I ricercatori riportano anche che, sebbene il processo di ricerca si sia rivelato efficace nel riconoscere pagine che utilizzavano immagini generate da IA non etichettate, la metodologia applicata presenta alcune limitazioni.
È possibile che non si individuino account che adottino tecniche sofisticate per mescolare i contenuti generati da IA con immagini reali, questo perché l’identificazione di tali contenuti richiede uno sforzo cognitivo considerevole, potenzialmente al di là della capacità degli utenti casuali di Facebook. Inoltre, man mano che i modelli di immagini artificiali avanzano, l’efficacia di questi metodi potrebbe diminuire.
Inoltre, senza il coinvolgimento diretto o tramite interviste con gli operatori delle pagine, è possibile solo fare ipotesi sulle intenzioni che li portano a diffondere tali contenuti.
I ricercatori, infine, sottolineano come le future ricerche dovrebbero studiare e raccogliere informazioni sulle motivazioni dietro la condivisione di questi contenuti, sulle percezioni degli utenti e sulle tendenze nel loro utilizzo.
Per poter identificare immagini generate da IA è possibile osservare i seguenti dettagli all’interno delle stesse, che riguardano, ad esempio, anomalie nelle mani, anomalie nei denti, volti asimmetrici o deformati, capelli innaturali e/o incoerenti, pelle perfetta che non presenta imperfezioni e dettagli tipici della pelle umana, errori di architettura negli edifici, anomalie in oggetti tenuti tra le mani, presenza di un testo incoerente o con presenza di artefatti e utilizzo dell’editing da parte dell’IA o dell’utente per mascherare incoerenze e/o errori.
In aggiunta, è possibile anche utilizzare dei software o strumenti online per essere sicuri che l’immagine sia reale o frutto di intelligenza artificiale, avvalendosi di Google Cloud, il quale ha sviluppato SynthID per il suo generatore di immagini AI, Imagen presente su Vertex AI, tramite il quale può sia incorporare un watermark (filigrana elettronica) direttamente nei pixel di un’immagine creata su Imagen, sia scannerizzare l’immagine per stimare le probabilità con cui questa è stata creata con Imagen. Ulteriori strumenti disponibili in rete sono: FotoForensics, Illuminarty e Ai or Not.