Guerre di Rete - Effetto Sora sull'informazione
2024-2-25 18:46:29 Author: guerredirete.substack.com(查看原文) 阅读量:12 收藏

Un fotogramma di un video generato con Sora.

Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N.181 - 25 febbraio 2024

(Comunicazioni di servizio)
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 13mila iscritti - ma molti più lettori, essendo pubblicata anche online) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione.

Dona alla newsletter

In più, il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito

Nel 2024 si è aggiunta Digital Conflicts, una newsletter bimensile in inglese, che per ora sarà principalmente una trasposizione della newsletter italiana, con alcune aggiunte e modifiche pensate per un pubblico internazionale (e con particolare attenzione all’Europa).
Qui leggete il primo numero.
Qui per iscriversi..

Qui invece potete scaricare gratis il primo ebook di Guerre di Rete che si intitola Generazione AI ed è dedicato agli ultimi sviluppi dell’intelligenza artificiale (uscito a settembre).

In questo numero:

- Effetto Sora
- Formare studenti e insegnanti
- Come funzionano e prosperano le truffe “romantiche”
- Per i giovani LGBTQ+ i socia media sono un alleato
- Reddit e AI
- Altro

EFFETTO SORA
Come adattarsi all’ondata di contenuti sintetici sempre più realistici

Sam Gregory, direttore dell’ong WITNESS che da anni usa video per documentare violazioni dei diritti umani nel mondo, ha fatto un’analisi a caldo di come una tecnologia come Sora possa avere un impatto sulla fiducia in ciò che vediamo. Si tratta del nuovo modello text-to-video di OpenAI, in grado di produrre video sintetici di grande realismo da istruzioni testuali. Anche se non ancora aperto al pubblico, OpenAI ha diffuso vari esempi di video così prodotti (li vedete qua).

Fino ad oggi, spiega Gregory in vari post sui social media, i punti di vista multipli sono stati un buon punto di partenza per valutare se un evento è realmente accaduto così come il contesto in cui è avvenuto. Inoltre, in quasi tutti gli episodi di violenza da parte dello Stato o della polizia viene contestato cosa è successo prima/dopo l'accensione di una telecamera che magari riprende un'azione o presunta reazione.
Oppure, una ripresa traballante, fatta da qualcuno con una videocamera a mano, è un “potente indicatore di credibilità emotiva”, di autenticità.

Ma ora ci troviamo di fronte a video sintetici realistici che possono adottare diversi stili, anche quello amatoriale. O ad angoli di ripresa multipli, la possibilità di creare contemporaneamente più punti di vista e angolazioni della telecamera sulla stessa scena. E la possibilità di “aggiungere video (essenzialmente out-paint per i video) avanti e indietro nel tempo da un fotogramma esistente”. [L’outpainting è una funzione, presente in generatori di immagine come DALL-E, di estendere un'immagine oltre i suoi confini originali].

“L’abilità più interessante di Sora - commenta anche il ricercatore Erik Salvaggio - guardando alle specifiche tecniche, è che può rappresentare scenari multipli che si *concludono* con una data immagine. Credo che questo sarà oggetto di discussione in alcune conferenze sulla disinformazione” (...) Supponiamo di avere un video sui social che inizia dal momento in cui la polizia inizia a usare la forza in modo ingiustificato contro una persona in strada”. Le specifiche tecniche dicono “che si possono creare senza soluzione di continuità fino a 46 secondi di video sintetico che termina nel punto in cui inizia il video della violenza. Ciò che accade in quei 46 secondi è guidato dal tuo prompt, che si tratti di un adolescente che lancia una bomba a mano contro un poliziotto sorridente o di un uomo gentile che offre fiori alla polizia arrabbiata”.

In un certo senso, commenta ancora Gregory, “i video realistici di eventi fittizi si avvicinano alle attuali modalità di condivisione di video e immagini shallowfake (ad esempio, video mal contestualizzati o leggermente modificati trasposti da una data o da un'ora a un altro luogo), in cui i dettagli esatti non contano, purché siano sufficientemente convincenti rispetto alle ipotesi”.
Uno shallowfake, come ho raccontato più volte, è un video reale che è stato manipolato con semplici strumenti di editing a fini di propaganda. Si chiama così in contrapposizione a deepfake perché non usa l’intelligenza artificiale.

Ma torniamo a Gregory. Il problema, dice, è che nei video realistici di eventi che non sono mai accaduti (come quelli prodotti da Sora e non riadattati o decontestualizzati da video reali), “mancherebbe la possibilità di cercare il riferimento - cioè quello che facciamo ora con la ricerca shallowfake, quando usiamo la ricerca inversa di un’immagine per trovare l'originale, o la funzione About this Image di Google”.

“Con l'espansione del text-to-video e del video-to-video - conclude Gregory -  dobbiamo capire come rafforzare la fiducia e garantire la trasparenza dei media, approfondire le capacità di rilevamento, restringere gli usi inaccettabili e pretendere la responsabilizzazione di tutta la filiera dell'AI”.

Vorrei allacciarmi a queste considerazioni per aggiungere alcune riflessioni. Forse dovremmo rovesciare il paradigma, e invece di preoccuparci solo di quello che, nel mondo informativo, potrebbe essere sintetico/ falso/ decontestualizzato, pensando a come individuarlo e dimostrarlo (etichettarlo prima, sbugiardarlo poi), concentrarci semmai su ciò che è o vorrebbe essere autentico/ verificato/ contestualizzato.

Perché ammesso e non concesso che riusciremo, in un modo o in un altro, a bollare e bollinare come AI gran parte dei contenuti sintetici che circoleranno (ma al momento sono quasi tutti concordi nel dire che almeno una parte sfuggirà a questa capacità di individuazione, vedi il dibattito tecnico sui watermark di cui ho scritto qua), il crollo di fiducia nell’informazione rischia di risucchiare tutto il resto, come l’acqua di un lavandino stappato, inclusi i video, le foto, gli audio, le dichiarazioni, le notizie, le informazioni autentiche.

Allora, se c’è questo rischio, bisogna investire nel verificare e contestualizzare tutto quello che viene immesso in circolo dai media o da chiunque voglia fare informazione. Ricostruire e mettere a disposizione tutta la filiera non solo dell’AI, ma dei contenuti autentici. Permettere a tutti di risalire la corrente del flusso informativo a ritroso. I lettori come salmoni, esatto. Ogni artefatto informativo per quanto minuscolo non dovrebbe essere una monade slegata dal resto, ma dovrebbe avere una serie di connessioni che permettano di capire da dove arriva, che percorso ha fatto, assieme a chi o cosa altro stava, come è mutato, come è stato tagliato o modificato. E i lettori a quel punto dovrebbero abituarsi al fatto che se vedono 4 foto buttate così, de botto, senza senso, in un post social così come su una pagina cartacea di un giornale, senza tutto quel contorno di informazioni che possono decidere o meno di andare a testare e verificare, ecco allora non vale la pena manco di fermarsi a guardarle. Certo, tutto ciò implica, da un lato, uno sforzo aggiuntivo da parte di chi fa informazione; dall’altro, di abituarsi a essere molto più trasparenti sulle modalità con cui si lavora, e questo è qualcosa che suscita sempre molta resistenza. Ma credo che alla fine sarebbe un vantaggio per tutti. Così, my 2 cents, come si dice sull’internet.

La media literacy parte dagli insegnantiLegato a questo discorso è anche l’importanza dell’educazione ai media, quella che in inglese si definisce media literacy. E nello specifico l’importanza di insegnare come riconoscere e analizzare contenuti online, nelle scuole. Ne parla in inglese in un podcast Giancarlo Fiorella (Bellingcat), che spiega come hanno sviluppato un curriculum per formare gli insegnanti in UK.

Come fare grande divulgazione ai giovani sull’AI

Altra iniziativa rivolta agli studenti britannici. La Royal Society ha organizzato una serie di conferenze sul tema "La verità sull'intelligenza artificiale". In questa qua sotto il professor Mike Wooldridge spiega il funzionamento dell’apprendimento nell'intelligenza artificiale, e cosa può fare questa tecnologia, utilizzando una serie di divertenti esperimenti e dimostrazioni. Un video di divulgazione scientifica rivolto ai giovani ma di altissimo livello, da ogni punto di vista. Consigliatissimo.
Interessante anche per adulti (potete guardarlo coi sottotitoli in italiano se volete, scegliendo Rotellina > Subtitles >English >ricliccate su Subtitles >Autotranslate >Lingua che desiderate)
VIDEO YOUTUBE

SCAM
Continuano a prosperare le romance scam

Nel 2023 le truffe romantiche sono costate a 64mila vittime circa 1,14 miliardi di dollari, mentre la perdita mediana dichiarata è stata di duemila dollari, ha riportato poche settimane fa la Federal Trade Commission. Si tratta delle “perdite più elevate registrate per qualsiasi forma di truffa da parte di un impostore. Ciò suggerisce che, quando i truffatori delle romance scam riescono ad agganciare una persona, le conseguenze finanziarie possono essere devastanti”.
Tra l’altro (prendete nota) le due scuse più frequenti da parte dei falsi pretendenti sono: di trovarsi in una base militare lontana, o di lavorare in una piattaforma petrolifera offshore.

Il 40% delle persone che hanno dichiarato di aver perso denaro a causa di una truffa sentimentale negli ultimi anni - riportava sempre la FTC in un diverso report nel 2023 - è stato inizialmente contattato sui social media; il 19% su un sito o un'app. Molti hanno riferito che il truffatore ha poi spostato rapidamente la conversazione su WhatsApp, Google Chat o Telegram (tra le ragioni, il fatto che il suo profilo social sia troppo a rischio di essere segnalato da altri e cancellato).
In genere per ottenere dei soldi dalle vittime presentano varie scuse, ad esempio che un loro caro è malato, ferito, in prigione, lontano, che hanno il conto bloccato per qualche ragione. Ma molti affermano invece di essere un investitore di criptovalute che vuole insegnare al partner come fare, scriveva nel report la FTC.

In Inghilterra e Galles le frodi di questo tipo sono aumentate del 58 per cento dal 2019, ha riportato di recente BBC, che racconta anche la storia di una donna truffata da un finto dottore delle Nazioni Unite (il truffatore usava la foto di un vero medico danese) che chiedeva soldi per le sue attività benefiche).

Nel 2023 in Canada ci sono state almeno 945 vittime che hanno perso 50 milioni di dollari in questo tipo di truffa, secondo dati del Centro Canadese Antifrode (CAFC) riportati da CBC. La sua stessa reporter è riuscita a intervistare uno degli scammer, che si è presentato come un ventisettenne nigeriano con alcune difficoltà famigliari e finanziarie che ha infine accettato questo tipo di “lavoro” da un capo che si prendeva la metà dei soldi (ma poi si è messo in proprio). E ha descritto gli script, le indicazioni che riceveva su cosa dire, su quali scenari seguire, spiegando perché si tende spesso a includere un figlio nello scenario proposto (piace alle donne, rende più affidabili e può essere usato come motivo per farsi prestare dei soldi in emergenze), come spillare soldi attraverso le carte regalo di Apple ecc

La storia personale dello scammer mi ha ricordato quella raccontata in un romanzo bellissimo, I Do Not Come to You by Chance, della scrittrice nigeriana Adaobi Tricia Nwaubani, che racconta proprio la storia di uno scammer nigeriano (e il suo punta di vista).

Tinder estende il programma di verifica dell’identità

Il rischio è che questo tipo di truffa venga potenziata dagli strumenti di intelligenza artificiale. Almeno questo sembra essere il timore di Tinder, la nota app di incontri, che ha annunciato di voler ampliare il suo programma di verifica dell'identità a Stati Uniti, Regno Unito, Brasile e Messico nei prossimi mesi, dopo averlo già testato in Australia e Nuova Zelanda

La procedura - che richiede un video selfie e una patente di guida o un passaporto - verificherà se il volto nel video selfie corrisponda alla foto del documento così come a quella del profilo della persona. Verrà inoltre verificata la data di nascita sul documento d'identità.
“Gli utenti che completano solo la verifica della foto riceveranno un badge blu con l'icona della fotocamera, mentre gli utenti che completano solo la verifica dell'ID riceveranno un badge blu con l'icona dell'ID. Gli utenti che completano sia la verifica dell'ID che la verifica della foto riceveranno un segno di spunta blu”, dice Tinder.

AI E CONTENUTI
La scommessa di Reddit

Reddit, la nota piattaforma social, strutturata in forum tematici (subreddits),  ha stretto un accordo con Google (del valore di circa 60 milioni di dollari all'anno) per rendere disponibili i suoi contenuti per l'addestramento dei modelli di intelligenza artificiale del colosso tech. La mossa si inquadrerebbe all’interno della prossima quotazione in Borsa della società, riferisce Reuters (qua il prospetto depositato per un'offerta pubblica iniziale, IPO,  sul New York Stock Exchange).

Reddit è presente in alcuni dataset usati per l’addestramento dell’AI come outbound links, ovvero sono presenti i contenuti di pagine esterne che sono stati linkati e votati un certo numero di volte dai suoi utenti. Nel documento alla SEC, Reddit scrive che “alcune aziende hanno costruito modelli linguistici commerciali di grandi dimensioni utilizzando i dati di Reddit senza stipulare un contratto di licenza con noi”.
Tuttavia, ora la musica è cambiata.
“Crediamo che i dati della nostra piattaforma, in continua crescita, saranno un elemento chiave per l'addestramento di modelli linguistici di grandi dimensioni ("LLM") e serviranno come ulteriore canale di monetizzazione per Reddit", si legge nel documento. Dove si riconosce tuttavia che proprio gli LLM sono in competizione con Reddit. 
Leggi anche: 404media

AI E LLM
Finte citazioni in articoli sintetici

Ancora sul tema LLM. La professoressa di linguistica Emily Bender (coautrice del noto paper sui “pappagalli stocastici”, che analizzò i rischi associati ai modelli linguistici di grandi dimensioni, di cui ho scritto più volte in newsletter) si è trovata citata in un sito con una frase che non aveva mai detto, e con parole che non aveva mai rilasciato. Dopo averlo segnalato ai redattori del sito, questi hanno ammesso di aver generato l’articolo attraverso un modello linguistico di grandi dimensioni. Potremmo chiuderla qua, come una parabola tecnologica.
Ma Bender aggiunge un paio di commenti su Twitter: “Ora che tutti hanno accesso a macchine per l'estrusione di testi sintetici in grado di generare testi su un argomento richiesto e in uno stile richiesto, qualsiasi fonte non familiare è sospetta.(...) Se siete visibili nei media, ora siete molto vulnerabili all'attribuzione di citazioni false”.

SOCIAL MEDIA
Per i giovani LGBTQ+ i social media sono un alleato

I giovani si sa stanno sui social media, soprattutto su alcuni social come TikTok e Instagram. Sebbene si parli spesso dei possibili effetti negativi delle piattaforme sui minori, vari studi e rapporti sottolineano come proprio sui social le minoranze sessuali e di genere trovino spesso un luogo per sviluppare la propria identità tra pari. Ma, specie dopo i tagli ai team di sicurezza di alcune piattaforme, aumenta il rischio di aggressioni online.
Ne scrive Chiara Crescenzi per Guerre di Rete.

IN BREVE

GUERRA UCRAINA
Due anni di cyber guerra in Ucraina
Ne ho parlato nella trasmissione Progress di Alberto Giuffrè (SkyTg24), con anche un riferimento alla vicenda Lockbit. Qua il VIDEO.

Dopo Navalny - podcast di Valigia Blu.

ASSANGE
Non abbiamo ancora capito Julian Assange - Il Post
Estradare Assange è un grave attacco alla libertà di informazione - Valigia Blu

AI E IMPATTO AMBIENTALE
“È ancora molto difficile ottenere dati accurati e completi sull'impatto ambientale. I costi planetari completi dell'AI generativa sono segreti aziendali strettamente custoditi. Le cifre si basano su studi di laboratorio condotti da ricercatrici come Emma Strubell e Sasha Luccioni, su rapporti limitati di società e sui dati rilasciati dai governi locali. Al momento, le aziende sono poco incentivate a cambiare”. Lo scrive Kate Crawford (autrice di Atlas of AI) su Nature.

Se volete i conti, ovvero alcune stime parziali, ci ha provato questo articolo di The Verge.

→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti. 

Non sei ancora iscritto? Iscriviti qua, è gratuita.

Dona alla newsletter

—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo).
Ha anche una pagina Facebook, un profilo TwitterLinkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)


文章来源: https://guerredirete.substack.com/p/guerre-di-rete-effetto-sora-sullinformazione
如有侵权请联系:admin#unsafe.sh