Guerre di Rete - Gaza, la guerra, l'AI
2024-4-6 21:1:34 Author: guerredirete.substack.com(查看原文) 阅读量:8 收藏

(Immagine da Wikimedia)

Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N.184 - 6 aprile 2024

(Comunicazioni di servizio)
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 13mila iscritti - ma molti più lettori, essendo pubblicata anche online) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione.

Dona alla newsletter

In più, il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito
Qui una lista con link dei nostri progetti per avere un colpo d’occhio di quello che facciamo.

Nel 2024 si è aggiunta Digital Conflicts, una newsletter bimensile in inglese, che per ora sarà principalmente una trasposizione della newsletter italiana, con alcune aggiunte e modifiche pensate per un pubblico internazionale (e con particolare attenzione all’Europa).
Qui leggete il primo numero.
Qui per iscriversi..

Qui invece potete scaricare gratis il primo ebook di Guerre di Rete che si intitola Generazione AI ed è dedicato agli ultimi sviluppi dell’intelligenza artificiale (uscito a settembre).

In questo numero:
- Quale ruolo dei sistemi di AI nella guerra a Gaza?
- Libri spazzatura generati dall’AI
- Erik Davis: non lasciamo il sogno della tecnologia ai padroni del tech
- Rendiamo i metodi trasparenti perché i lettori non possono più fidarsi
- Operazione backdoor
- Altro: libri, eventi, letture

AI E GUERRA
Quale ruolo dei sistemi di AI nella guerra a Gaza?

Dopo l’attacco di Hamas del 7 ottobre e l’inizio della guerra a Gaza, l'individuazione di obiettivi da colpire da parte dall'esercito israeliano (IDF) ha subito una forte accelerazione. Per soddisfare la richiesta di nuovi target da colpire - sostiene un lungo reportage del Guardian, basato in larga parte su un’inchiesta pubblicata su due media israeliani critici del loro attuale governo, Local Call e +972 Magazine - l'IDF avrebbe fatto affidamento su Lavender, un sistema che genera un database di individui che avrebbero le caratteristiche di un militante di Hamas o della PIJ (Palestinian Islamic Jihad).

Lavender avrebbe svolto un ruolo centrale nei bombardamenti sui palestinesi, soprattutto durante le prime fasi della guerra, afferma l’inchiesta. E la sua influenza sulle operazioni militari sarebbe stata tale da indurre i militari a trattare i risultati del sistema di AI "come se si trattasse di una decisione umana", sostiene +972 Magazine. Autore dell’inchiesta è Yuval Abraham, già coautore del documentario No Other Land (premiato al Festival del cinema di Berlino, qui un pezzo di Valigia Blu che lo racconta).

“Nelle prime settimane di guerra, l'esercito si è affidato quasi completamente a Lavender, che ha individuato ben 37.000 palestinesi come sospetti militanti - e le loro case - per possibili attacchi aerei”, scrive ancora +972 Magazine, aggiungendo che l'esercito avrebbe autorizzato gli ufficiali ad adottare le liste di target identificate da Lavender, senza alcun obbligo di verificare a fondo il motivo per cui il sistema aveva fatto quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano.

Il sistema Lavender si aggiunge a un altro sistema di intelligenza artificiale, noto sui media come "Habsora/Gospel", di cui si era già parlato in passato. Ma una differenza fondamentale tra i due sistemi è nella definizione del bersaglio: mentre Gospel contrassegna gli edifici e le strutture da cui opererebbero i militanti, Lavender individua persone - e le inserisce in una kill list, una lista di persone da uccidere.
L’inchiesta sostiene anche che ci sia un ulteriore sistema per individuare e colpire il target quando sta rientrando a casa.

In risposta a questa inchiesta, riporta ancora il Guardian, l'IDF ha dichiarato in un comunicato che le sue operazioni sono state condotte in conformità alle regole di proporzionalità del diritto internazionale. Che Lavender sarebbe solo un database utilizzato "per incrociare le fonti di intelligence” e non sarebbe “un elenco di operativi militari confermati”. E ha affermato di non utilizzare un “sistema di intelligenza artificiale che identifica gli operativi terroristici o cerca di prevedere se una persona è un terrorista".
Inoltre l'IDF respinge categoricamente l'affermazione dell’esistenza di qualsiasi policy di uccisione di decine di migliaia di persone nelle loro case.

Ma questa inchiesta, se confermata nei dettagli, apre interrogativi enormi e inquietanti sul ruolo che i sistemi di AI stanno assumendo o potranno assumere in guerra, sistemi che tendono già a essere delle scatole nere per come sono progettati e funzionano, e che specie in scenari di conflitto diventano ancora più opachi, privi di controlli o audit esterni. Sappiamo che storicamente le affermazioni sull’accuratezza di questi sistemi sono state smentite più e più volte non appena qualcuno ha potuto verificarli. Senza contare che la loro accuratezza, in molti casi, semplicemente si rivela per quello che è col loro utilizzo, e resta sotto gli occhi di chiunque voglia davvero guardare.

Tutto questo ha colpito e smosso una parte della comunità tech presente online. Tra chi fa un appello a concentrarci subito sull’uso dell’AI in ambito militare. Chi vuole sapere quali processi di revisione siano adottati da IDF in questi sistemi. Chi, come Brian Merchant, commenta che “l’AI è terrificante non perché è troppo potente, ma perché permette agli operatori di scaricare le responsabilità sul sistema e ai leader di usarla per giustificare quasi tutti i livelli di violenza”.

“L'AI come pretesto per una violenza mortale”, ha commentato pure la linguista e critica dell’hype sull’intelligenza artificiale Emily Bender. Anche Claudio Agosti, della no profit AI Forensics, mette in guardia dal rischio di cadere nella narrazione che è “la tecnologia che sta facendo il lavoro, non è colpa tua”. Anche per Meredith Whittaker (Signal), “​​dobbiamo assicurarci che l'AI non sia usata per facilitare la fuga computazionale dalle colpe”.

“L'uso della tecnologia AI  - commenta un’analisi del WashPost al riguardo - è ancora solo una piccola parte di ciò che angoscia gli attivisti per i diritti umani riguardo alla condotta di Israele a Gaza. Ma indica un futuro più oscuro”.

Mona Shtaya, una non resident fellow al Tahrir Institute for Middle East Policy, ha dichiarato a The Verge che “il sistema Lavender è un'estensione dell'uso di tecnologie di sorveglianza da parte di Israele sui palestinesi sia nella Striscia di Gaza che in Cisgiordania. Shtaya, che risiede in Cisgiordania, ha dichiarato a The Verge che questi strumenti sono particolarmente preoccupanti alla luce delle notizie secondo le quali le startup israeliane della difesa sperano di esportare all'estero la loro tecnologia testata in battaglia”.

La coalizione Stop Killer Robots (che chiede una legge internazionale sui sistemi d’arma autonomi e che vuole far mantenere il controllo umano sull’uso della forza) ha pubblicato un commento in cui dice di “trovare profondamente preoccupanti, da un punto di vista legale, morale e umanitario, le notizie sull'uso da parte di Israele di sistemi di raccomandazione dei bersagli nella Striscia di Gaza. Sebbene il sistema Lavender, come il sistema Habsora/Gospel, non sia un'arma autonoma, entrambi sollevano serie preoccupazioni sull'uso crescente dell'intelligenza artificiale nei conflitti, sui pregiudizi dell'automazione (automation bias), sulla disumanizzazione digitale e sulla perdita del controllo umano nell'uso della forza”.

AI E GOOGLE BOOKS
Libri spazzatura generati dall’AI

Dopo le inserzioni su Amazon, i paper accademici, e gli articoli online, i testi generati dall’AI stanno riempiendo anche Google Books (Google Libri), lo strumento sviluppato dall’azienda tech per permettere la ricerca nel testo di libri antichi digitalizzati o di libri in commercio. A notarlo è la testata 404media, che ha fatto una serie di ricerche usando un sistema molto semplice. Ha cercato, su Google Libri, la frase: "Sulla base del mio ultimo aggiornamento", che è associata alle risposte generate da ChatGPT. La ricerca ha restituito decine di libri che includono questa frase, buona parte dei quali generati da AI. Oltre a invadere di spazzatura la Rete, uno dei problemi collaterali di questo fenomeno - commenta 404media - è che potrebbe avere un impatto sul Google Ngram Viewer, uno strumento usato nella ricerca per tracciare le frequenze di parole o frasi presenti in un dato periodo nei libri pubblicati e scansionati da Google, libri che vanno dal 1500 al 2019. In pratica uno strumento che gli accademici usano per fare ricerca sulla cultura e sul linguaggio umano.
“Se in futuro i libri generati dall'AI inizieranno a plasmare i risultati del Ngram viewer, il significato di questi risultati cambierà completamente. O saranno inaffidabili per insegnarci qualcosa sulla cultura prodotta dall'uomo, o diranno qualcosa di più cupo: che la cultura prodotta dall'uomo è stata sostituita da contenuti generati dall'intelligenza artificiale”, scrive l’autore.

CULTURA CYBER
Erik Davis: non lasciamo il sogno della tecnologia ai padroni del tech

Su Guerre di Rete abbiamo pubblicato una bellissima intervista di Philip Di Salvo a Erik Davis, autore di Techgnosis negli anni '90.

Scrive Philip: "Seguire le discussioni attorno alla tecnologia oggi significa anche, spesso, confrontarsi con toni estatici, mistici, quasi religiosi. Lo si vede attorno all’intelligenza artificiale e alle preoccupazioni da fine del mondo e della storia che le vengono spesso associate, insieme alle sue capacità sovrumane. Non vi sono dubbi che questi punti di vista siano erronei e persino pericolosi in termini scientifici, sociali e politici, ma allo stesso tempo dimostrano anche qualcosa di più ampio e di natura differente. Le tecnologie dell’informazione, da che esistono, sono sempre state accompagnate da una dimensione narrativa quasi spirituale; per via dei loro loro tratti conturbanti o sublimi (come teorizzato dal ricercatore Vincent Mosco, recentemente scomparso), a tratti quasi disturbanti, e alla loro capacità di aprire faglie, spalancare orizzonti, connetterci con dimensioni altre".(...)

Uscito originariamente nel 1998, Techgnosis è diventato progressivamente un elemento cruciale di quella mistica, un testo ovviamente molto ancorato nello Zeitgeist in cui è stato scritto, ma allo stesso tempo capace di guardarvi con la giusta dose di distacco e disincanto, tanto da essere ancora sorprendentemente attuale ora che viene riproposto dall’editore NERO con una nuova traduzione italiana. (...)

Leggere Techgnosis oggi, però, in tempi in cui l’immaginazione di altro nella tecnologia sembra impossibile per chiunque non sia un miliardario intriso di bullshit escatologiche da capitalismo impazzito a un passo dal fascismo, è un esercizio rivitalizzante. Leggerlo serve a ricordare che l’utopismo tecnologico degli anni ’90, al netto dei suoi lati più risibili, era anche un motore positivo di potenziale cambiamento. Niente o quasi di quello che si sognava allora si è materializzato e quella battaglia è forse persa per sempre, ma in Techgnosis si trova ancora un qualche seme psichedelico e mistico su cui almeno provare a sognare delle tecnologie che non siano solo statistica applicata, burocraticizzazione della natura umana, efficienza quantitativa e incubi securitari"

Dice Davis a Di Salvo: "Siamo in una situazione davvero difficile e quello che sta succedendo attorno alI’AI è un ottimo esempio. Noi due possiamo stare in cima alla collina tutto il giorno con i nostri megafoni e dire che è solo statistica, che è semplicemente un’operazione algoritmica parassitaria applicata alla conoscenza umana pre-esistente, e così dicendo. Ma a un livello più ampio, quel tipo di fiction speculativa, del mito, continuerà semplicemente a girare imperterrita e in realtà modellerà anche il modo in cui le persone interagiscono davvero con tutto questo”.

Leggetela tutta sul sito di Guerre di Rete

GIORNALISMO
Rendiamo i metodi trasparenti perché i lettori non possono più fidarsi

Su Reuters Institute c’è una bella intervista a Julia Angwin (già a ProPublica e ora fondatrice di Proof News) sul giornalismo in questa fase di intensa transizione tecnologica. Siccome risuona di molte cose di cui ho scritto in newsletter nelle ultime settimane, ma ne scandisce bene anche altre, vorrei segnalarla ai lettori:

“Ho voluto mettere al primo posto il metodo, più che l'argomento”, dice Angwin, “perché i metodi sono sempre più importanti in un'epoca in cui nessuno si fida del giornalismo. Non è sufficiente dire sono una giornalista tecnologica e dovreste fidarvi di quello che dico”.
Rendere i metodi trasparenti è qualcosa di cui abbiamo bisogno, prosegue la nota giornalista investigativa, “in un'epoca in cui l'intelligenza artificiale crea ogni tipo di testo plausibile, in cui abbiamo ogni tipo di fornitore di disinformazione e in cui alcune redazioni scrivono comunicati stampa come se fossero articoli di cronaca. Questo panorama informativo è molto inquinato, quindi concentrarsi sui metodi è un modo per ricostruire la fiducia del pubblico. (...) La posizione di default per le persone intelligenti al giorno d'oggi è quella di non fidarsi di nulla, a meno che non riescano a trovare un modo per fidarsi. L'impostazione predefinita è di non fidarsi”

Di questa importanza di insistere sul metodo, e sulla trasparenza, di trovare modo di fidarsi di ciò che è autentico, più che inseguire ciò che è falso,

avevo scritto qua.

Ma Angwin sostiene anche qualcosa su cui sono molto d’accordo. Che il giornalismo dovrebbe concentrarsi meno sulla testimonianza e più sull'analisi. (Anche in tempo di guerra, aggiungo).

Per quanto riguarda la causa intentata dal New York Times contro Microsoft e OpenAI (creatore di ChatGPT) per presunta violazione del copyright, Angwin dice: “Apprezzo molto l'azione legale del Times. È una mossa che aiuterà tutti gli operatori del giornalismo, se si crea un precedente e non si arriva a un accordo. Altre testate hanno semplicemente venduto il loro archivio in cambio di denaro. Se si pensa ai benefici che queste aziende [tech] otterranno da anni e anni di lavoro e sforzi giornalistici, non credo che ne valga la pena. Sono quindi felice che il Times lo stia facendo, perché qualcuno doveva prendere posizione. A settembre ho scritto un saggio sul New York Times a questo proposito. Sono molto preoccupata che i beni comuni (commons) vengano sfruttati in modo incontrollato da aziende tecnologiche rapaci, che rubano tutto ciò che è nella sfera pubblica. Sono preoccupata per ciò che questo significherà in realtà: che non ci sarà alcun incentivo a mettere qualcosa nella sfera pubblica”

Se non arriveranno a un accordo. 

CYBERSICUREZZA
Operazione backdoor

Ingegnere Microsoft trova per caso una backdoor in uno strumento open source integrato in molte distribuzioni di Linux - e si scopre che a mettercela è stata una “persona” online che si era offerta di aiutare lo sviluppatore originario, dopo che presunti altri utenti si erano lamentati della lentezza degli aggiornamenti.

Questa in super sintesi è la storia di un audace tentativo di compromettere la sicurezza di sistemi Linux, e di come è stato sventato, quasi per caso, nelle scorse settimane. Il veicolo di questo attacco è stato lo strumento di compressione open-source XZ Utils.

La storia è raccontata in dettaglio da Wired Usa, che avanza l’ipotesi di un attacco di tipo statale, o come si dice in gergo, sponsorizzato da uno Stato.

APPROFONDIMENTI O LINK

LIBRI

Jospeh Cox, Dark Wire, storia di come l’FBI ha gestito una app di comunicazioni sicure per incastrare tutti i criminali che la usavano.

PODCAST
Rachel Tobac, un’esperta di social engineering si racconta su Darknet Diaries

RITRATTO
Come il fondatore di Stability AI ha fatto fallire la sua startup da un miliardo di dollari - Forbes

DOVE VEDERCI

Ci vediamo, se volete, l'11 aprile al Festival Transfemminista a Torino dove parlerò (in buona compagnia) di AI e pregiudizi (per prenotarsi dal vivo; streaming)

E il 19 e il 21 aprile a due panel dell'International Journalism Festival di Perugia dove parlerò di cyberwarfare, e di AI e geopolitica

→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti. 

Non sei ancora iscritto? Iscriviti qua, è gratuita.

Dona alla newsletter

—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo).
Ha anche una pagina Facebook, un profilo TwitterLinkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)


文章来源: https://guerredirete.substack.com/p/guerre-di-rete-gaza-la-guerra-lai
如有侵权请联系:admin#unsafe.sh