Guerre di Rete - L’AI va in guerra (c’era già, ma qualcosa è cambiato?)
嗯,用户让我用中文帮他总结一下这篇文章的内容,控制在一百个字以内,而且不需要用“文章内容总结”或者“这篇文章”这样的开头,直接写描述就行。首先,我需要仔细阅读并理解这篇文章的内容。 看起来这篇文章主要讨论了人工智能在军事领域的应用,特别是Anthropic公司与美国国防部之间的冲突。Anthropic开发的Claude AI被用于军事任务,但公司坚持一些伦理限制,比如不用于大规模监控和完全自主的武器系统。结果,美国国防部将Anthropic排除在政府合同之外,但后来又继续使用其技术。这引发了伦理和技术应用的讨论。 接下来,我需要将这些要点浓缩到100字以内。要确保涵盖主要事件:AI用于军事、Anthropic的伦理立场、与国防部的冲突、以及引发的伦理和技术危机讨论。 可能的结构是:先点出AI在军事中的应用及其引发的争议,然后提到Anthropic与国防部的冲突及其后果,最后说明这反映了技术与伦理之间的矛盾。 现在试着组织语言: “文章探讨了人工智能在军事领域的应用及其引发的伦理争议。Anthropic公司开发的Claude AI被用于情报分析和军事决策支持,但公司拒绝将其用于大规模监控和完全自主武器系统。美国国防部因此将该公司排除在政府合同之外,但随后又继续使用其技术。这一事件引发了关于技术应用边界和伦理责任的广泛讨论。” 检查一下字数:刚好100字左右。 最后确认是否符合用户的要求:用中文、控制在100字以内、直接描述内容、没有特定开头。看起来没问题。 </think> 文章探讨了人工智能在军事领域的应用及其引发的伦理争议。Anthropic公司开发的Claude AI被用于情报分析和军事决策支持,但公司拒绝将其用于大规模监控和完全自主武器系统。美国国防部因此将该公司排除在政府合同之外,但随后又继续使用其技术。这一事件引发了关于技术应用边界和伦理责任的广泛讨论。 2026-3-2 18:3:18 Author: guerredirete.substack.com(查看原文) 阅读量:3 收藏

Nella foto, Dario Amodei, Ceo di Anthropic, credits Wikimedia

Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N. 216 - 2 marzo 2026

Buongiorno a tutti, la newsletter torna oggi dopo una lunga pausa, a causa di importanti questioni personali che mi hanno impedito di scriverla. Per lo stesso motivo, ancora per un po’ di tempo non avrà una cadenza regolare. Grazie per la comprensione.

EBOOK GUERRE DI RETE
Ricordo che potete scaricare liberamente dal nostro sito il nostro recente Manualetto di sicurezza digitale per giornalisti e attivisti.

AI E GUERRA
L’AI va in guerra (c’era già, ma qualcosa è cambiato?)

È impressionante, ma non inaspettata, la velocità con cui siamo passati a parlare di intelligenza artificiale intesa come il tuo copilota personale o lavorativo che toglierà di mezzo un sacco di compiti noiosi, a intelligenza artificiale intesa come tecnologia che facilita un bombardamento.

Voglio dire, è ovvio che questo secondo aspetto fosse già lampante da tempo (per molti, sicuramente per questa newsletter e per il sito Guerre di Rete): del resto, bastava seguire i resoconti della guerra in Ucraina e degli attacchi israeliani su Gaza.

Ma lo scontro tra il Pentagono e Anthropic (società che produce Claude, la nota famiglia di modelli linguistici di grandi dimensioni) ha avuto il merito di funzionare da pirandelliano strappo nel cielo di carta.
Si sta infatti cementando un complesso militare-industriale con al centro l’intelligenza artificiale, su cui i governi (in primis, quello Usa), ossessionati dal raggiungere la supremazia tecnologica, stanno scommettendo moltissimo e per cui sono disposti a far saltare qualsiasi regola, anche nei rapporti con le società produttrici. E, d’altro canto, queste ultime, affamate di utili che ancora non arrivano, non si fanno alcuno scrupolo a siglare contratti coi militari, whatever it takes.

Tutto ciò, in uno scenario in cui le conseguenze di questa rapidissima integrazione tra AI e sistemi d’arma e d’intelligence sono ancora tutte da capire (in termini di affidabilità, sicurezza, risvolti etici, legali) e prospettano scenari distopici.

E dunque veniamo all’analisi di chi questo cielo di carta, nelle ultime settimane, lo ha preso a mazzate: lo scontro Anthropic-Pentagono, che ha portato alla messa al bando della società dai contratti governativi americani. Partendo però dalla fine. Perché secondo il WSJ, il Comando Centrale degli Stati Uniti (CENTCOM) ha ancora utilizzato l’intelligenza artificiale di Anthropic durante gli attacchi in Iran, poco dopo il ban. Del resto, Trump aveva specificato che ci sarebbe stata una fase di transizione di sei mesi per il Dipartimento della Difesa e le altre agenzie che utilizzano i prodotti dell’azienda. Nel mentre, il segretario alla Difesa Pete Hegseth ha ordinato al Pentagono di designare Anthropic un “rischio per la catena di approvvigionamento”, come una qualsiasi azienda hi tech cinese o russa sospettata di avere backdoor nei suoi prodotti (e infatti sulla dubbia legalità di questa mossa senza precedenti, rimando a questo articolo).

“Con effetto immediato, nessun appaltatore, fornitore o partner che intrattiene rapporti commerciali con l’esercito degli Stati Uniti può svolgere alcuna attività commerciale con Anthropic”, ha scritto Hegseth in un post sui social.

Su come Claude sia utilizzato dai militari si sa ovviamente poco. Sappiamo che Anthtropic è stata la prima società di modelli di AI ad ottenere un contratto da 200 milioni di dollari col Pentagono, la scorsa estate, creando dei modelli ad hoc, come Claude Gov, con meno restrizioni. E che fino a pochi giorni fa è stata l’unica a poter lavorare con sistemi classificati. Secondo fonti di Wired Usa, Claude Gov sarebbe utilizzato principalmente per compiti di routine, come la redazione di rapporti e la sintesi di documenti, ma anche per l’analisi delle informazioni e la pianificazione militare. “Da quanto ne sappiamo - scrive la newsletter AI Update - viene utilizzato per elaborare dati di intelligence, identificare pattern nelle immagini satellitari e nelle comunicazioni intercettate, eseguire simulazioni e generare briefing. Pensatelo come l’assistente di ricerca più costoso al mondo, non come un Terminator. Ma il confine tra “supportare le decisioni” e “prendere decisioni” diventa rapidamente sfumato quando si elaborano i dati che determinano dove cadrà il prossimo missile”.

Inoltre Claude è integrato in una piattaforma di Palantir, società di analisi dei dati ben nota per i molteplici contratti col governo Usa: si tratta del Maven Smart System, uno strumento di AI che fornisce alle truppe un quadro unificato delle informazioni di intelligence provenienti da più sensori.

Ed è proprio questa partnership che ha portato alle prime avvisaglie dello scontro Anthropic-Pentagono, quando a gennaio è emerso sui media che nella cattura di Maduro sarebbe stato usato anche Claude. Un dipendente di Anthropic avrebbe chiesto chiarimenti sull’operazione a una controparte in Palantir, che a sua volta avrebbe informato il Pentagono, che si sarebbe alquanto irritato. Anche perché probabilmente erano già in atto delle tensioni e negoziazioni con la società cofondata da Dario Amodei sulle restrizioni volute dalla stessa società nell’utilizzo di Claude da parte dei militari. Fra queste, due apparivano come non negoziabili per Amodei: no all’uso per fare sorveglianza di massa sui cittadini Usa; no all’uso in armi completamente autonome (senza supervisione umana).

Due questioni che erano già state sottolineate da Amodei in un saggio pubblicato a gennaio. E che sono francamente diventate una sorta di limite etico minimo, una specie di palizzata disperata contro i carri armati della distopia. Per questo Amodei, e Anthropic, che hanno costruito la loro società sull’idea, se volete sul brand, di essere migliori di OpenAI, di pensare di più alla sicurezza e all’etica, non avrebbe mai potuto cedere alle minacce del Pentagono. È stata la cronaca di una spaccatura annunciata.

Ora Anthropic, che combatterà in tribunale la designazione di rischio nella catena di fornitura, è diventata un paria per il governo ma si è guadagnata il rispetto di molti nel settore. E ha generato delle scosse telluriche in altre aziende, dove i dipendenti di sono messi a firmare petizioni per chiedere di opporsi all’uso dei loro strumenti di intelligenza artificiale per la sorveglianza di massa e per la produzione di armi in grado di uccidere senza il controllo umano. E mentre Claude balza in cima ai download sull’App Store Usa, c’è chi chiede di boicottare ChatGPT dopo la notizia che OpenAI avrebbe invece trovato un accordo con il Pentagono per usare i suoi modelli in reti militari classificate. Un accordo che non convince anche molti esperti di tecnologia.

E quindi, siamo di fronte a una Authoritarian AI Crisis, come ha scritto Casey Newton? Non lo so, ma certo ci voleva una buona dose di ingenuità (o un fitto strato di prosciutto sugli occhi) per pensare che si potessero fare contratti coi dipartimenti della difesa senza che questi sollevassero grossi problemi etici per aziende private nate come laboratori di ricerca per costruire una tecnologia che migliorerà il mondo.

Ma almeno ora alcune delle contraddizioni sono più visibili per tutti. Come è palese che i margini di azione in questo campo da parte della società civile e di chi si preoccupa di diritti umani e legalità si stanno restringendo sempre più velocemente, se non si agisce subito.

DAL SITO GUERREDIRETE.IT

Assalto al trono di Nvidia
Rivali che puntano a eroderne il dominio, startup innovative e la rincorsa cinese: il gigante fondato da Jensen Huang deve iniziare a guardarsi alle spalle.
Di Andrea Daniele Signorelli

LINK VARI

LIBRO
Reminder: qualche mese fa è uscito il mio romanzo
L’inganno dell’automa, un thriller pieno di temi da Guerre di Rete. Il libro si trova, in versione cartacea o ebook, sulle maggiori piattaforme di vendita di libri e sul sito dell’editore Venipedia, oltre che in negozio (ma spesso va ordinato

Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 14.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.

Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.

Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo).

Ha anche una pagina Facebook, Linkedin e Instagram. Seguiteli!

Discussione su questo Post

Assolutamente, procediamo.


文章来源: https://guerredirete.substack.com/p/guerre-di-rete-lai-va-in-guerra-cera
如有侵权请联系:admin#unsafe.sh