Trump ha dichiarato guerra ad Anthropic. E la safety dell'AI è diventata un reato
Armi autonome, sorveglianza di massa e un'azienda AI nel mezzo.
Super novità! 🤗 Il 19-20 maggio sarò all’AI WEEK 2026, Fiera Rho, Milano.
Se state pensando di partecipare, vi aspetto per un caffè. Ho un piccolo sconto per voi. Usate il codice PANUCCI20 su aiweek.it in fase di acquisto; è un 20% sul biglietto. È il codice della community, usatelo.
Cari Gladiatori e Gladiatrici Digitali,
Venerdì 27 febbraio 2026.
Sono le 9:47 PM, ora della costa Est americana. Il Presidente degli Stati Uniti pubblica un post su Truth Social. Lettere maiuscole, tono furioso. Il bersaglio è un’azienda di San Francisco che fa intelligenza artificiale.
Quell’azienda è Anthropic. Quella che ha creato Claude. Sì, lo stesso Claude che molti di voi usano ogni giorno, lo stesso di cui vi parlo da mesi in questa newsletter, lo stesso con cui ho scritto guide, analizzato plugin, smontato workflow.
Il Presidente ordina a ogni agenzia federale degli Stati Uniti di cessare immediatamente l’uso della tecnologia di Anthropic.
Il Segretario alla Difesa Pete Hegseth rilancia: Anthropic viene dichiarata “rischio per la catena di fornitura della sicurezza nazionale”. Una designazione che di solito si riserva agli avversari stranieri, tipo Huawei. Poche ore dopo, OpenAI annuncia di aver firmato un contratto con il Pentagono per fornire i propri modelli sulle reti classificate del Dipartimento della Difesa.
Il tutto in meno di sei ore.
Ora, so cosa state pensando: “Giovanna, ma a me cosa cambia? Io uso Claude per i contratti, non per i droni.”
Cambierà. E vi spiego perché.
La sequenza dei fatti: cosa è successo
Partiamo dall’inizio, perché la cronaca è importante.
Da mesi Anthropic ha un contratto con il Pentagono del valore di circa 200 milioni di dollari. Claude viene usato anche su reti classificate, è una delle pochissime AI approvate per lavoro su materiale riservato della difesa americana.
Il contratto, però, contiene due clausole che Anthropic ha sempre voluto mantenere. Due “linee rosse”, come le chiama l’azienda:
❌ nessun uso per la sorveglianza di massa dei cittadini americani e
❌ nessun uso per sistemi d’arma completamente autonomi (cioè armi che decidono da sole chi colpire, senza un essere umano che preme il grilletto).
Il Pentagono ha chiesto ad Anthropic di rimuovere queste clausole. La loro posizione: il Dipartimento della Difesa deve poter usare qualsiasi tecnologia acquistata “per tutti gli scopi leciti”, senza che un’azienda privata gli dica cosa può e cosa non può fare. In sostanza: noi rispettiamo la legge, non abbiamo bisogno che un fornitore ci metta i paletti.
Anthropic ha rifiutato. Il CEO Dario Amodei ha pubblicato giovedì sera una dichiarazione lunga e articolata in cui spiega che l’azienda riconosce che le decisioni militari spettano al governo, non alle aziende private. Ma aggiunge due cose: primo, i modelli AI di oggi non sono abbastanza affidabili per gestire armi autonome senza supervisione umana. Secondo, la sorveglianza di massa domestica è incompatibile con i valori democratici, punto.
Il sottosegretario del Pentagono Emil Michael ha risposto su X accusando Amodei di mentire e di avere un “complesso di Dio”. Il Presidente ha fatto il resto.
Cosa ha detto Trump, esattamente
Vale la pena leggere le parole precise, perché il tono è parte della notizia.
Trump ha scritto: “I pazzi di sinistra di Anthropic hanno fatto un ERRORE DISASTROSO cercando di FORZARE il Dipartimento della Guerra a obbedire ai loro Termini di Servizio invece che alla nostra Costituzione.”
E poi: “Ordino a OGNI Agenzia Federale degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni uso della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo, e non faremo mai più affari con loro!”
Ha concesso sei mesi per il phase-out. Ma ha anche aggiunto un avvertimento: se Anthropic non collabora durante la transizione, userà “il Pieno Potere della Presidenza per costringerli ad adeguarsi, con gravi conseguenze civili e penali”.
Qui non stiamo parlando di una disputa commerciale. Stiamo parlando di un Presidente che dichiara guerra a un’azienda perché quell’azienda vuole mantenere dei limiti etici sull’uso della propria tecnologia.
Il colpo di scena: OpenAI dice “noi la pensiamo uguale”
Poche ore prima del post di Trump, Sam Altman (CEO di OpenAI, il principale concorrente di Anthropic) ha detto a CNBC di condividere le stesse “linee rosse” di Anthropic: niente sorveglianza di massa, niente armi autonome senza controllo umano.
In una nota interna ai dipendenti vista da diversi giornalisti, Altman ha scritto che OpenAI stava negoziando un contratto con il Pentagono che includesse esattamente le stesse esclusioni.
Poi, poche ore dopo il ban di Trump, OpenAI ha annunciato di aver firmato un contratto con il Dipartimento della Difesa per fornire i propri modelli sulle reti classificate. Il tempismo è stato notato da tutti. Altman ha specificato che il Pentagono ha mostrato “profondo rispetto per la safety” e ha dichiarato che i due principi fondamentali della sua azienda sono il divieto di sorveglianza di massa domestica e la responsabilità umana nell’uso della forza.
Undici dipendenti di OpenAI hanno firmato una lettera aperta al Congresso in cui si legge: “Il governo federale non dovrebbe ritorcersi contro un’azienda privata per aver rifiutato di accettare modifiche a un contratto.”
Quindi: Anthropic viene bandita per aver detto no a qualcosa che anche il suo principale concorrente dice di rifiutare. Ma il concorrente nel frattempo ha firmato il contratto.
Tirate le vostre conclusioni.
Due riflessioni che non leggerete altrove
1. Il paradosso della safety come rischio per la sicurezza nazionale
Fermiamoci un secondo ad analizzare quello che è successo.
Un’azienda di IA viene dichiarata rischio per la sicurezza nazionale non perché abbia violato la legge, non perché abbia venduto tecnologia ai cinesi, non perché abbia subito un data breach. Viene dichiarata rischio per la sicurezza nazionale perché ha posto dei limiti di sicurezza sulla propria tecnologia.
Il termine tecnico che il Pentagono usa - “supply chain risk” - è lo stesso che viene applicato a Huawei, a Kaspersky, ad aziende sospettate di essere controllate da governi ostili. Applicarlo a un’azienda americana perché quella azienda dice “il nostro modello non è abbastanza affidabile per decidere autonomamente chi uccidere” è qualcosa che non ha precedenti.
E qui c’è il paradosso: l’AI Act europeo, il Regolamento (UE) 2024/1689, classifica i sistemi d’arma autonomi letali (LAWS) come usi esplicitamente esclusi dal suo ambito di applicazione (art. 2, par. 3) proprio perché li considera talmente rischiosi da richiedere una governance separata. Anthropic dice sostanzialmente la stessa cosa (questa tecnologia non è pronta per quell’uso) e viene punita.
Il messaggio che arriva al resto dell’industria è chiarissimo: se poni limiti etici alla tua tecnologia e quei limiti non piacciono al governo, sei un nemico. Non un fornitore scomodo. Un nemico.
2. Il precedente per l’Europa (e per noi)
Questo non è un problema americano. È un precedente globale.
Se il governo più potente del mondo stabilisce che un’azienda AI non può porre limiti contrattuali sull’uso della propria tecnologia, cosa succede quando la stessa logica viene applicata in Europa? L’intero impianto dell’AI Act si basa sull’idea che i fornitori di sistemi AI hanno obblighi di sicurezza, trasparenza e limitazione d’uso (artt. 16 e ss., Reg. UE 2024/1689). Un fornitore che classifica il proprio sistema come ad alto rischio deve imporre restrizioni d’uso. Non è una scelta: è un obbligo legale.
Se un governo dice “nessun fornitore può dirci come usare la tecnologia che compriamo”, si scontra frontalmente con un sistema normativo che dice esattamente il contrario: il fornitore deve dirti come puoi e non puoi usarla.
E c’è un aspetto ancora più concreto. Anthropic ha una valutazione di 380 miliardi di dollari e sta pianificando la quotazione in borsa. Nonostante tutto, il CEO Amodei ha fatto notare che il fatturato e la valutazione dell’azienda sono cresciuti da quando ha preso posizione contro il Pentagono. Il mercato, almeno per ora, non sta punendo la safety. Sta punendo chi non ce l’ha.
Ricordate il “Claude Crash” di inizio febbraio, quando un plugin gratuito ha bruciato 285 miliardi di capitalizzazione nel settore del software legale? Quella volta il mercato ha punito chi non aveva un vantaggio competitivo reale. Questa volta il governo punisce chi ne ha uno fin troppo forte.
Cosa significa per chi lavora con Claude in Italia
Per ora, non cambia nulla per noi. Il ban riguarda le agenzie federali statunitensi, non i clienti privati, non le aziende europee, non i professionisti che usano Claude via API o via claude.ai.
Ma tre cose vanno monitorate.
Primo: se Anthropic viene messa sotto pressione finanziaria dal governo USA (e la minaccia di invocare il Defence Production Act è stata esplicita), questo potrebbe avere impatti sullo sviluppo futuro dei modelli. Un’azienda che perde l’accesso al mercato governativo americano perde anche accesso a dati, a contratti di ricerca, a partnership strategiche. Claude potrebbe restare il miglior modello sul mercato o potrebbe perdere terreno. Non lo sappiamo.
Secondo: la designazione “supply chain risk” potrebbe costringere le aziende americane che lavorano con il Pentagono a smettere di usare Claude anche per i propri clienti privati. Anthropic ha risposto che il Segretario alla Difesa non ha l’autorità legale per estendere il divieto oltre i contratti militari. Ma è una battaglia legale aperta.
Terzo, e questo è il punto più importante soprattutto per chi lavora nella PA italiana: questa vicenda dimostra che la scelta del fornitore AI non è una questione tecnica. È una questione geopolitica. Se il vostro ente usa un modello AI americano, siete esposti a decisioni politiche di un governo straniero. Se quel governo decide di punire il vostro fornitore, di limitarne le funzionalità, di obbligarlo a rimuovere i limiti di sicurezza, voi ne subite le conseguenze senza avere voce in capitolo.
L’autonomia tecnologica europea non è uno slogan. È una necessità operativa. E ogni volta che un ente pubblico italiano sceglie un fornitore AI senza farsi queste domande, sta accettando un rischio che non ha nemmeno valutato.
Il contesto: una settimana che ha riscritto le regole
Questa vicenda non è avvenuta nel vuoto. È successa nella stessa settimana in cui Jack Dorsey, fondatore di Block (la società che controlla Square e Cash App), ha licenziato 4.000 dipendenti (quasi la metà dell’intera azienda) dichiarando apertamente che il motivo è l’intelligenza artificiale. Il titolo di Block è salito del 24% in un giorno. Dorsey ha scritto: “Entro il prossimo anno, credo che la maggioranza delle aziende raggiungerà la stessa conclusione e farà cambiamenti strutturali simili.”
Da una parte del continente, un CEO taglia metà della forza lavoro in nome dell’AI e viene premiato dal mercato. Dall’altra parte, un CEO rifiuta di togliere i limiti di sicurezza dalla propria AI e viene dichiarato nemico dello Stato.
Sono le due facce della stessa medaglia. L’intelligenza artificiale nel 2026 non è più un argomento tecnico. È un campo di forze dove si scontrano interessi economici, militari, politici e - ogni tanto - anche etici. E chi lavora con questi strumenti deve capire che ogni scelta tecnologica porta con sé una scelta politica, che lo si voglia o no.
Gli analisti di Challenger Gray & Christmas (una società di consulenza americana specializzata nel mercato del lavoro, nota soprattutto per il suo Job Cuts Report, un rapporto mensile che traccia i licenziamenti annunciati dalle aziende statunitensi e le relative motivazioni) riportano che nel 2025 l’AI è stata citata come motivo in circa 55.000 licenziamenti annunciati: il 4,5% del totale. Ma diversi esperti avvertono che molte aziende stanno usando l’AI come giustificazione per tagli che in realtà derivano dall’overhiring degli anni del Covid. Lo chiamano “AI washing”: dare all’intelligenza artificiale la colpa di decisioni che hanno cause più banali.
E qui torniamo al punto centrale. Quando un governo punisce chi mette limiti di sicurezza all’AI e quando il mercato premia chi usa l’AI come motivo per tagliare posti di lavoro, stiamo - di fatto - assistendo alla costruzione di un sistema di incentivi che va in una direzione molto precisa: più AI, meno limiti, meno persone, meno domande.
È una direzione che ci conviene?
Il takeaway
Questa settimana è successo qualcosa che va oltre la cronaca tech.
Un’azienda ha detto: “La nostra tecnologia non è pronta per uccidere autonomamente e per sorvegliare i cittadini.”
Un governo ha risposto: “Allora sei un nemico.”
In mezzo, un concorrente ha detto di condividere gli stessi principi e poi ha firmato il contratto.
E il mercato ha guardato tutto questo e si è chiesto: chi ha ragione?
La risposta dipende da cosa pensiamo debba essere l’intelligenza artificiale. Uno strumento che fa quello che gli chiedi, sempre e comunque, senza limiti? O uno strumento che ha dei confini, che qualcuno ha il dovere di tracciare?
Per chi lavora con l’AI ogni giorno - e noi siamo tra quelli - questa non è una domanda filosofica. È la domanda da cui dipende il tipo di tecnologia che avremo tra due anni.
Buona domenica…e teniamo gli occhi aperti.
-G.
Questa edizione vi ha fatto riflettere? Scrivetemi nei commenti o rispondete a questa email. E se pensate che un collega dovrebbe leggere questa storia, condividetela. Più siamo informati, meglio combattiamo.
📌 Seguimi sui miei canali social per restare aggiornato su tutte le novità su intelligenza artificiale, privacy e diritto digitale:
📹 YouTube: Iscriviti al canale per video esclusivi e approfondimenti settimanali.
💼 LinkedIn: Connettiti con me per aggiornamenti professionali e analisi delle ultime tendenze nell’IA.
📸 Instagram: Seguimi per contenuti dinamici e uno sguardo dietro le quinte della mia attività quotidiana.
👍 Facebook: Unisciti alla community e partecipa a discussioni stimolanti sui temi più attuali.




Che poi siamo davvero sicuri che Amodei sia di sinistra?
Io mi sento più di centrodestra e sostengo in pieno la scelta di Amodei
Qui non è questione di Trump il cattivo (di destra) e Amodei il buono (di sinistra) ma della mancanza di etica di un’intera nazione, la più ricca e potente, sede della ricchezza e del potere che governano il mondo. Assistiamo impotenti alle beghe di corte del trono di spade