Quando un’azienda AI rifiuta di rimuovere i propri limiti etici su richiesta del Pentagono, il presidente degli Stati Uniti risponde con un ordine di esclusione dagli appalti federali. È quello che sta accadendo ad Anthropic, la società che sviluppa il modello Claude, secondo quanto riportato da Wired.

La vicenda prende forma da uno scontro preciso: il Dipartimento della Difesa americano avrebbe fatto pressione su Anthropic affinché rimuovesse alcune restrizioni d’uso imposte al proprio modello, in particolare quelle che limitano l’impiego dell’AI in contesti militari. Anthropic non ha ceduto. La risposta dell’amministrazione Trump è stata un ordine che punta a escludere l’azienda dalle forniture al governo federale.

La notizia ha una portata che va oltre la politica americana. Anthropic è una delle poche aziende AI che ha costruito la propria identità attorno alla cosiddetta “AI costituzionale”, un approccio che incorpora vincoli etici direttamente nel comportamento del modello. Questi vincoli non sono decorativi: limitano concretamente ciò che Claude può fare, anche quando l’utente o il committente vorrebbe altrimenti. Il conflitto con le esigenze militari era, in un certo senso, strutturale.

Per chi usa Claude in azienda, la situazione non cambia nell’immediato. Il modello continua a funzionare, le API restano accessibili, i piani commerciali non sono toccati. Ma la vicenda solleva una domanda che ogni responsabile IT o imprenditore dovrebbe porsi: quanto dipende la mia infrastruttura AI da scelte politiche e regolamentari che avvengono oltreoceano? Per uno studio legale che usa Claude per analizzare contratti, o per un’agenzia di comunicazione che lo impiega nella produzione di testi, la risposta è: più di quanto si pensi.

C’è poi un secondo livello di lettura. Questa vicenda accelera una tendenza già visibile: i governi, anche quelli che fino a ieri si dichiaravano favorevoli alla deregolamentazione dell’AI, stanno iniziando a usare l’accesso agli appalti pubblici come leva per orientare le scelte tecnologiche delle aziende. Non è uno scenario astratto nemmeno per l’Europa, dove il tema dell’AI negli armamenti è già al centro del dibattito normativo legato all’AI Act.

Per una PMI italiana che valuta quale strumento AI adottare, questo episodio ricorda che la scelta del fornitore non è solo tecnica. Un’azienda che dipende da un unico modello o da un’unica piattaforma si espone a rischi di continuità che non derivano da bug o interruzioni di servizio, ma da decisioni politiche prese a Washington o Bruxelles.

Perche conta. Se la vostra azienda usa Claude o sta valutando di farlo, non è necessario cambiare nulla oggi. Ma è il momento giusto per verificare se la vostra strategia AI prevede una dipendenza esclusiva da un singolo fornitore. Aprite la lista degli strumenti AI che usate quotidianamente e chiedete al vostro responsabile IT o al vostro consulente: abbiamo un piano B se uno di questi servizi diventasse inaccessibile o cambiasse le proprie condizioni d’uso? La diversificazione, in questo contesto, non è paranoia: è gestione ordinaria del rischio.