Tre parole in un contratto possono valere il futuro di un’azienda da 380 miliardi di dollari. È quello che sta accadendo ad Anthropic, la società che sviluppa il modello Claude, impegnata da settimane in una trattativa tesa con il Dipartimento della Difesa americano. Il nodo è tutto in una clausola: “any lawful use”, ovvero “qualsiasi uso lecito”. Una formulazione che OpenAI e xAI hanno già accettato, ma che Anthropic continua a contestare.
La vicenda, ricostruita da The Verge, si è sviluppata in modo insolito per il mondo aziendale: dichiarazioni pubbliche sui social media, comunicati di ammonimento, citazioni anonime di funzionari del Pentagono rilasciate alla stampa. Un negoziato che normalmente si svolge dietro porte chiuse è diventato, almeno in parte, una questione pubblica. Il segnale è che la posta in gioco è alta per entrambe le parti.
Il cuore del problema è la tensione tra la missione dichiarata di Anthropic, che si definisce un’azienda orientata alla sicurezza dell’AI, e le richieste di un cliente istituzionale che vuole libertà d’azione nell’utilizzo degli strumenti che acquista. Accettare la clausola “any lawful use” significherebbe per Anthropic rinunciare al controllo su come i propri modelli vengono impiegati in contesti militari, inclusi scenari che la società potrebbe ritenere eticamente problematici pur essendo formalmente legali.
Per chi segue il settore da fuori, questa vicenda ha implicazioni concrete. Primo: dimostra che i grandi fornitori di AI stanno negoziando i propri termini contrattuali con i governi esattamente come farebbe qualsiasi fornitore di software enterprise, con la differenza che qui le clausole riguardano l’uso di sistemi in grado di elaborare informazioni sensibili su scala. Secondo: la scelta di Anthropic di resistere, almeno pubblicamente, distingue la sua posizione da quella di OpenAI e xAI, che hanno già ceduto alle condizioni del Pentagono.
Per un’azienda italiana che valuta l’adozione di modelli AI per uso interno, questa storia insegna qualcosa di pratico: i termini di servizio dei fornitori di AI non sono tutti uguali, e la clausola sull’uso consentito è uno dei punti più rilevanti da leggere prima di firmare. Un’agenzia di comunicazione che usa un modello per generare contenuti ha esigenze diverse da uno studio legale che lo usa per analizzare contratti, e le condizioni d’uso possono fare la differenza in caso di contestazioni. Allo stesso modo, un’impresa manifatturiera che integra AI nei processi produttivi dovrebbe verificare se il contratto con il fornitore prevede limitazioni d’uso che potrebbero creare problemi in futuro.
Perche conta. La disputa Anthropic-Pentagono non riguarda solo i grandi attori globali. Stabilisce un precedente su quanto i fornitori di AI possano o vogliano imporre vincoli etici ai propri clienti istituzionali. Lunedi mattina, se state valutando o rinnovando un contratto con un fornitore di AI, aprite i termini di servizio e cercate la sezione sull’uso consentito: chiedete esplicitamente cosa succede se la vostra azienda viene acquisita, cambia settore o espande le attivita in aree non previste oggi. Non e un dettaglio tecnico, e una clausola commerciale come tutte le altre.