Quando il CEO di un’azienda tecnologica ammette pubblicamente che un accordo è stato “sicuramente affrettato” e che “l’immagine non è buona”, vale la pena fermarsi ad analizzare cosa sta succedendo. Sam Altman ha usato esattamente queste parole per descrivere il contratto tra OpenAI e il Dipartimento della Difesa degli Stati Uniti, di cui TechCrunch ha riportato nuovi dettagli emersi nelle ultime ore.
OpenAI ha condiviso ulteriori informazioni sull’accordo con il Pentagono, un contratto che ha sorpreso molti osservatori perché arriva da un’organizzazione che per anni ha dichiarato di voler sviluppare l’intelligenza artificiale in modo sicuro e a beneficio dell’umanità. La collaborazione con il Dipartimento della Difesa USA rappresenta un cambio di direzione significativo rispetto alla posizione storica dell’azienda, che aveva esclicitamente vietato l’uso dei propri modelli per applicazioni militari.
I dettagli resi pubblici non chiariscono completamente la natura delle attività previste dal contratto, ma la stessa ammissione di Altman sulla fretta con cui è stato concluso l’accordo solleva interrogativi legittimi sulla solidità del processo decisionale interno. In un settore dove la governance e la trasparenza sono diventate elementi centrali del dibattito regolatorio — specialmente in Europa con l’AI Act — questo tipo di episodio ha un peso che va oltre la singola azienda.
Per chi gestisce un’azienda o un team in Italia e usa strumenti basati sui modelli OpenAI — ChatGPT, le API di GPT-4o, i plugin integrati in software gestionali — la domanda pratica è: questo accordo cambia qualcosa nel modo in cui i miei dati vengono trattati? La risposta diretta, allo stato attuale, è che non ci sono evidenze che il contratto militare riguardi i dati degli utenti commerciali. Tuttavia, l’episodio ricorda quanto sia importante leggere i termini di servizio e capire con chi si sta condividendo informazioni aziendali sensibili.
Un responsabile IT di una PMI manifatturiera che usa le API di OpenAI per automatizzare la gestione delle email con i fornitori dovrebbe chiedersi: il mio fornitore di AI ha una governance chiara su come vengono usati i modelli che sto pagando? Una società di consulenza che elabora dati riservati dei clienti attraverso strumenti basati su GPT dovrebbe verificare se i propri contratti con OpenAI includono garanzie sulla segregazione dei dati rispetto ad altri usi del modello.
Il caso OpenAI-Pentagono è anche un segnale più ampio: le grandi aziende di AI stanno cercando nuove fonti di ricavo in un momento in cui i costi di sviluppo dei modelli sono enormi e la redditività rimane una sfida. Questo crea pressioni che possono portare a decisioni rapide, come ammesso dallo stesso Altman, con conseguenze che non sempre vengono valutate con la necessaria attenzione. Per le imprese europee, che operano in un contesto normativo sempre più stringente sull’AI, scegliere fornitori con processi di governance trasparenti non è solo una questione etica, ma sempre più una necessità contrattuale e di compliance.
Perche conta. Aprite i contratti che avete con i vostri fornitori di AI e cercate le clausole relative all’uso dei dati e alla sub-licenza dei modelli. Se non le trovate o non le capite, chiedete per iscritto al fornitore una spiegazione su come vengono usati i vostri dati e se esistono restrizioni sull’impiego dei modelli in contesti che potrebbero confliggere con le vostre policy aziendali o con i requisiti dell’AI Act europeo.