Quando due delle aziende più influenti nel settore dell’intelligenza artificiale si accusano pubblicamente di disonestà, vale la pena capire cosa c’è sotto. Secondo quanto riportato da TechCrunch, Dario Amodei, CEO di Anthropic, ha definito “bugie belle e buone” le comunicazioni pubbliche di OpenAI riguardo a un contratto con il Dipartimento della Difesa americano — lo stesso contratto a cui Anthropic aveva rinunciato in precedenza per disaccordi legati alla sicurezza dell’AI.
La ricostruzione dei fatti, secondo TechCrunch, è questa: Anthropic aveva un accordo con il Pentagono, ma ha scelto di non portarlo avanti perché le condizioni non erano compatibili con i propri principi in materia di sicurezza dei sistemi AI. OpenAI ha poi acquisito quel contratto, e le dichiarazioni pubbliche dell’azienda sul tema avrebbero, secondo Amodei, distorto la realtà di quanto accaduto.
Al di là delle polemiche tra aziende concorrenti, questa vicenda illumina una tensione reale e crescente: quella tra la corsa commerciale all’AI e le preoccupazioni sulla sicurezza dei sistemi quando vengono applicati in contesti ad alto rischio come quello militare. Non è un dibattito astratto. Le scelte che le grandi aziende AI fanno oggi sui propri clienti e sui propri limiti etici influenzano direttamente quali tecnologie arriveranno sul mercato, con quali caratteristiche e con quale livello di controllo.
Per un imprenditore italiano, la domanda pratica è: quanto posso fidarmi delle dichiarazioni pubbliche dei fornitori AI che uso? La risposta onesta è che la trasparenza in questo settore è ancora molto disomogenea. Alcune aziende pubblicano rapporti dettagliati sulle proprie politiche di sicurezza; altre comunicano in modo selettivo. Scegliere un fornitore AI — che sia per un CRM intelligente, per un assistente alla clientela o per l’analisi dei dati — significa anche valutare la credibilità e la coerenza di chi lo sviluppa.
Il caso Anthropic-OpenAI-Pentagono è anche un promemoria che le grandi aziende AI non sono monoliti: hanno culture interne diverse, priorità diverse e, come emerge in questo caso, valutazioni diverse su dove tracciare il confine tra opportunità commerciale e responsabilità.
L’articolo completo è su TechCrunch.
Perche conta. La prossima volta che valutate o rinnovate un contratto con un fornitore AI, dedicate trenta minuti a leggere la loro politica di utilizzo accettabile e i loro rapporti sulla sicurezza, se esistono. Chiedete esplicitamente quali usi del vostro fornitore sono esclusi e perché. Non è paranoia: è la stessa diligenza che applichereste a qualsiasi altro fornitore critico per il vostro business.