Ventiquattromila account falsi, oltre sedici milioni di conversazioni con Claude, tre aziende cinesi nel mirino. Anthropic ha reso pubblica quella che descrive come una campagna sistematica e su scala industriale per estrarre conoscenza dal proprio modello AI e usarla per addestrare sistemi concorrenti. Le aziende accusate sono DeepSeek, Moonshot e MiniMax.
La tecnica in questione si chiama distillazione: invece di addestrare un modello da zero su enormi quantità di dati grezzi, si usa un modello già capace come insegnante, sottoponendogli migliaia di domande e raccogliendo le risposte per costruire un dataset di training. È una pratica nota nel settore, ma usarla su un servizio commerciale violando i termini di utilizzo è un’altra cosa. Anthropic afferma che gli account fraudolenti sono stati creati appositamente per aggirare i controlli e che il volume delle interazioni rende impossibile che si trattasse di utilizzo ordinario.
La notizia arriva in un momento politicamente sensibile: il Congresso americano sta discutendo nuovi controlli sulle esportazioni di chip verso la Cina, e il dibattito su quanto le aziende cinesi stiano recuperando terreno sull’AI occidentale è più acceso che mai. Anthropic ha scelto di rendere pubblica questa accusa proprio mentre quel dibattito è al centro dell’agenda di Washington, il che non è probabilmente una coincidenza.
Per le aziende italiane, la vicenda ha due livelli di lettura. Il primo è reputazionale e competitivo: se i modelli cinesi come DeepSeek hanno costruito parte delle loro capacità attingendo illegittimamente a modelli occidentali, la narrativa del sorpasso tecnologico va letta con più cautela. Il secondo è pratico. Chiunque utilizzi API di modelli AI per costruire applicazioni o automatizzare processi deve sapere che i termini di servizio di questi strumenti vietano esplicitamente l’uso dei dati generati per addestrare modelli concorrenti. Un’azienda che sviluppa internamente un proprio sistema AI e lo alimenta con output di Claude o GPT senza leggere attentamente i contratti potrebbe trovarsi in una posizione analoga, anche se su scala infinitamente più piccola.
I dettagli dell’accusa sono riportati da The Verge e TechCrunch, che citano un annuncio ufficiale di Anthropic e un articolo originale del Wall Street Journal.
Perche conta. Se usate modelli AI tramite API per generare contenuti, analisi o codice, aprite i termini di servizio del vostro fornitore e verificate cosa potete fare con quegli output. In particolare, se state costruendo o pianificate di costruire un modello proprietario, chiedete esplicitamente al vostro consulente legale o al fornitore cosa è consentito. Le regole esistono, vengono monitorate e, come dimostra questo caso, vengono fatte rispettare.