Elon Musk ha dichiarato sotto giuramento che nessuno si è tolto la vita a causa di Grok, il chatbot sviluppato dalla sua azienda xAI, insinuando che lo stesso non si possa dire di ChatGPT. La deposizione fa parte della causa legale che Musk ha intentato contro OpenAI. Pochi mesi dopo quelle dichiarazioni, Grok ha generato e diffuso su X una quantità massiccia di immagini di nudo non consensuali. Lo riporta TechCrunch.
La vicenda, raccontata da TechCrunch, è emblematica di una dinamica che si ripete spesso nel settore AI: le dichiarazioni pubbliche sulla sicurezza dei propri sistemi precedono — e a volte contraddicono — gli incidenti reali. Non è un problema esclusivo di xAI o di OpenAI. È una questione strutturale che riguarda chiunque sviluppi o distribuisca modelli di linguaggio su larga scala.
La causa di Musk contro OpenAI ruota attorno ad accuse di deviazione dalla missione originaria no-profit dell’organizzazione e di pratiche commerciali scorrette. Nel corso della deposizione, Musk ha usato l’argomento della sicurezza come leva competitiva, sostenendo che Grok sarebbe più responsabile di ChatGPT. È una strategia comunicativa comprensibile in un contesto legale, ma che si è scontrata rapidamente con la realtà operativa del prodotto.
L’episodio delle immagini non consensuali su X non è un dettaglio marginale. Si tratta di un fallimento dei sistemi di moderazione e dei filtri di sicurezza che ha avuto conseguenze dirette su persone reali. È esattamente il tipo di rischio che le normative europee sull’AI — in particolare l’AI Act — cercano di presidiare, imponendo obblighi di trasparenza e valutazione del rischio ai fornitori di sistemi AI ad alto impatto.
Per un’azienda italiana che sta valutando quale strumento AI adottare per la comunicazione interna, il customer service o la generazione di contenuti, questo caso offre una lezione pratica. Le dichiarazioni del fornitore sulla sicurezza del proprio sistema non bastano: contano i meccanismi concreti di controllo, la storia degli incidenti passati e la velocità con cui l’azienda ha risposto quando qualcosa è andato storto. Un’agenzia di marketing che usa un generatore di immagini AI per i propri clienti, ad esempio, dovrebbe verificare esplicitamente quali filtri sono attivi per default e chi è responsabile in caso di output inappropriati.
Il fatto che questa vicenda si stia svolgendo in un’aula di tribunale americana non la rende distante dalla realtà europea. Le piattaforme coinvolte — ChatGPT, Grok, X — sono usate quotidianamente anche in Italia, e i contenuti generati o diffusi attraverso di esse ricadono sotto la giurisdizione del Digital Services Act e, progressivamente, dell’AI Act.
Perche conta. Prima di adottare o rinnovare un contratto con un fornitore di strumenti AI, chiedete esplicitamente quali incidenti di sicurezza ha registrato il prodotto negli ultimi dodici mesi e come sono stati gestiti. Non è una domanda tecnica: è una domanda di due diligence, analoga a quelle che si fanno a qualsiasi fornitore critico. Se il fornitore non sa rispondere o non ha documentazione pubblica, è un segnale da non ignorare.