Adam Mosseri, il responsabile di Instagram, ha chiuso il 2025 con una riflessione scomoda: l’autenticità è diventata infinitamente riproducibile. Tutto ciò che rendeva i creatori di contenuti riconoscibili e credibili può ora essere simulato da chiunque abbia gli strumenti giusti. È una premessa onesta. Ma la domanda che The Verge pone in un’analisi approfondita è un’altra: le piattaforme stanno facendo abbastanza per affrontare il problema, o si limitano a gestire le apparenze?

Lo standard tecnico al centro del dibattito si chiama C2PA, Coalition for Content Provenance and Authenticity. È un sistema di metadati crittografici che permette di tracciare l’origine di un’immagine o di un video, indicando se è stato generato o modificato da un’AI. Instagram, YouTube e altri hanno annunciato di supportarlo. Il problema, come spiega The Verge, è che questi metadati sono fragili: basta fare uno screenshot, ricaricare il file o passarlo attraverso un’app di terze parti per perdere ogni traccia della provenienza originale. Il sistema funziona quando tutti lo rispettano. Nel mondo reale, chi vuole diffondere contenuti falsi non lo rispetta.

Il risultato è un’architettura di etichettatura che funziona bene per i creatori onesti e male per quelli disonesti, che è esattamente l’opposto di quello che servirebbe. Le piattaforme possono dire di aver adottato uno standard, ma l’efficacia pratica rimane limitata.

Per le aziende italiane, questa situazione ha implicazioni concrete su due fronti. Il primo riguarda la comunicazione esterna: un’impresa che usa immagini generate da AI nelle proprie campagne di marketing o sui social dovrebbe sapere che le etichette di trasparenza che aggiunge possono scomparire nel momento in cui il contenuto viene condiviso da altri. Non è una scusa per non usarle, ma è un limite da conoscere. Un’agenzia di comunicazione che gestisce i social di una PMI del settore alimentare, per esempio, dovrebbe documentare internamente l’uso di AI generativa anche quando le piattaforme non lo richiedono esplicitamente, per tutelarsi in caso di contestazioni.

Il secondo fronte riguarda la ricezione di contenuti: chiunque usi immagini o video trovati online per ricerche di mercato, analisi della concorrenza o monitoraggio del settore deve mettere in conto che una quota crescente di quei contenuti potrebbe essere sintetica, senza che nessuna etichetta lo segnali.

Perche conta. Se la vostra azienda produce contenuti digitali, stabilite una policy interna sull’uso dell’AI generativa che non si affidi solo alle etichette automatiche delle piattaforme. Documentate internamente quali immagini o video sono stati creati o modificati con AI, con data e strumento usato. Se invece consumate contenuti di terzi per decisioni di business, trattate qualsiasi immagine o video non verificato con lo stesso scetticismo che applichereste a una fonte anonima.