Ricevere un feedback sul proprio testo scritto “nello stile di Hemingway” o “come farebbe Umberto Eco” suona come una funzionalità affascinante. Meno affascinante è scoprire che né Hemingway né Eco — né i loro eredi — hanno dato il permesso per questo. È la situazione in cui si trova Grammarly, recentemente ribattezzata Superhuman, che secondo un articolo di Wired ha lanciato uno strumento di revisione AI capace di simulare il giudizio critico di autori famosi, vivi e morti, senza averli consultati o aver ottenuto alcuna autorizzazione.

Lo strumento, come descritto da Wired, permette agli utenti di scegliere tra una serie di scrittori celebri e ricevere feedback sul proprio testo come se provenisse da quella voce specifica. Il problema non è solo etico, ma potenzialmente legale: usare l’identità, lo stile e la reputazione di un autore vivente per costruire un prodotto commerciale senza consenso tocca questioni di diritto di immagine e, in alcuni ordinamenti, di proprietà intellettuale. Per gli autori defunti, la questione si sposta sugli eredi e sulla tutela post-mortem dell’identità creativa.

Non è la prima volta che l’industria AI si trova in questo territorio scivoloso. Le cause legali di scrittori, artisti e giornalisti contro le grandi piattaforme per l’uso non autorizzato delle loro opere in fase di addestramento sono già numerose. Questo caso aggiunge però una dimensione nuova: non si tratta solo di usare le opere per addestrare un modello, ma di commercializzare esplicitamente la simulazione di una persona reale come funzionalità di prodotto.

Per chi lavora in ambiti dove la comunicazione scritta è centrale — agenzie di comunicazione, uffici marketing, case editrici, studi legali che producono documenti complessi — la vicenda solleva una domanda pratica: quando si usa uno strumento AI che “imita” uno stile o una voce, chi è responsabile delle implicazioni legali? Se un’agenzia usa questo tipo di funzionalità per produrre contenuti per un cliente, e l’autore simulato o i suoi eredi decidono di agire legalmente, la catena di responsabilità non è affatto chiara.

C’è poi una questione di reputazione professionale. Uno studio di consulenza che produce report con il “tono di un esperto del settore” simulato da AI, senza dichiararlo, si espone a critiche di trasparenza che possono avere conseguenze concrete sui rapporti con i clienti. La fiducia, in certi settori, vale più di qualsiasi efficienza produttiva.

Vale anche la pena notare che il rebranding da Grammarly a Superhuman — nome già usato da un’altra azienda nel settore email, il che ha già creato confusione — segnala una strategia di posizionamento aggressiva che punta a differenziarsi con funzionalità di impatto. Ma differenziarsi a spese di terzi, senza consenso, è una scelta che in Europa, con il GDPR e le normative emergenti sull’AI Act, potrebbe avere conseguenze più serie che altrove.

Perche conta. Se nella vostra azienda usate strumenti AI per la scrittura — revisione testi, generazione di contenuti, assistenza editoriale — verificate lunedi stesso le condizioni d’uso del servizio che avete scelto: cercate la sezione relativa ai diritti di terzi e all’uso di identità o stili di autori reali. Se lo strumento offre funzionalità di questo tipo, chiedete esplicitamente al fornitore quale base legale le supporta. In caso di risposta vaga, è un segnale da non ignorare, soprattutto se producete contenuti per clienti che potrebbero essere esposti a contestazioni.