Per anni le grandi aziende di intelligenza artificiale hanno costruito la propria credibilità su una promessa: ci regoliamo da soli, meglio di quanto potrebbe fare qualsiasi governo. Anthropic, OpenAI, Google DeepMind e altri hanno prodotto carte etiche, comitati di sicurezza, impegni pubblici. Ora, in assenza di regole vincolanti dall’esterno, quella promessa mostra le sue crepe.

Lo analizza TechCrunch in un articolo che descrive la situazione come una trappola che Anthropic ha contribuito a costruire per se stessa. L’azienda ha fondato la propria identità pubblica sulla sicurezza e sulla responsabilità nello sviluppo dell’AI. Ma quando le pressioni commerciali e geopolitiche aumentano, come nel caso delle trattative con il Pentagono, i principi dichiarati si scontrano con la realta degli accordi da firmare. E senza un quadro normativo esterno che li renda vincolanti, quei principi restano impegni volontari, revocabili in qualsiasi momento.

Il problema non e nuovo, ma oggi e piu visibile. L’autoregolamentazione funziona quando c’e un incentivo reputazionale forte e un mercato che premia il comportamento responsabile. Nel settore AI, pero, la competizione e talmente intensa che il rischio di perdere terreno rispetto ai concorrenti puo facilmente prevalere sulle considerazioni etiche. Nessuna azienda vuole essere la prima a rinunciare a un contratto importante per ragioni di principio, se sa che il contratto andra comunque a qualcun altro.

Per un imprenditore italiano che ha integrato strumenti AI nella propria azienda, questa dinamica ha conseguenze pratiche. Affidarsi esclusivamente alle dichiarazioni etiche di un fornitore, senza verificare cosa prevedono i termini contrattuali reali, e un rischio. Uno studio legale che usa un assistente AI per la ricerca giurisprudenziale, o un’azienda manifatturiera che automatizza la gestione dei fornitori, dovrebbe valutare i propri strumenti non solo sulla base di quanto il produttore dichiara di credere, ma su cosa si impegna formalmente a fare e a non fare. La differenza tra una policy etica pubblicata sul sito e una clausola contrattuale vincolante e sostanziale.

L’Europa, con il suo AI Act, sta cercando di colmare esattamente questo vuoto: trasformare impegni volontari in obblighi legali. Ma l’applicazione concreta e ancora in corso, e molte delle norme piu stringenti entreranno in vigore progressivamente nei prossimi anni. Nel frattempo, il mercato si muove piu velocemente delle regole.

Perche conta. Se usate strumenti AI in azienda, non accontentatevi delle pagine “AI Ethics” sui siti dei fornitori. Chiedete al vostro fornitore software o al vostro consulente IT di mostrarvi i termini di servizio aggiornati e di indicare dove sono scritti i limiti reali sull’uso dei vostri dati. Se non riuscite a trovare una risposta chiara, e un segnale che vale la pena valutare alternative con impegni contrattuali piu espliciti.