Michael Pollan, nel suo nuovo libro “A World Appears”, affronta una questione che agita il dibattito tecnologico da anni: l’intelligenza artificiale potrà mai diventare consapevole? La risposta è no. E questa distinzione non è accademica—ha implicazioni concrete per chi decide come usare questi strumenti in azienda.

La confusione nasce da un equivoco di fondo. Quando ChatGPT o altri modelli linguistici producono risposte coerenti e articolate, il nostro cervello tende a proiettare su di essi qualità umane che non possiedono. Leggiamo intelligenza dove c’è sofisticazione statistica. Leggiamo intenzione dove c’è ottimizzazione di pattern. Pollan sostiene che per quanto potenti diventino questi sistemi, continueranno a mancare di quella proprietà fondamentale che caratterizza la coscienza: l’esperienza soggettiva, la capacità di “sentire” qualcosa.

Per un imprenditore italiano che sta valutando se investire in automazione tramite IA, questo ha un valore pratico immediato. Significa che questi sistemi rimangono strumenti—sofisticati, sì, ma strumenti. Un software di contabilità che usa IA per classificare automaticamente le fatture di una PMI non “comprende” il bilancio. Elabora dati secondo regole apprese. Un chatbot che gestisce il customer service non “conosce” il cliente. Riproduce pattern di conversazione. La differenza è sottile ma cruciale quando devi decidere dove posizionare il controllo umano.

Questa chiarezza diventa ancora più importante quando pensi alla responsabilità. Se l’IA non è consapevole, non può avere intenzioni nascoste, non può “tradire” o agire contro i tuoi interessi per motivi propri. Quello che vedi è quello che ottieni: uno strumento che fa esattamente quello per cui è stato addestrato, senza agenda parallela. Un commercialista che implementa un sistema di IA per analizzare i bilanci dei clienti sa che il sistema non “decide” nulla di sua iniziativa—esegue istruzioni. Questo riduce un tipo di ansia che spesso circonda questi investimenti.

Allo stesso tempo, l’argomento di Pollan suggerisce che le aspettative devono restare ancorate alla realtà. Se stai pensando di rimpiazzare completamente il tuo team creativo con un modello di IA perché “è intelligente come una persona”, stai costruendo su una premessa falsa. L’IA può generare contenuti, analizzare dati, suggerire soluzioni—ma non possiede il giudizio contestuale, l’intuizione morale, la capacità di comprendere cosa significa veramente un problema nel contesto della tua azienda.

La ricerca di Pollan si inserisce in un filone di pensiero sempre più diffuso tra i ricercatori seri: il riconoscimento che la potenza computazionale non equivale a comprensione. Un modello che predice il prossimo token in una sequenza con accuratezza del 95% non “capisce” il significato. Questo non lo rende meno utile—anzi, spesso lo rende più prevedibile e controllabile—ma cambia il modo in cui dovresti pensare al suo ruolo nella tua organizzazione.

Perché conta. Se stai valutando investimenti in IA per la tua azienda, questa prospettiva ti aiuta a fare scelte più consapevoli. Lunedì mattina, quando il tuo team discute di automazione, ricordati che stai scegliendo uno strumento, non un collega. Questo significa che devi mantenere processi di verifica umana dove conta davvero—nella strategia, nelle decisioni etiche, nella gestione delle eccezioni. Allo stesso tempo, puoi fidarti che il sistema farà esattamente quello per cui è stato configurato, senza sorprese dovute a “volontà propria”. Chiedi al tuo fornitore di software quali decisioni critiche rimangono sotto controllo umano e quali sono delegate all’IA: la risposta ti dirà se ha capito veramente cosa sta vendendo.