Ogni settimana escono articoli, podcast e ora documentari che promettono di spiegare l’intelligenza artificiale al grande pubblico. Molti di questi prodotti hanno un problema in comune: scelgono la febbre narrativa al posto della chiarezza. Un nuovo documentario recensito da The Verge è l’occasione per ragionare su questo fenomeno, che ha conseguenze concrete su come le aziende prendono decisioni.
Secondo la recensione pubblicata da The Verge, il documentario in questione si rivolge tanto ai catastrofisti quanto agli accelerazionisti, ovvero a chi vede nell’AI una minaccia esistenziale imminente e a chi la considera la soluzione a tutti i problemi dell’umanità. Il risultato, secondo il recensore, è un prodotto che alimenta l’iperbole invece di ridurla, lasciando lo spettatore più confuso di prima su cosa l’AI sia realmente e come funzioni.
Il punto critico sollevato dalla recensione è che la comunicazione sull’AI soffre di un problema strutturale: i suoi sostenitori più entusiasti e i suoi critici più severi usano lo stesso registro emotivo, quello della feverish hyperbole, come scrive The Verge. Questo rende difficile per chi non è tecnico distinguere tra affermazioni fondate su dati e profezie basate su estrapolazioni speculative.
Per un imprenditore o un manager italiano, questo ha conseguenze pratiche molto concrete. Chi si informa principalmente attraverso contenuti che oscillano tra “l’AI sostituirà tutti i lavori entro tre anni” e “l’AI è solo un chatbot glorificato” finisce per prendere decisioni basate su aspettative distorte in un senso o nell’altro. Si investe in strumenti AI aspettandosi miracoli e poi si abbandona il progetto alla prima delusione. Oppure si rimanda qualsiasi adozione perché “tanto è tutto fumo”.
Un responsabile acquisti di una PMI del settore moda che ha letto tre articoli catastrofisti sull’AI potrebbe decidere di non automatizzare nessun processo per paura di conseguenze imprevedibili. Lo stesso responsabile, dopo aver visto un documentario entusiastico, potrebbe approvare un budget sproporzionato per uno strumento che non risolve nessun problema reale della sua azienda. In entrambi i casi, la colpa non è dell’AI: è della qualità dell’informazione che ha ricevuto.
La soluzione non è smettere di informarsi, ovviamente. È imparare a riconoscere i segnali di una comunicazione sull’AI che privilegia l’effetto emotivo sulla sostanza: le previsioni senza dati a supporto, i casi d’uso presentati come universali quando sono altamente specifici, le interviste a esperti che parlano di scenari a vent’anni come se fossero certezze imminenti. Questi segnali si trovano tanto nei contenuti pro-AI quanto in quelli anti-AI.
Perché conta. La prossima volta che leggete un articolo o guardate un contenuto sull’AI, fate una verifica rapida: l’autore cita dati concreti o usa principalmente metafore e scenari ipotetici? Le affermazioni riguardano casi d’uso specifici o generalizzazioni ampie? Se la risposta è prevalentemente la seconda opzione in entrambi i casi, trattate quel contenuto come intrattenimento, non come base per decisioni aziendali. Cercate invece fonti che riportino risultati misurabili di implementazioni reali in contesti simili al vostro.