Identificare i bambini a rischio di obesità prima che il problema diventi cronico è una delle sfide più concrete della sanità pubblica. Un nuovo studio pubblicato su arXiv (arxiv.org/abs/2602.20303) affronta questa sfida confrontando i metodi statistici tradizionali con gli algoritmi di machine learning, usando i dati del National Survey of Children’s Health 2021, che copre oltre 40.000 famiglie americane.

Il punto centrale della ricerca non è tanto il tema dell’obesità in sé, quanto la domanda metodologica sottostante: i modelli di intelligenza artificiale fanno davvero meglio della regressione logistica classica quando si tratta di prevedere fenomeni complessi a livello di popolazione? La risposta, come spesso accade nella ricerca applicata, è sfumata. Gli algoritmi di machine learning mostrano vantaggi in termini di capacità predittiva complessiva, ma presentano criticità quando si analizzano sottogruppi specifici, ad esempio per etnia o fascia di reddito, dove la calibrazione può risultare meno affidabile.

Questo dettaglio tecnico ha implicazioni pratiche immediate. Un modello che funziona bene in media ma si comporta in modo disomogeneo su certi gruppi può portare a decisioni sbagliate proprio dove la vulnerabilità è maggiore. È il problema dell’equità algoritmica, che la ricerca accademica discute da anni ma che le organizzazioni sanitarie faticano ancora a tradurre in protocolli operativi.

Per chi lavora in ambito sanitario in Italia, lo studio offre una lezione diretta. Un’ASL che volesse costruire uno strumento di screening per l’obesità infantile partendo dai dati dei medici di base potrebbe essere tentata di affidarsi a un modello di machine learning perché “più preciso”. Ma la ricerca suggerisce che la scelta del modello non può prescindere da una verifica sistematica delle performance su ogni sottogruppo della popolazione servita, non solo sul dato aggregato. Un modello addestrato su dati nazionali americani applicato a una popolazione del Sud Italia, con caratteristiche socioeconomiche e alimentari diverse, richiederebbe una validazione locale prima di qualsiasi utilizzo clinico.

Lo stesso ragionamento vale per le aziende che sviluppano software gestionale per studi medici o poliambulatori. Integrare funzioni predittive basate su AI è tecnicamente fattibile, ma vendere uno strumento di screening senza documentare le sue performance su popolazioni specifiche espone a rischi sia clinici che normativi, considerando che il Regolamento europeo sull’AI classifica i sistemi di supporto decisionale in ambito sanitario come ad alto rischio.

Perche conta. Se la vostra azienda usa o sta valutando strumenti di analisi predittiva, chiedete esplicitamente al fornitore come viene misurata l’equità del modello sui diversi segmenti di utenti o pazienti. Non accontentatevi di un’accuratezza media: chiedete le performance disaggregate per sottogruppo. Se il fornitore non sa rispondervi, è un segnale che il prodotto non è ancora maturo per un uso professionale responsabile.