Dire a un’AI “prenota un volo per Milano” è relativamente semplice. Dirle “prenota un volo per Milano, ma preferibilmente non di mattina presto, evita scali se possibile, e non spendere più di quanto necessario” è già molto più complesso. E se aggiungessimo “e fallo in modo che io possa sempre annullare senza penali”? Il problema di comunicare alle macchine non solo l’obiettivo ma anche le preferenze, i vincoli e i valori che guidano il modo in cui quell’obiettivo deve essere raggiunto è uno dei nodi centrali della ricerca sull’allineamento dell’AI.
Un nuovo paper pubblicato su arXiv affronta esattamente questo problema con un approccio chiamato “hierarchical reward design from language”. L’idea di base è costruire un sistema a più livelli che traduca le specifiche fornite in linguaggio naturale dagli esseri umani in funzioni di ricompensa strutturate, capaci di guidare il comportamento di un agente AI non solo verso il risultato finale ma anche attraverso il percorso corretto per raggiungerlo.
Il punto di partenza è una constatazione ovvia ma spesso trascurata: quando addestriamo un agente AI a svolgere un compito, ci preoccupiamo quasi sempre solo del risultato. Ma nella realtà lavorativa, il come conta tanto quanto il cosa. Un agente che gestisce le email di un’azienda e raggiunge l’obiettivo “rispondi a tutti i messaggi urgenti” cancellando i messaggi non urgenti senza rispondervi ha tecnicamente completato il compito, ma in modo inaccettabile.
Questo tipo di ricerca diventa sempre più rilevante man mano che gli agenti AI vengono impiegati in contesti aziendali reali. Uno studio legale che usa un agente per gestire le comunicazioni con i clienti, o un’azienda manifatturiera che affida a un sistema automatico la gestione degli ordini con i fornitori, ha bisogno che quell’agente rispetti non solo gli obiettivi espliciti ma anche una serie di vincoli impliciti: tono professionale, rispetto delle priorità, trasparenza nelle comunicazioni.
Il lavoro è ancora nella fase della ricerca accademica e non produce strumenti immediatamente disponibili, ma anticipa la direzione verso cui si muoveranno i sistemi di agenti AI nei prossimi anni: sistemi che non si limitano a eseguire, ma che operano secondo un insieme strutturato di preferenze e vincoli definiti dall’utente.
Perché conta. Se state usando o valutando agenti AI per automatizzare processi nella vostra azienda, iniziate a documentare non solo cosa volete che l’agente faccia, ma anche come volete che lo faccia: quali comportamenti sono inaccettabili, quali priorità deve rispettare, in quali casi deve fermarsi e chiedere conferma. Questa documentazione sarà fondamentale per configurare correttamente qualsiasi sistema di automazione avanzata, oggi e ancora di più domani.