Da questa settimana, analizzare un intero contratto da 300 pagine con un modello linguistico non richiede più di spezzarlo in pezzi. Google DeepMind ha rilasciato Gemini 3.1 Pro, il modello più avanzato della serie Pro, con una finestra di contesto da 1 milione di token e capacità di ragionamento che superano del doppio la versione precedente.
Il dato più significativo arriva dal benchmark ARC-AGI-2, dove Gemini 3.1 Pro raggiunge il 77,1% contro il 35% circa di Gemini 3 Pro. Questo test misura la capacità di ragionamento astratto, quella che serve per risolvere problemi nuovi senza averli mai visti prima. Per chi usa AI nel lavoro quotidiano, significa un modello che sbaglia meno quando deve interpretare situazioni complesse o ambigue.
La finestra da 1 milione di token corrisponde a circa 750.000 parole, l’equivalente di 10-12 romanzi o di tutti i documenti contabili di una PMI per un anno fiscale. Gemini 3.1 Pro può anche generare output fino a 65.536 token in una singola risposta, circa 50.000 parole: abbastanza per produrre un report completo o una proposta commerciale articolata senza dover concatenare più richieste.
Il modello introduce un sistema di ragionamento a tre livelli — Low, Medium, High — che l’utente può selezionare in base alla complessità del compito. Per uno studio commercialista con 200 clienti, significa poter caricare tutti i bilanci di un’azienda e ottenere un’analisi comparata senza dover suddividere i documenti. Per un ufficio legale, vuol dire sottoporre un fascicolo processuale completo e ricevere un memo di sintesi che tiene conto di tutti i riferimenti incrociati.
Gemini 3.1 Pro è multimodale nativo: ragiona su testo, immagini, audio, video e codice nello stesso contesto. Un esempio concreto: un’azienda manifatturiera può caricare il manuale tecnico di una macchina (PDF), le foto di un guasto, il video della linea di produzione e chiedere una diagnosi. Il modello correla le informazioni senza che l’utente debba estrarle e ricombinarle manualmente.
Il modello è già disponibile su Gemini App, NotebookLM, AI Studio, Vertex AI e GitHub Copilot. Il prezzo è di 2 dollari per milione di token in input e 12 dollari per milione in output. Tradotto: analizzare 100 pagine di testo costa circa 15 centesimi, generare 10 pagine di risposta costa circa 25 centesimi. Meno di un caffè al bar per processare un documento che richiederebbe ore di lettura.
L’integrazione con GitHub Copilot, annunciata in contemporanea, porta queste capacità direttamente nell’ambiente di sviluppo. Gli sviluppatori possono ora usare Gemini 3.1 Pro per cicli di edit-then-test più precisi, con meno chiamate API necessarie per completare un task. Questo riduce sia i tempi che i costi per chi sviluppa software internamente.
Perché conta. Aprite il vostro gestionale documentale e fate una lista dei processi in cui oggi dovete suddividere manualmente documenti lunghi per farli analizzare da AI: contratti, capitolati, audit, perizie tecniche. Con una finestra da 1 milione di token, potete eliminarli. Dedicate 30 minuti questa settimana a testare Gemini 3.1 Pro su AI Studio (gratuito per uso sperimentale) con un caso reale della vostra azienda: caricate un documento complesso e chiedete un’analisi strutturata. Confrontate il risultato con il vostro processo attuale. Se il risparmio di tempo supera le 2 ore al mese, il costo del modello si ripaga da solo. Per chi sviluppa software, verificate se il vostro team usa già GitHub Copilot: l’upgrade a Gemini 3.1 Pro è incluso nei piani Pro e Business senza costi aggiuntivi.
Fonte: Google AI Blog