La battaglia per la supremazia dell’intelligenza artificiale entra nel vivo. Quasi esattamente una settimana dopo che OpenAI ha reso disponibile al pubblico il suo modello o1, Google oggi ha offerto un’anteprima del suo modello Gemini 2.0 di nuova generazione.
In un post sul blog attribuito al CEO di Google Sundar Pichai, l’azienda afferma che 2.0 è il suo modello più capace finora realizzato, con l’algoritmo che offre supporto nativo per l’output di immagini e audio.
“Ci consentirà di creare nuovi agenti AI che ci avvicineranno alla nostra visione di un assistente universale”, afferma Pichai. Google sta facendo qualcosa di diverso con Gemini 2.0. Invece di iniziare l’anteprima di oggi illustrando la sua versione più avanzata del modello, ossia Gemini 2.0 Pro, il gigante della ricerca ha deciso di puntare su 2.0 Flash. Da oggi, il modello più efficiente (e conveniente) è disponibile per tutti gli utenti Gemini. Chi vuole provarlo non deve fare altro che abilitare Gemini 2.0 dal menu a discesa nel client Web Gemini, con disponibilità all’interno dell’app mobile in arrivo a breve.
L’AI votata alla ricerca
In futuro, Google afferma che il suo obiettivo principale sarà quello di aggiungere l’intelligenza di 2.0 alla Ricerca. Secondo l’azienda, il nuovo modello consentirà alla funzionalità di affrontare domande più complesse, comprese quelle che coinvolgono problemi di matematica e codifica in più fasi.
Allo stesso tempo, Google prevede di rendere AI Overviews disponibile in più lingue e Paesi. Guardando al futuro, Gemini 2.0 sta già potenziando alcune delle applicazioni AI più ambiziose di Google, tra cui Project Astra, l’agente AI multimodale che l’azienda ha presentato in anteprima all’I/O 2024. Grazie al nuovo modello, Google afferma che l’ultima versione di Astra può conversare in più lingue e persino passare da una all’altra “al volo”. Può anche “ricordare” le cose più a lungo, offre una latenza migliorata e può accedere a strumenti come Google Lens e Maps.
Le performance di Gemini 2.0 Flash
Come ci si potrebbe aspettare, Gemini 2.0 Flash offre prestazioni significativamente migliori rispetto al suo predecessore. Ad esempio, ha ottenuto un punteggio del 63 percento su HiddenMath, un benchmark che testa la capacità dei modelli di intelligenza artificiale di completare problemi matematici di livello competitivo.
Al contrario, Gemini 1.5 Flash ha ottenuto un punteggio del 47,2 percento nello stesso test. Ma la cosa più interessante qui è che la versione sperimentale di Gemini 2.0 batte persino Gemini 1.5 Pro in molte aree; infatti, secondo i dati condivisi da Google, gli unici ambiti in cui è ancora insicuro riguardano la comprensione del contesto lungo e la traduzione automatica del parlato. È per questo motivo che Google sta mantenendo il modello precedente, almeno per un po’ di tempo ancora.
Insieme all’annuncio odierno di Gemini 2.0, l’azienda ha anche lanciato Deep Research, un nuovo strumento che utilizza le capacità del contesto lungo di Gemini 1.5 Pro per scrivere report completi su argomenti complicati.