
Annunciati importanti avanzamenti nelle tecnologie con intelligenza artificiale in nuovi prodotti più performanti e con funzionalità in grado di trasformare radicalmente la maniera di lavorare e l’esperienza utenti.
Il 20 maggio 2025, dall‘anfiteatro Shoreline a Mountain View, la sede centrale di Google in California, Sundar Pichai ha aperto la conferenza annuale dedicata agli sviluppatori con una panoramica delle principali innovazioni basate sull’intelligenza artificiale.
Al centro dell’intervento, il modello Gemini 2.5 Pro, attualmente in testa alla classifica LM Arena per performance generali, compresa la creazione di codice e il superamento di benchmark.
Questi risultati sono resi possibili dall’infrastruttura di Google, in particolare dai nuovi TPU Ironwood, la Tensor Processing Unit di settima generazione progettata specificamente per l’inferenza, il processo mediante il quale un modello già addestrato origina in modo proattivo risposte, interpretazioni o insight, convertendo dati in conoscenza utilizzabile in tempo reale o anticipando i bisogni dell’utente.
La capacità di elaborazione di Ironwood raggiunge i 42,5 exaflops per pod tanto da far affermare al CEO di Google come l’azienda abbia spostato la frontiera di Pareto.
Parallelamente, Gemini ha migliorato l’efficienza computazionale distinguendosi per la generazione più rapida di token. In un solo anno i prodotti di Google sono passati da 9,7 trilioni di token al mese a 480 trilioni.
La riduzione dei costi amplia l’accessibilità globale con gli strumenti API. Oltre 7 milioni di sviluppatori stanno usando Gemini su Google AI Studio e su Vertex AI superando oltre 400 milioni di utenti attivi mensili, in costante crescita.
Durante la conferenza, Pichai ha suscitato le risate del pubblico citando l’impresa di Joel Z che si è servito di Gemini 2.5 Pro per completare il videogioco Pokémon Blue del 1996. Un passo in avanti verso l’API Artificial Pokémon Intelligence .
L’evoluzione della comunicazione
Sul fronte dell’esperienza immersiva, è stata presentata la nuova piattaforma di videocomunicazione Google Beam, erede di Project Starline.
L’AI nei video ricrea conversazioni 3D usando l’output 2D di sei telecamere, visualizzando il rendering su display 3D lightfield.
Il tracciamento della testa è realizzato con precisione millimetrica in tempo reale, a 60 fotogrammi al secondo per conversazioni fluide.
La tecnologia a campi di luce, di cui avevamo parlato nel lontano 2014, si evolve nei display che ricostruiscono la direzione della luce per immagini tridimensionali senza occhiali ed è molto diffusa nell’imaging medico, nella realtà aumentata e nei visori immersivi.
Tornando all’evento di Mountain View, i primi dispositivi, realizzati con HP, sono previsti entro l’anno.
Su Google Meet è invece in arrivo una funzionalità strategica per abbattere le barriere linguistiche nelle riunioni ed in viaggio: un traduttore vocale in tempo reale con una voce corrispondente al tono ed alle espressioni di chi parla. La novità è disponibile per inglese e spagnolo agli abbonati a Google AI Pro e Ultra, ma sono previste release in altre lingue nelle prossime settimane.
Le opportunità offerte dall’intelligenza artificiale stanno progredendo in modo esponenziale e spetta agli sviluppatori ottimizzare gli attuali workflow lavorativi e semplificare la quotidianità nel rispetto dei diritti fondamentali delle persone, principalmente la privacy.
In una serie di approfondimenti, esploreremo le tecnologie che ci sono sembrate più rivoluzionarie e promettenti.
RIPRODUZIONE RISERVATA – © 2025 SHOWTECHIES – Quando la Tecnologia è spettacolo™ – E’ vietata la riproduzione e redistribuzione, anche parziale, dell’articolo senza autorizzazione scritta. Se desideri riprodurre i contenuti pubblicati, contattaci.
Immagini / Grafica: Google – Screenshot da Google I/O
Commenta per primo