Google continua a perfezionare l’esperienza del suo assistente Gemini Live, introducendo piccoli ma significativi aggiornamenti che rendono la piattaforma più fluida e intelligente. Dopo l’importante aggiornamento del modello della scorsa settimana, arriva ora un miglioramento “di qualità della vita” che cambia il modo in cui gli utenti interagiscono con le didascalie in tempo reale e con la modalità AI di Search Live.
Didascalie più intelligenti e bidirezionali
Quando Gemini Live introdusse le didascalie lo scorso giugno, la funzione era ancora limitata: veniva trascritta solo la risposta dell’assistente.
Con l’ultimo aggiornamento, invece, la trascrizione diventa bidirezionale, mostrando sullo schermo sia ciò che dice l’utente (“You”) che la risposta di Gemini.
L’opzione è accessibile toccando il pulsante in alto a destra durante la conversazione. Le didascalie, visualizzate in una finestra compatta da tre righe, non possono essere spostate, ma offrono una panoramica chiara e immediata della conversazione.
Un dettaglio interessante? Puoi verificare in tempo reale se Gemini ti ha capito correttamente, prima che la risposta vada troppo avanti — una comodità non da poco per chi usa spesso i comandi vocali. In passato, infatti, era necessario uscire dalla sessione per ottenere la trascrizione completa del dialogo.
La funzione è già in distribuzione globale per tutti gli utenti Android, senza aggiornamenti manuali richiesti.
Accesso più rapido alla modalità AI
L’altra grande novità riguarda la modalità AI di Search Live, ora ancora più facile da attivare. Oltre ai classici punti di accesso — tramite app Google o collegamento sotto la barra di ricerca — il nuovo aggiornamento permette di impostare il pulsante “Live” direttamente nel widget della schermata iniziale.
In pratica, puoi avviare una conversazione vocale con Gemini senza nemmeno aprire l’app, rendendo l’interazione istantanea.
È un’aggiunta che si integra con l’arrivo dei nuovi controlli flottanti, pensati per semplificare ulteriormente l’uso quotidiano dell’assistente IA.
Nuovo look per il feed Discover
In parallelo, Google sta testando una piccola ma curiosa novità grafica nel feed Discover: una nuova icona “nano banana”, visibile nella parte superiore della schermata.
Questa emoji sostituisce il vecchio collegamento di Google Lens, che apriva direttamente la sezione dedicata agli screenshot e alle immagini salvate sul dispositivo.
Un cambiamento apparentemente estetico, ma che suggerisce come Google voglia rendere l’esperienza Discover più giocosa, riconoscibile e centrata sull’utente, introducendo un linguaggio visivo più coerente con l’identità dell’app Gemini.
Considerazioni finali
Questi aggiornamenti, anche se piccoli, mostrano chiaramente la direzione di Google: rendere la sua IA sempre più intuitiva, accessibile e personalizzabile.
Le didascalie bidirezionali rappresentano un passo avanti per chi cerca interazioni vocali più trasparenti e precise, mentre la semplificazione dell’accesso alla modalità Live riduce ulteriormente le barriere tra utente e assistente.
E poi c’è la “nano banana” — una trovata simpatica ma significativa, che rivela come anche i dettagli visivi possano contribuire a rendere l’esperienza più umana.
Insomma, Google non sta solo aggiornando Gemini Live: lo sta rendendo un compagno digitale più consapevole, più reattivo e soprattutto più vicino al modo in cui le persone comunicano davvero.





