- 1 Due famiglie di occhiali, una regola chiara: devono funzionare anche senza schermo
- 2 I controlli: pochi, obbligatori, e molto fisici
- 3 La UI: una home “tipo lockscreen” e una system bar sempre lì
- 4 “Glimmer”: la design language pensata per non affaticarti (e non friggere la batteria)
- 5 FAQ
- 6 Considerazioni finali
Se hai ancora in testa l’idea di Google Glass come “quel gadget strano” visto in giro dieci anni fa, preparati a un piccolo reset mentale. Con Android XR, Google sta provando a fare la cosa più difficile: rendere gli occhiali smart qualcosa di normale. Non “wow” per cinque minuti, ma usabili tutti i giorni. E la parte più interessante, oggi, non è nemmeno l’hardware: è come li controllerai e che tipo di UI ti ritroverai davanti.
Due famiglie di occhiali, una regola chiara: devono funzionare anche senza schermo
Android XR, per gli occhiali, parte da due form factor ufficiali: AI Glasses (con speaker, microfono e fotocamera) e Display AI Glasses, che aggiungono un display piccolo. Dentro questi ultimi, Google distingue già tra modelli monocular (un solo display) e binocular (doppio display, più avanti nel tempo).
La cosa che mi ha colpito è la “clausola” implicita: puoi spegnere lo schermo quando vuoi, quindi le app devono restare sensate anche in modalità solo audio. È un modo molto Google di evitare l’effetto “se non guardi, non serve a nulla”. E onestamente ha senso: un paio di occhiali non può pretendere attenzione continua come uno smartphone.
I controlli: pochi, obbligatori, e molto fisici
Google sta imponendo una base hardware comune: tasto di accensione, touchpad e tasto fotocamera su tutti i modelli. Se c’è lo schermo, arriva anche un tasto display per wake/sleep, cioè passare rapidamente a “audio-only”.
Il tasto fotocamera è quello che immagini:
- tap = foto
- pressione prolungata = video
- doppio tap = apre l’app Camera
Il touchpad, invece, è il centro del mondo. E qui si vede la mano “da piattaforma” di Google: gesti semplici, prevedibili, con qualche variazione tra audio e display. In pratica:
- tap: play/pausa o conferma
- touch & hold: richiami Gemini
- swipe: avanti/indietro o navigazione UI (scroll, focus, click)
- swipe a due dita: volume
- swipe down (su display): back/home
Non è rivoluzionario, ma è esattamente ciò che serve per non far impazzire la gente al day one.

Due LED, e zero trucchi
C’è anche un dettaglio “politico”: gli occhiali avranno due LED, uno per chi li indossa e uno per chi sta intorno. Sono indicatori di sistema e non si possono personalizzare. Traduzione: Google vuole evitare l’incubo privacy e la creatività fuori controllo dei produttori.
La UI: una home “tipo lockscreen” e una system bar sempre lì
Sui Display AI Glasses, l’esperienza ruota attorno a una Home screen che Google paragona alla lockscreen del telefono. In basso c’è una system bar sempre visibile con roba essenziale: ora, meteo, notifiche/alert, “chips” contestuali e feedback visivo di Gemini.
Sopra, l’idea è “glanceable”: informazioni che capisci al volo senza interagire troppo, scorciatoie intelligenti e una gestione decente del multitasking quando ci sono più attività attive. È un approccio molto pragmatico, quasi conservatore. Ma dopo anni di XR “troppo ambiziosa”, forse è proprio il punto.
Notifiche a pillola, espansione solo quando serve
Le notifiche arrivano come pill-shaped chips e si espandono quando vanno in focus. Questa cosa, se fatta bene, potrebbe diventare la vera killer feature degli occhiali: meno “feed infinito”, più micro-interazioni rapide.
“Glimmer”: la design language pensata per non affaticarti (e non friggere la batteria)
Il nome della UI per gli occhiali è Glimmer. Linee guida: angoli vivi sconsigliati, meglio forme arrotondate perché gli spigoli “tirano” l’occhio in modo innaturale.
E poi c’è la parte che adoro, perché è tremendamente concreta: sui display optical see-through il colore è anche termica e consumi. Google nota che alcuni colori scaldano e consumano più di altri: in generale il blu è più energivoro del verde a parità di tono; e riempire tutto di bianco può portare a mitigazioni termiche. In pratica: meno pixel accesi, meglio è.
Anche le icone hanno regole “da occhiali”: meglio non riempite per ridurre aloni e light bleed; e se non vuoi reinventare la ruota, Google spinge Material Symbols Rounded.
Per chi sviluppa, esiste anche un set di componenti Jetpack Compose Glimmer (bottoni, cards, lists, title chip, stack ecc.), cioè una cassetta degli attrezzi già ottimizzata per quel contesto.
FAQ
Quando arrivano gli Android XR glasses?
Google parla di disponibilità nel 2026, con una prima ondata focalizzata sui modelli con display “monocular”.
Si possono usare senza guardare lo schermo?
Sì: lo schermo può essere spento e le app devono restare funzionali in audio-only.
Come si controllano davvero?
Con una combinazione di tasti fisici (power, camera, display) e touchpad con tap/hold/swipe (anche a due dita per il volume).
Gemini è integrato o è “solo un’app”?
Dalle linee guida emerge come parte centrale dell’interazione, richiamabile dal touchpad e con feedback visivo nella system bar.
Perché Google insiste su LED e indicatori non personalizzabili?
Perché la fiducia conta: indicatori di registrazione/stato “di sistema” riducono i margini di ambiguità e i problemi di privacy.
Considerazioni finali
Quello che mi convince di Android XR, almeno da queste premesse, è il tono: meno fantascienza, più prodotto. Glimmer non sembra progettata per stupire, ma per non stancare, non scaldare, non consumare troppo, non creare panico sociale quando qualcuno ti parla e non sa se lo stai riprendendo. È una filosofia quasi “noiosa”, e infatti potrebbe essere quella giusta.
Se poi questa scelta basterà a far uscire gli smart glasses dal limbo “bella demo, poi mai più”, lo vedremo. Però Google, per una volta, sta facendo la cosa che di solito non le viene naturale: mettere limiti, standardizzare, e pensare prima all’uso quotidiano che al trailer.





