L’aria, ormai, è quella da pre-lancio grosso. Dopo mesi di rumor sparsi su roadmap, chip interni e strategie XR, le ultime indiscrezioni mettono finalmente in fila come dovrebbero essere le prime Apple Glasses attese tra fine 2026 e inizio 2027.
La cosa interessante? Non saranno affatto dei mini-Vision Pro. Niente display davanti agli occhi, niente realtà aumentata in stile ologrammi fluttuanti. Almeno all’inizio. Le prime Apple Glasses, stando alle ricostruzioni più credibili, saranno occhiali “AI-first”: microcamere, audio, Siri e Apple Intelligence come protagonisti.
Cosa sono (e cosa non sono) le prime Apple Glasses
Partiamo dal punto chiave: la prima generazione non avrà un display integrato. Niente testo proiettato sulle lenti, niente overlay AR come nei concept futuristici.
L’idea, almeno per il debutto, è quella di occhiali “assistente personale” più simili alle Ray-Ban Meta che a un caschetto mixed reality.
Questo significa che il focus sarà su:
- fotocamere integrate per foto, video e riconoscimento visivo
- audio integrato (speaker nelle aste) per feedback discreti e contenuti multimediali
- una forte integrazione con Siri e Apple Intelligence per interpretare quello che vedi e senti
La versione con display arriverà più avanti, come modello premium, in una seconda fase della roadmap. Gli analisti parlano apertamente di una linea di smart glasses in due step: prima modello “audio+AI”, poi varianti con display AR vero e proprio.
Tutte le funzioni vociferate finora
Mettendo insieme i diversi report, il quadro delle funzioni attese al day one è già piuttosto chiaro:
-
Nuovo chip dedicato
Probabilmente basato sulla famiglia S-series (quella di Apple Watch), ma ancora più ottimizzato per consumi ultra bassi e gestione delle multiple fotocamere montate sulla montatura. -
Più fotocamere per foto, video e “visual intelligence”
Non solo per catturare contenuti, ma per alimentare funzioni tipo “guarda e chiedi”: riconoscere oggetti, capire cosa hai davanti, leggere testi, identificare punti di interesse, tradurre in tempo reale. -
Apple Intelligence pesante, soprattutto lato visione
Tutto il pacchetto di visual intelligence che stiamo iniziando a vedere su iPhone (descrizione immagini, riconoscimento scene, testo, oggetti) portato sul viso, sempre con te. -
Controllo vocale con Siri di nuova generazione
L’interfaccia principale saranno comandi vocali + contesto visivo: chiedi “cosa sto guardando?”, “traduce questo menu”, “che monumento è quello?”, “leggimi questo documento”, e l’AI fa il resto. -
Speaker integrati nelle aste
Per ascoltare musica, podcast, chiamate o risposte di Siri senza infilare auricolari. Ovviamente tutto pensato per funzionare al meglio anche in combo con AirPods. -
Accoppiamento obbligatorio con iPhone
Come per Apple Watch alla prima generazione, le Glasses saranno un accessorio dell’iPhone, non un device completamente autonomo. Molta elaborazione, soprattutto quella AI più pesante, verrà scaricata sul telefono per risparmiare batteria sugli occhiali. -
Funzioni di salute in background
Apple starebbe esplorando un set di funzioni di health tracking: sensori nelle aste potrebbero misurare parametri legati a postura, affaticamento, magari correlazioni con stress o affaticamento oculare. È la parte più vaga del pacchetto, ma è chiaramente sul radar. -
Tante varianti di stile
Non saranno “occhiali nerdoni tutti uguali”. Apple punta a rendere le Glasses un oggetto di moda, con diversi materiali, colori, forme di montatura e aste. Il riferimento evidente è la strategia iniziale di Apple Watch: tecnologia + accessorio personale.
Esperienza tutta basata su AI e Siri
Per far funzionare davvero questo prodotto, Apple ha bisogno di una Siri profondamente diversa da quella che conosciamo oggi.
L’interazione ideale è questa: tu guardi qualcosa, parli, e le Glasses capiscono cosa hai davanti + cosa vuoi ottenere. Niente tap, niente display, solo voce + contesto visivo in tempo reale.
Questo significa:
- riconoscere oggetti, testi, luoghi, persone (nei limiti della privacy)
- combinare queste informazioni con Apple Intelligence
- restituire la risposta via audio, in modo naturale e rapido
Non è un caso che il grande refresh di Siri basato su modelli linguistici sia previsto proprio attorno al 2026: è la finestra perfetta per legarlo a un nuovo hardware che vive di AI e voce.
Se la “nuova Siri” dovesse deludere, le Apple Glasses perderebbero immediatamente metà del loro fascino.
Niente display, per ora: perché ha molto senso
Molti si immaginavano le Apple Glasses come un Vision Pro in miniatura. In realtà, la scelta di partire con occhiali senza display è probabilmente la più saggia:
- tecnicamente, integrare un display AR nelle lenti senza trasformare gli occhiali in un mattone è ancora complicatissimo
- i costi salirebbero alle stelle, rischiando di ripetere il “caso Vision Pro”: prodotto straordinario, ma ultra-di-nicchia
- il mercato oggi sta spingendo forte sugli occhiali leggeri con AI + camera + audio, come dimostra il successo di altri smart glasses recenti
Apple, per una volta, sembra voler entrare nel segmento che sta già funzionando, invece di inventarne uno totalmente nuovo. Nel frattempo prepara, in parallelo, le varianti con display per la seconda metà del decennio.
Quando arrivano e quanto potrebbero costare
Qui i rumor convergono abbastanza:
- annuncio verso fine 2026,
- uscita effettiva nel 2027, con disponibilità inizialmente limitata.
Sul prezzo non ci sono cifre certe, ma un riferimento ce l’abbiamo: gli smart glasses più evoluti oggi partono dalla fascia 350–400 dollari. È plausibile che Apple voglia posizionarsi un gradino sopra, ma senza avvicinarsi neanche lontanamente ai 3.499 dollari di Vision Pro.
Un range realistico potrebbe essere 499–699 dollari/euro per il modello base, con varianti più costose a seconda di materiali e tipo di lenti (da vista, da sole, fotocromatiche, ecc.).
Considerazioni finali
Mettendo in fila tutto, le prime Apple Glasses sembrano meno “fantascienza alla Vision Pro” e molto più oggetto da usare tutti i giorni, in strada, in ufficio, in viaggio. E secondo me è esattamente ciò che serviva.
Apple sembra aver capito che il futuro non è solo il caschetto XR super potente, ma un ecosistema di dispositivi: Vision Pro per le esperienze immersive, occhiali leggeri per l’assistente AI sempre con te. Il rischio, ovviamente, è enorme: senza display l’effetto “wow visivo” è minimo, e tutto il peso ricade su AI, Siri e integrazione con iPhone.
Personalmente, l’idea di occhiali che mi permettono di scattare al volo, tradurre, farmi leggere testi, ricordare dove ho lasciato l’auto e spiegarmi ciò che vedo senza tirare fuori l’iPhone ogni 30 secondi mi intriga parecchio. Se Apple riuscirà a impacchettare tutto questo in un prodotto che non ti fa sentire un cyborg quando sei in centro città, potrebbe davvero essere il primo wearable AI “di massa” della sua storia.





