HomeNews TechFastVLM: il modello AI che potrebbe dare vita agli Apple Glasses

FastVLM: il modello AI che potrebbe dare vita agli Apple Glasses

Scopri come Apple si prepara a rivoluzionare il mondo degli occhiali smart con un modello AI innovativo ed efficiente

Apple sta gettando le basi per la sua futura generazione di dispositivi AI indossabili, e ora abbiamo un primo assaggio di come potrebbe funzionare l’intelligenza artificiale nei tanto vociferati Apple Glasses. La chiave? Un nuovo modello chiamato FastVLM, sviluppato per offrire elaborazione visiva ad alta risoluzione in tempo reale e con bassissimo consumo di risorse.

Secondo noi, è un indizio concreto del fatto che Apple si stia muovendo con decisione verso un prodotto davvero smart, capace di elaborare ciò che vedi e di risponderti al volo, senza dover ricorrere al cloud.

Cos’è FastVLM e perché è importante?

Presentato dal team di ricerca Machine Learning di Apple, FastVLM è un Visual Language Model (VLM) progettato per girare localmente su dispositivi con chip Apple Silicon, sfruttando il framework MLX. Questo significa che il modello può processare immagini e generare risposte senza inviare dati all’esterno, un punto chiave in termini di privacy e velocità.

Alla base c’è FastViTHD, un encoder ultra-efficiente ottimizzato per immagini ad alta risoluzione. Apple afferma che il modello è fino a 3,2 volte più veloce e 3,6 volte più leggero rispetto ad alternative simili, con un tempo di risposta (time-to-first-token) 85 volte più rapido.

Da parte nostra riteniamo che questa sia una vera svolta: un sistema leggero, veloce, ed efficiente, che può funzionare perfettamente in un paio di occhiali senza appesantire la batteria o dover dipendere da internet.

Gli Apple Glasses arriveranno nel 2027?

Secondo le indiscrezioni, Apple prevede di lanciare i suoi occhiali AI intorno al 2027, insieme a AirPods dotati di fotocamera. Questi nuovi dispositivi costituirebbero la risposta diretta agli occhiali Meta Ray-Ban, ma con una marcia in più: la capacità di comprendere ciò che l’utente guarda o chiede grazie a un modello AI visivo integrato.

È troppo presto per parlare di design o di funzionalità definitive, ma l’introduzione di FastVLM — disponibile su GitHub e descritto in un paper su arXiv — è un chiaro segnale di come Apple stia costruendo le fondamenta tecnologiche per lanciare prodotti wearable davvero intelligenti.

Verso una nuova generazione di dispositivi Apple “assistivi”

Se Vision Pro è il primo passo verso un mondo digitale indossabile, gli Apple Glasses potrebbero rappresentare l’evoluzione quotidiana, più accessibile e discreta. Secondo noi, FastVLM sarà il cuore silenzioso di questa rivoluzione, elaborando tutto ciò che vediamo in tempo reale per aiutarci, suggerirci o spiegarci il mondo intorno.

Salvatore Macrì
Salvatore Macrìhttps://it.linkedin.com/in/salmacri
Amante della tecnologia, della buona musica e dello sport, scrivo articoli per passione e per delucidare delle tematiche legate alla vita quotidiana per rendere questo mondo meno complicato. Sensibile ai temi ambientali e strenue sostenitore di una "green revolution" che nasca dal basso. Mi dedico per passione anche a scrivere pronostici sportivi dettagliati anche grazie all'analisi approfondita delle statistiche, grazie all'IA.
TI POTREBBERO INTERESSARE

ARTICOLI CONSIGLIATI

Live a bassa latenza, oltre lo streaming normale

Live a bassa latenza, oltre lo streaming normale

Gli appassionati di sport, ma anche chi ama le serie TV, o coglie le nuove opportunità offerte dalle varie piattaforme di assistere a eventi live, forse avrà notato l'emergere di nuove tecnologie. Spesso si parla di streaming, ma non sempre questa parola è quella più esatta per indicare ciò che avviene quando selezioniamo un contenuto da visualizzare.
WhatsApp vuole i messaggi programmati

WhatsApp vuole i messaggi programmati: una “piccola” funzione che...

C’è una scena che ho vissuto più volte del necessario: scrivi “buon compleanno!”, ti senti pure puntuale… e poi ti ricordi che la persona vive dall’altra parte del mondo. Risultato: notifica alle 3:07 del mattino, figuraccia e promessa (mai mantenuta) di “la prossima volta me lo segno”.Ecco perché la notizia che sta girando oggi ha senso: WhatsApp sta preparando i messaggi programmati, una funzione che su iPhone molti hanno iniziato a usare in iMessage con “Invia più tardi”. Non è un effetto speciale, non è AI. È una di quelle cose terra-terra che, quando arrivano, ti chiedi come hai fatto senza.
Apple Studio Display 2

Apple Studio Display 2: i rumor si stanno allineando...

Se hai un Mac “serio” sulla scrivania, lo Studio Display attuale è probabilmente uno di quei prodotti che guardi con rispetto… e con un pizzico di frustrazione. Bello, pulito, 5K, audio sorprendentemente buono. Poi ti ricordi che è fermo a 60 Hz e senza HDR, e ti passa un po’ l’entusiasmo. Ecco perché le voci su Apple Studio Display 2 stanno facendo rumore: non parlano di un ritocchino, ma di un upgrade che finalmente porta il monitor di Apple dove dovrebbe stare nel 2026.
Caratteristiche iOS 26.4

iOS 26.4: data probabile e le novità che contano...

Le release “.4” di Apple hanno un vizio: arrivano senza clamore, poi ti accorgi che hai iniziato a usarle tutti i giorni. iOS 26.4 sembra esattamente così. Oggi, 24 febbraio 2026, è già in beta e sta facendo parlare soprattutto per musica, CarPlay e messaggi. La domanda però è quella classica: quando arriva per tutti, e cosa cambia sul serio?Quando aspettarsi iOS 26.4Apple è sorprendentemente regolare con gli update x.4: negli ultimi anni sono quasi sempre usciti a marzo (18.4 il 31 marzo 2025, 17.4 il 5 marzo 2024, 16.4 il 27 marzo 2023, 15.4 il 14 marzo 2022). Non è una promessa, ma è una traccia abbastanza affidabile.