Durante la WWDC 2025, Apple ha svelato un aggiornamento importante per la sua funzione Visual Intelligence, estendendola al contenuto visualizzato direttamente sullo schermo del tuo iPhone.
Non si tratta solo di riconoscimento immagini tramite fotocamera: ora il sistema è in grado di analizzare e interpretare qualsiasi contenuto on-screen, aprendo la strada a una nuova modalità di interazione tra AI, app e interfaccia utente.
Secondo noi, è un passo decisivo verso un “universal action layer” che trasforma lo schermo in uno spazio “vivo”, dove tutto può essere selezionato, compreso e utilizzato, in tempo reale.
Come funziona Visual Intelligence in iOS 26
Fino a iOS 25, Visual Intelligence operava principalmente come estensione della fotocamera: poteva riconoscere oggetti reali inquadrati, come piante, libri o monumenti.
Con iOS 26, questa capacità viene estesa a qualsiasi contenuto visualizzato sullo schermo, compresi:
- App attive (Instagram, Safari, Note…)
- PDF, immagini, siti web
- Eventi, date, indirizzi, oggetti visivi e testuali
L’accesso è semplice: basta premere la stessa combinazione usata per uno screenshot. A quel punto, oltre a salvare l’immagine, potrai:
- Selezionare oggetti, parole o interfacce
- Cercare prodotti simili su Google, Etsy, Amazon
- Fare domande a ChatGPT su ciò che stai guardando
- Aggiungere eventi rilevati direttamente al Calendario
- Estrarre informazioni utili come orari, nomi, luoghi
Un motore d’azione universale?
Apple descrive Visual Intelligence come un sistema di supporto contestuale e privato, che lavora on-device.
A differenza di altri assistenti, non ascolta o interpreta in background, ma agisce solo su esplicita attivazione, nel momento in cui l’utente tocca lo schermo o preme il tasto screenshot.
L’analisi visiva è basata su modelli AI ottimizzati localmente (Apple Intelligence), con eventuale estensione facoltativa a ChatGPT se si sceglie di attivare la funzione.
Il nostro punto di vista
Da parte nostra riteniamo che questa evoluzione sia molto più potente di quanto sembri inizialmente.
Apple non sta solo offrendo un “cerca immagine”, ma sta creando un ponte diretto tra contenuto e azione, riducendo la frizione tra il vedere qualcosa e l’agire su di esso.
In pratica: tutto ciò che è visibile, ora è potenzialmente “cliccabile”, “condivisibile”, “ricercabile”, senza dover copiare e incollare o fare screenshot da passare manualmente ad altre app.
Questo potrebbe rivoluzionare:
- L’e-commerce (ricerca prodotto da una storia Instagram)
- La produttività (cattura info da un PDF o da Note)
- L’accessibilità (interpretazione automatica di UI complesse)
- Il supporto tecnico e il customer service
Visual Intelligence assume il ruolo di “copilota visuale”, integrandosi in modo naturale e protetto in ogni angolo dell’esperienza utente su iPhone.
Ricevi le ultime attualità sul mondo tech!