Una ricerca condotta da University of Cambridge in collaborazione con Meta Reality Labs ha messo in discussione una credenza radicata: l’occhio umano, secondo gli esperti, può percepire molto più dettaglio di quanto suggerissero i modelli tradizionali.
Fino ad oggi si riteneva che la capacità visiva fosse intorno a 60 pixel per grado (ppd), basata sulla visione “20/20” e sul test di Snellen.
Il nuovo studio invece ha identificato limiti molto più alti: per immagini in scala di grigi circa 94 ppd, per rosso-verde circa 89 ppd, e per giallo-violetto circa 53 ppd.
Come è stato fatto lo studio
I ricercatori hanno messo a punto un sistema sperimentale dedicato: uno schermo scorrevole che permetteva di modificare distanze e risoluzioni in modo continuo, e dei pattern visivi ad altissima frequenza spaziale (righe strettissime) per testare quando l’osservatore non riuscisse più a distinguere dettagli.
Hanno coinvolto 18 partecipanti di età variabile (13-46 anni) e testato la visione centrale (fovea) ma anche l’efficacia in condizioni periferiche o con variazioni di colore e contrasto.
I risultati mostrano che l’occhio umano raggiunge un limite di risoluzione più elevato rispetto a quanto si pensava, ma con importanti dipendenze: il tipo di colore, la posizione nella visione (centrale vs periferica) e la distanza dallo schermo influenzano in modo significativo la percezione.
Quali implicazioni pratica ha questo risultato
Per display e televisori
Se l’occhio è capace di 94 ppd in certe condizioni, la domanda diventa: ha senso puntare su risoluzioni ancora più alte come 8K o 16K per un utente comune? Lo studio suggerisce che, per una tipica postazione d’uso domestica (es: divano ↔ TV), un pannello ultra-alta definizione offre poco beneficio visibile rispetto a risoluzioni già elevate.
Ciò significa che produttori e consumatori dovrebbero ripensare la ratio tra risoluzione, dimensioni dello schermo e distanza di visione: potenzialmente si possono ottenere risparmi energetici, costi inferiori o design ottimizzati senza perdere qualità percepita.
Per realtà virtuale/augmented reality e mobile
In ambienti VR/AR e su dispositivi mobili dove lo schermo è molto vicino all’occhio, questa ricerca fornisce un punto di riferimento per capire fino a che livello “vale la pena” aumentare la densità di pixel. Se sappiamo che oltre una certa soglia l’occhio non coglie miglioramento, possiamo ottimizzare risorse hardware, rendering e grafica.
Per contenuto visivo e compressione video
Una seconda implicazione significativa riguarda la codifica e la compressione video: se l’occhio ha limiti di percezione per certe frequenze o colori, si può alleggerire il flusso dati senza impatto visivo percepito. Lo studio fornisce dati utili per modulare quali dettagli visivi sono realmente “visibili” o meno.
Limiti e cautela da tenere a mente
Anche se i risultati sono robusti, ci sono circazioni importanti: i campioni sono relativamente piccoli e in condizioni controllate, non completamente representative di ogni utente o scenario.
Inoltre, l’acuità visiva dipende anche da fattori biologici individuali: età, salute degli occhi, condizioni di luce, presenza di aberrazioni ottiche, etc.
Infine, alta risoluzione non è l’unico parametro che conta: colore, contrasto, luminosità, dinamica e uniformità dello schermo giocano un ruolo cruciale nell’esperienza visiva complessiva.
Il mio punto di vista
Trovo questa ricerca particolarmente affascinante perché ribalta un dogma tecnico che aveva una lunga vita: che l’occhio “normale” arrivi solo a circa 60 ppd. Non è così — e questo apre la porta a una riflessione più ampia sul rapporto tra hardware visivo e percezione umana.
Da professionista del mondo tech e marketing, la lezione è chiara: non tutto ciò che è tecnologicamente possibile è percepibile, e quindi la percezione umana deve guidare le scelte, non solo i numeri.





