lunedì, 24 Marzo 2025
spot_imgspot_imgspot_imgspot_img
HomeNews TechLe fotocamere di AirPods e Apple Watch potrebbero rendere l'intelligenza di Apple...

Le fotocamere di AirPods e Apple Watch potrebbero rendere l’intelligenza di Apple molto più avanzata

Un recente report ha suggerito che Apple sta lavorando per integrare telecamere negli AirPods, seguito da un altro che ipotizza l’inclusione di telecamere anche nell’Apple Watch. Apple ha esplorato per anni l’idea di aggiungere una telecamera all’Apple Watch, ma l’ultimo report suggerisce un utilizzo molto specifico.

Ci sono argomenti a favore dell’aggiunta di una telecamera all’Apple Watch per applicazioni convenzionali. Ad esempio, alcuni corridori preferiscono lasciare l’iPhone a casa e affidarsi a un Watch con connettività cellulare durante le loro corse. Un Watch dotato di telecamera potrebbe essere utilizzato per scattare foto al volo. Alcuni hanno anche suggerito che una telecamera sull’Apple Watch potrebbe essere utile per le chiamate FaceTime, in stile Jetsons.

Ma ciò che descrive Mark Gurman di Bloomberg è l’uso di una telecamera per fornire a Apple Intelligence una visione dell’ambiente circostante dell’utente. Apple sta esplorando l’idea di aggiungere telecamere e funzionalità di intelligenza visiva al suo smartwatch, spingendo l’azienda nel mercato dei wearable AI. L’idea attuale è di posizionare la telecamera all’interno del display della versione Series, come l’obiettivo frontale dell’iPhone. L’Ultra adotterà un approccio diverso, con l’obiettivo della telecamera posizionato sul lato dell’orologio vicino alla corona e al pulsante.

Questo si collega anche al precedente report sugli AirPods con telecamere. Apple sta lavorando a una nuova versione degli AirPods Pro che utilizza telecamere esterne e intelligenza artificiale per comprendere il mondo esterno e fornire informazioni all’utente. Questo sarebbe essenzialmente il percorso degli occhiali intelligenti, ma senza gli occhiali veri e propri.

La prima e più ovvia applicazione sarebbe per l’intelligenza visiva. Attualmente dobbiamo estrarre l’iPhone dalla tasca e premere a lungo il pulsante di controllo della fotocamera per “mostrare” a Apple Intelligence ciò che stiamo vedendo. Con telecamere frontali integrate negli AirPods, potrebbe in futuro essere possibile utilizzare semplicemente un comando “Hey, Siri”.

L’uso dell’Apple Watch potrebbe non essere altrettanto fluido, specialmente se la telecamera è integrata nel display, ma potrebbe comunque risultare più conveniente rispetto a un iPhone. Abbiamo assistito a lanci di hardware AI francamente ridicoli, con Jony Ive che avrebbe cercato una scommessa da un miliardo di dollari per il suo tentativo. Ma mentre l’idea di acquistare e indossare hardware specifico per l’AI è chiaramente insensata, c’è un elemento che potrebbe avere senso nei dispositivi che già indossiamo: la consapevolezza continua di dove siamo e cosa c’è nel nostro ambiente.

Non si tratta solo di attivare la telecamera quando facciamo una domanda, ma di utilizzare foto periodiche o brevi clip video per fornire a Apple Intelligence il contesto di dove siamo e cosa stiamo facendo. Ad esempio, se il mio dispositivo Apple può vedere che sto entrando nella sezione dei videogiochi del Museo della Scienza, ciò potrebbe fornire un contesto utile per comprendere le domande che probabilmente farò mentre sono lì. Sapere dove mi trovo e cosa mi circonda potrebbe rendere Siri significativamente più intelligente.

​Fonte: 9to5Mac

articolo originale

Ricevi le ultime attualità sul mondo tech!

Salvatore Macrì
Salvatore Macrìhttps://sotutto.it
Amante della tecnologia, della buona musica e della SEO, scrivo articoli per puro divertmento e per delucidare delle tematiche legate alla vita quotidiana per rendere questo mondo meno complicato. Sensibile ai temi ambientali e strenue sostenitore di una "green revolution" che nasca dal basso.
RELATED ARTICLES

Ultimi articoli