Secondo quanto riportato dal Wall Street Journal e ripreso da MacRumors, Apple si starebbe preparando a lanciare una nuova tecnologia capace di leggere segnali cerebrali e utilizzarli per controllare i suoi dispositivi. Un sistema di interfaccia cervello-computer (BCI), sviluppato con anni di ricerca e acquisizioni mirate, che potrebbe arrivare già nel 2025.
Da parte nostra, riteniamo che questa notizia non sia solo una trovata futuristica: è una naturale evoluzione del percorso che Apple ha intrapreso da anni nel campo dell’accessibilità, dell’intelligenza artificiale locale e delle interfacce invisibili. E stavolta, il futuro potrebbe davvero iniziare nella nostra mente.
Controllare l’iPhone con il pensiero: come funzionerebbe?
Il sistema BCI in fase di sviluppo consentirebbe, secondo le fonti, di:
- Interpretare segnali cerebrali (potenzialmente raccolti da sensori esterni o integrati in dispositivi come Apple Watch o Vision Pro),
- Tradurli in comandi per dispositivi iOS e macOS,
- Eseguire azioni semplici come scrivere, aprire app, muovere un cursore o impartire ordini vocali silenziosi.
Apple non starebbe partendo da zero: già nel 2021 ha acquisito la startup canadese NextMind, specializzata proprio in interfacce neurali non invasive. E negli ultimi anni, numerosi brevetti Apple si sono concentrati sulla decodifica dell’attività elettrica cerebrale e sulle gesture cognitive.
Una tecnologia pensata prima per l’accessibilità, poi per tutti?
Secondo noi, è altamente probabile che Apple introdurrà inizialmente il controllo mentale come funzione di accessibilità, per aiutare persone con mobilità ridotta a interagire con i dispositivi. Ma come è già accaduto con funzioni come il VoiceOver o AssistiveTouch, potrebbe poi estendersi a un pubblico più ampio.
La differenza con altri approcci (come Neuralink di Elon Musk) è significativa: Apple punterebbe su una tecnologia non invasiva, probabilmente integrata in wearable già esistenti.
I rischi e le domande ancora aperte
Questa tecnologia solleva inevitabilmente anche interrogativi etici e di sicurezza.
- I dati cerebrali sono estremamente personali: verranno elaborati solo on-device, come Apple fa già con il riconoscimento facciale e vocale?
- Sarà possibile distinguere tra pensiero “intenzionale” e rumore cognitivo?
- E soprattutto: quanto siamo davvero pronti a delegare al pensiero funzioni digitali?
Apple dovrà rispondere a queste domande non solo con la tecnologia, ma anche con trasparenza, regolamentazione e un solido framework di privacy.





