Come facciamo a sapere intuitivamente che possiamo camminare su un sentiero o nuotare in un lago? I ricercatori dell’Università di Amsterdam hanno scoperto attivazioni cerebrali uniche che riflettono come possiamo muovere i nostri corpi attraverso un ambiente. Lo studio non solo getta nuova luce su come funziona il cervello umano, ma mostra anche dove l’intelligenza artificiale è ancora indietro. Secondo i ricercatori, l’IA potrebbe diventare più sostenibile e amichevole per l’uomo se incorporasse questa conoscenza sul cervello umano.
Quando vediamo un’immagine di un ambiente sconosciuto, come un sentiero di montagna, una strada affollata o un fiume, sappiamo immediatamente come potremmo muoverci: camminare, pedalare, nuotare o fermarci. Sembra semplice, ma come fa il nostro cervello a determinare queste opportunità di azione?
Il dottorando Clemens Bartnik e un team di co-autori mostrano come facciamo stime delle azioni possibili grazie a schemi cerebrali unici. Il team, guidato dalla neuroscienziata computazionale Iris Groen, ha anche confrontato questa abilità umana con un gran numero di modelli di intelligenza artificiale, incluso ChatGPT. “I modelli di IA si sono rivelati meno bravi in questo e hanno ancora molto da imparare dal cervello umano efficiente,” conclude Groen.
Visione delle immagini nello scanner MRI
Utilizzando uno scanner MRI, il team ha indagato su cosa accade nel cervello quando le persone guardano varie foto di ambienti interni ed esterni. I partecipanti hanno usato un pulsante per indicare se l’immagine li invitava a camminare, pedalare, guidare, nuotare, andare in barca o arrampicarsi. Allo stesso tempo, è stata misurata la loro attività cerebrale.
“Volevamo sapere: quando guardi una scena, vedi principalmente ciò che c’è, come oggetti o colori, o vedi anche automaticamente cosa puoi fare con essa,” dice Groen. “Gli psicologi chiamano quest’ultimo ‘affordances’ — opportunità di azione; immagina una scala che puoi salire, o un campo aperto in cui puoi correre.”
Processi unici nel cervello
Il team ha scoperto che certe aree nella corteccia visiva diventano attive in un modo che non può essere spiegato dagli oggetti visibili nell’immagine. “Quello che abbiamo visto era unico,” dice Groen. “Queste aree cerebrali non solo rappresentano ciò che può essere visto, ma anche ciò che puoi fare con esso.” Il cervello lo faceva anche quando ai partecipanti non veniva data un’istruzione esplicita di azione. “Queste possibilità di azione sono quindi elaborate automaticamente,” dice Groen. “Anche se non pensi consapevolmente a cosa puoi fare in un ambiente, il tuo cervello lo registra comunque.”
La ricerca dimostra quindi per la prima volta che le affordances non sono solo un concetto psicologico, ma anche una proprietà misurabile dei nostri cervelli.
Cosa l’IA non comprende ancora
Il team ha anche confrontato quanto bene gli algoritmi di IA, come i modelli di riconoscimento delle immagini o GPT-4, possano stimare cosa puoi fare in un determinato ambiente. Erano peggiori nel prevedere le azioni possibili. “Quando addestrati specificamente per il riconoscimento delle azioni, potevano approssimare in qualche modo i giudizi umani, ma i modelli cerebrali umani non corrispondevano ai modelli interni dell’IA,” conclude Groen.
Fonte: Science Daily
Ricevi le ultime attualità sul mondo tech!