Mentre la WWDC si avvicina, i ricercatori di Apple mettono in discussione le affermazioni secondo cui l’intelligenza artificiale sarebbe capace di ragionamento. Sebbene alcune aziende promuovano modelli di IA recenti in grado di ragionare passo dopo passo, un nuovo studio di Apple sottolinea che queste affermazioni potrebbero essere fuorvianti. Secondo i loro test, questi modelli non riescono a risolvere sfide logiche semplici, come il famoso puzzle della Torre di Hanoi. Scopri di più su questo puzzle.
I modelli noti come “Large Reasoning Models” (LRMs) sono progettati per spingere l’IA a formulare un percorso di pensiero mostrando le fasi delle sue conclusioni. Tuttavia, Apple suggerisce che questo approccio rappresenta solo un’ “illusione di pensiero”.
Il professor Gary Marcus, esperto in psicologia e scienza neuronale, aggiunge che fare affidamento su questi modelli per raggiungere un’intelligenza generale artificiale (o AGI) capace di trasformare la società è un errore. Invita a esplorare altre strade oltre i reti neuronali attuali per sperare di arrivare a una vera intelligenza artificiale autonoma.
Fonte: AppSystem
Ricevi le ultime attualità sul mondo tech!