Ottimizzazione dei modelli di intelligenza artificiale: un approccio innovativo
I modelli di intelligenza artificiale basati su reti neurali, utilizzati in applicazioni come l’elaborazione di immagini mediche e il riconoscimento vocale, eseguono operazioni su strutture dati estremamente complesse che richiedono un’enorme quantità di calcoli. Questo è uno dei motivi per cui i modelli di deep learning consumano così tanta energia. Per migliorare l’efficienza di questi modelli, i ricercatori del MIT hanno creato un sistema automatizzato che consente agli sviluppatori di algoritmi di deep learning di sfruttare contemporaneamente due tipi di ridondanza dei dati. Questo approccio riduce la quantità di calcoli, larghezza di banda e memoria necessari per le operazioni di machine learning.
Riduzione dei calcoli nei modelli di deep learning
Nei modelli di machine learning, i dati sono spesso rappresentati e manipolati come array multidimensionali noti come tensori. Un tensore è simile a una matrice, che è un array rettangolare di valori disposti su due assi, righe e colonne. Tuttavia, a differenza di una matrice bidimensionale, un tensore può avere molte dimensioni, o assi, rendendo i tensori più difficili da manipolare. I modelli di deep learning eseguono operazioni sui tensori utilizzando ripetute moltiplicazioni e addizioni di matrici: questo processo è il modo in cui le reti neurali apprendono modelli complessi nei dati. Il volume di calcoli che deve essere eseguito su queste strutture dati multidimensionali richiede un’enorme quantità di calcoli ed energia.
Un sistema innovativo per sfruttare la ridondanza dei dati
Le tecniche esistenti per ottimizzare gli algoritmi possono essere ingombranti e in genere consentono agli sviluppatori di sfruttare solo la sparsità o la simmetria, due diversi tipi di ridondanza che esistono nelle strutture dati del deep learning. Grazie al sistema sviluppato dai ricercatori del MIT, un programmatore può costruire un algoritmo da zero che sfrutta entrambe le ridondanze contemporaneamente, aumentando la velocità dei calcoli fino a 30 volte in alcuni esperimenti. Poiché il sistema utilizza un linguaggio di programmazione intuitivo, potrebbe ottimizzare gli algoritmi di machine learning per una vasta gamma di applicazioni. Inoltre, potrebbe aiutare gli scienziati che non sono esperti in deep learning ma desiderano migliorare l’efficienza degli algoritmi di intelligenza artificiale che utilizzano per elaborare i dati.
Applicazioni e vantaggi del nuovo sistema
Il sistema potrebbe avere applicazioni anche nel calcolo scientifico. “Per molto tempo, catturare queste ridondanze dei dati ha richiesto un grande sforzo di implementazione. Invece, uno scienziato può dire al nostro sistema cosa vorrebbe calcolare in modo più astratto, senza dover specificare esattamente come calcolarlo”, afferma Willow Ahrens, postdoc del MIT e co-autrice di un articolo sul sistema, che sarà presentato all’International Symposium on Code Generation and Optimization. Questo approccio innovativo non solo semplifica il processo di ottimizzazione, ma apre anche nuove possibilità per migliorare l’efficienza dei modelli di intelligenza artificiale in vari campi.
Ricevi le ultime attualità sul mondo tech!