Nonostante le loro capacità impressionanti, i grandi modelli linguistici (LLM) spesso non riescono a eccellere quando vengono assegnati nuovi compiti impegnativi che richiedono capacità di ragionamento complesse. Ad esempio, un LLM sviluppato per un’azienda contabile potrebbe essere eccezionale nel riassumere rapporti finanziari, ma potrebbe fallire inaspettatamente se incaricato di prevedere le tendenze del mercato o identificare transazioni fraudolente.
Adattabilità dei modelli linguistici
Per migliorare l’adattabilità degli LLM, i ricercatori del MIT hanno esplorato una tecnica di addestramento innovativa. Questa tecnica mira a potenziare le prestazioni di un modello su problemi difficili e sconosciuti. In particolare, l’addestramento in tempo di prova, che comporta l’aggiornamento temporaneo di alcuni meccanismi interni di un modello durante la distribuzione, ha dimostrato di migliorare la precisione fino a sei volte.
Implementazione della strategia di formazione
I ricercatori hanno sviluppato un quadro per implementare una strategia di formazione in tempo di prova che utilizza esempi del nuovo compito per massimizzare i guadagni di prestazione. Questo approccio potrebbe migliorare la flessibilità di un modello, consentendo a un LLM standard di adattarsi a compiti complessi che richiedono pianificazione o astrazione.
Applicazioni pratiche
Questa innovazione potrebbe portare a LLM più accurati in molte applicazioni che richiedono deduzione logica, dalla diagnostica medica alla gestione della catena di approvvigionamento. “L’apprendimento autentico – quello che abbiamo fatto qui con l’addestramento in tempo di prova – è qualcosa che questi modelli non possono fare da soli dopo essere stati spediti. Non possono acquisire nuove abilità o migliorare un compito. Ma abbiamo dimostrato che se si spinge un po’ il modello a fare l’apprendimento reale, si vedono enormi miglioramenti nelle prestazioni”, afferma Ekin Akyürek PhD ’25, autore principale dello studio.
Collaborazione e contributi
Akyürek è stato affiancato nello studio da Mehul Damani, Linlu Qiu, Han Guo e Jyothish Pari; Adam Zweiger; e Yoon Kim, assistente professore di ingegneria elettrica e informatica (EECS) e membro del Computer Science and Artificial Intelligence Laboratory (CSAIL); e Jacob Andreas, professore associato di EECS e membro di CSAIL.
Fonte: MIT
foto credit: Credit: Jose-Luis Olivares, MIT; iStock





