OpenAI ha recentemente presentato i suoi nuovi modelli di intelligenza artificiale, o3 e o4-mini, che introducono significative innovazioni nel campo del ragionamento complesso sulle immagini. Questi modelli sono in grado di integrare le informazioni visive nel processo di risposta, permettendo di caricare contenuti come diagrammi o schizzi, anche se sfocati o di bassa qualità. ChatGPT può quindi comprenderli e modificarli in tempo reale, ad esempio ruotando o ingrandendo particolari come parte del ragionamento.
Una delle principali novità è che, per la prima volta, i modelli di OpenAI possono “pensare” con le immagini nella loro catena di pensiero, non solo vederle. Questo rappresenta un cambiamento radicale nelle capacità di ChatGPT, rendendo o3 e o4-mini i modelli più intelligenti rilasciati finora. In particolare, o3 è progettato per affrontare interrogativi complessi che richiedono valutazioni sofisticate e sfaccettate, mentre o4-mini è una versione più compatta e ottimizzata per compiti di ragionamento rapidi e a basso costo.
Questi modelli sono già disponibili per gli utenti con un piano a pagamento ChatGPT Plus, Pro e Team, e saranno presto accessibili anche per ChatGPT Enterprise ed Edu. Gli utenti free possono testare o4-mini selezionando ‘Think’ nella schermata di composizione del prompt. OpenAI sottolinea che, nonostante le dimensioni ridotte, o4-mini ha stabilito nuovi standard di accuratezza, soprattutto in contesti come le materie tecnico-scientifiche, STEM.
Inoltre, i nuovi modelli possono utilizzare e combinare ogni strumento all’interno di ChatGPT, inclusi la ricerca web, Python, l’analisi delle immagini, l’interpretazione dei file e la generazione di immagini. Questa capacità di integrazione rende o3 e o4-mini particolarmente potenti e versatili, riflettendo l’obiettivo di OpenAI di sviluppare modelli in grado di riflettere più a fondo.
Fonte: Ansa
Ricevi le ultime attualità sul mondo tech!