- 1 Cosa ha annunciato davvero NVIDIA (e dove)
- 2 Medium Range: la sfida diretta alle previsioni fino a 15 giorni
- 3 Nowcasting: quando il meteo è “adesso” e non domani
- 4 Data assimilation: la parte noiosa che però “mangia” metà del lavoro
- 5 Velocità, costi e un tema sottovalutato: “sovranità”
- 6 Considerazioni finali
Negli Stati Uniti, in queste ore, una grossa tempesta invernale sta mettendo in crisi la solita routine: apri l’app meteo, guardi la previsione, poi apri un’altra app… e trovi numeri diversi, spesso lontani tra loro. È il tipo di scenario che ti ricorda quanto la meteorologia, anche nel 2026, resti una scienza difficile da “impacchettare” in una notifica.
In mezzo a questo caos, NVIDIA ha scelto un timing quasi perfetto per presentare la sua nuova famiglia di modelli AI per il meteo, parte del progetto Earth-2. E qui la notizia non è solo “una big tech fa un modello”. È un salto di ambizione: NVIDIA parla di strumenti aperti, più veloci, e con performance che — almeno sulla carta — mettono pressione anche ai nomi grossi già in campo.
Cosa ha annunciato davvero NVIDIA (e dove)
Il pacchetto è stato presentato il 26 gennaio 2026 durante l’American Meteorological Society meeting a Houston. Dentro Earth-2 arrivano tre tasselli nuovi: Earth-2 Medium Range, Earth-2 Nowcasting e Global Data Assimilation (quest’ultimo indicato come in arrivo).
L’idea è coprire l’intera filiera: partire dai dati osservativi, costruire lo “stato iniziale” dell’atmosfera, produrre previsioni a medio raggio e fare anche previsioni rapidissime (quelle che ti interessano quando una cella temporalesca sta arrivando).
Medium Range: la sfida diretta alle previsioni fino a 15 giorni
Il pezzo più “headline-friendly” è Earth-2 Medium Range, basato su una nuova architettura chiamata Atlas. NVIDIA sostiene che questo modello batta GenCast di Google DeepMind su oltre 70 variabili in benchmark specifici, mantenendo l’obiettivo delle previsioni fino a 15 giorni.
Qui vale la pena fermarsi un secondo: il meteo a 10–15 giorni è sempre stato terreno scivoloso, perché l’incertezza cresce in modo brutale. Il fatto che le big tech stiano spingendo su modelli probabilistici e “ensemble” non è un vezzo nerd: è un tentativo serio di gestire quell’incertezza in modo più utile.
Nowcasting: quando il meteo è “adesso” e non domani
Nowcasting significa 0–6 ore. In pratica: grandine, pioggia intensa, neve, raffiche, cioè roba che ti cambia la giornata (o ti mette in pericolo) mentre stai ancora decidendo se uscire. NVIDIA dice che il suo modello è addestrato direttamente su osservazioni satellitari geostazionarie, così da poter essere adattato in molte aree del mondo con buona copertura.
E c’è un punto che mi intriga: se davvero un modello del genere può essere eseguito rapidamente su GPU, diventa più accessibile anche a chi non ha budget da supercomputer.
Data assimilation: la parte noiosa che però “mangia” metà del lavoro
Se ti sei mai chiesto perché i centri meteo hanno bisogno di supercomputer, una risposta sta qui. La data assimilation è la fase in cui prendi dati da stazioni, palloni sonda, satelliti, radar… e li trasformi in una fotografia coerente dell’atmosfera da cui far partire i modelli. NVIDIA sostiene che questa parte possa passare da ore su supercomputer a minuti (o addirittura secondi) su GPU.
Non è la sezione più sexy, ma è quella che può cambiare davvero i costi e la frequenza con cui aggiorni le previsioni.
Velocità, costi e un tema sottovalutato: “sovranità”
NVIDIA sta spingendo parecchio sul concetto di stack aperto e su strumenti che permettano a enti pubblici e aziende di costruire sistemi meteo “in casa”, senza dipendere per forza da un servizio esterno.
Reuters aggiunge un caso d’uso molto pragmatico: l’assicurativo, dove avere ensemble giganteschi (anche da 10.000 membri) serve per stimare eventi estremi rari senza tempi di calcolo proibitivi.
A me questa parte dice una cosa: il meteo sta diventando sempre più un’infrastruttura digitale strategica. Non solo “che tempo fa”, ma rischio economico, logistica, energia, sicurezza.
Considerazioni finali
Mi piace l’ambizione, ma non mi faccio prendere dall’hype facile. Le dichiarazioni “batte X” hanno senso solo se diventano risultati ripetibili e verificabili fuori dai benchmark. Detto questo, il trend è chiarissimo: la meteorologia sta entrando nella fase in cui AI e fisica non si escludono, si rincorrono.
E se davvero strumenti più veloci e aperti permettono a più Paesi (e non solo ai soliti) di migliorare le previsioni locali, allora non è solo una guerra tra colossi: è un potenziale salto di resilienza collettiva. Io ci vedo una delle applicazioni più concrete dell’AI “utile”, quella che non fa scena ma sposta la realtà.





