|
|
|
|
.: Giovedì 12 dicembre 2024
|
|
|
|
Simone Zanardini, MeteoBresciaNetwork |
|
Con piacere, ospitiamo sul nostro sito questa interessante intervista realizzata da Simone Zanardini di MeteoBresciaNetwork, nella quale si approfondisce un argomento complesso, come quello delle proiezioni modellistiche con l’aiuto di Silvio Davolio, ricercatore presso l’Istituto di Scienze dell'Atmosfera e del Clima ISAC-CNR di Bologna. Per ottenere una previsione del tempo è necessario risolvere le equazioni matematiche che descrivono i processi fisici in atmosfera. Si tratta, quindi, delle equazioni del moto, della termodinamica, di continuità della massa e della conservazione dell’umidità. Un modello numerico meteorologico è lo strumento matematico che permette di trovare una soluzione a questo complesso sistema di equazioni (equazioni differenziali alle derivate parziali), fornendo una rappresentazione schematica e semplificata della realtà fisica dell’atmosfera. In termini strettamente pratici altro non è che un lungo e complesso codice di programmazione. Richiede dei dati in ingresso e fornisce dati in uscita che opportunamente trattati con programmi di grafica “si trasformano” nelle carte meteorologiche che ogni giorno guardiamo.
- Quali passi ha fatto la modellistica in questi anni, trattando solo i progressi dei modelli a scala globale senza considerazione alcuna dei Modelli ad Area Limitata (LAM) ?
I modelli sono in continuo sviluppo e miglioramento. Per quanto riguarda la modellistica a scala globale penso che ci siano stati due principali avanzamenti. Il primo riguarda l’aumento della risoluzione (orizzontale ma anche verticale) dei modelli globali. Grazie a risorse di calcolo sempre maggiori, si è infatti arrivati a girare modelli globali a risoluzioni di 25 km, che solo qualche anno fa erano prerogativa dei modelli ad area limitata. Mi riferisco in questo caso al modello del ECMWF. Il secondo punto riguarda invece le tecniche di assimilazione dati che permettono di ottenere la condizione iniziale da cui parte l’integrazione numerica, cioè la previsione del modello, utilizzando opportunamente tutte le osservazioni disponibili. Considerando che un numero sempre crescente di dati è disponibile grazie a nuovi strumenti di misura, specie da piattaforma satellitare, l’utilizzo corretto ed efficiente di tali dati non può prescindere dall’implementazione di sofisticati algoritmi matematici. Questo è un punto assai importante nella previsione meteorologica, in quanto piccoli errori nella condizione iniziale possono evolvere rapidamente in errori notevoli, rendendo pessima la previsione. Infine sono quanto meno da citare tutti i miglioramenti derivanti dall’implementazione di schemi numerici nuovi e più sofisticati che descrivono alcuni processi fisici, quali ad esempio la convezione, la microfisica delle nubi, la turbolenza, l’interazione con il suolo e la vegetazione, ecc.
- Mediamente, ad oggi, una previsione elaborata sulla base di modelli globali fino a che periodo temporale è discretamente attendibile?
Non si può dare una risposta univoca a questa domanda. Penso che per una persona che non conosce la meteorologia, la previsione meteorologica abbia una bassissima attendibilità, poiché ci si aspetta di sapere esattamente a che ora piova nel proprio quartiere. In generale, l’attendibilità di una previsione con un modello, globale o ad area limitata, dipende da cosa si vuole vedere (quale variabile), su che area e con che precisione temporale. Per quanto riguarda i modelli globali, i test di performance vengono solitamente fatti considerando il campo di geopotenziale nella media troposfera (500 hPa), in quanto lo scopo principale di tali modelli è quello di fornire una valida descrizione dei moti a scala sinottica. Per questi campi si parla di un’attendibilità della previsione che in media arriva fino a 7 giorni. Ma attenzione. Si stanno considerando degli scores matematici (quali ad esempio “l’anomaly correlation”) che valutano il comportamento medio del modello sull‘intero globo o sull’emisfero e la cui soglia di attendibilità non coincide con una previsione perfetta. Questi scores hanno avuto il grande merito di aver messo in luce il fatto che una previsione a 7 giorni fatta ora ha la stessa attendibilità di una previsione a 5 giorni fatta 25 anni fa. Si sono quindi guadagnati 2 giorni di previsione. La risposta alla domanda è ben diversa se si considera in modo meno matematico e più pratico l’attendibilità della previsione, specie se siamo interessati al campo di pioggia. Infatti la precipitazione non è una delle variabili prognostiche del modello, ma è il risultato di una serie di complessi processi dinamici e microfisici, la cui evoluzione è descritta attraverso i campi prognostici. Di conseguenza si vanno a sommare diverse fonti di errore con il risultato che la previsione di precipitazione ha un’attendibilità che difficilmente supera le 48-72 ore. Ma l’altra questione importante è la precisione con cui si vuole la previsione. Non possiamo chiedere ad un modello globale di dire se piove a Milano ma non a Monza. Insomma, bisogna anche un po’ interpretare le uscite dei modelli.
- In prospettiva futura diventerà più importante la velocità di elaborazione dati con nuove tecnologie (computer con velocità di calcolo più elevate) oppure rimarrà sempre fondamentale la scarsità di rilevazioni in alcune zone della terra?
Lo sviluppo dei modelli è sempre andato di pari passo con l’aumento della potenza di calcolo. Al giorno d’oggi poi, sia le tecniche di ensemble che quelle di assimilazione dati richiedono potenze di calcolo davvero impressionanti, quindi l’aspetto informatico è e resterà cruciale. La scarsità di dati in alcune zone della terra è sicuramente un fattore limitante, in quanto non permette un’accurata definizione della condizione iniziale. Recentemente, la massiccia copertura dei satelliti ha reso meno critica la mancanza di dati in vaste aree del globo. Inoltre, non è sempre detto che un errore nella condizione iniziale in una certa area, evolva rapidamente vanificando la previsione. Senza addentrarsi nella teoria dei sistemi dinamici, diciamo che anche questo aspetto ha una grossa importanza, ma al pari di altri aspetti legati ad esempio alla modellistica, agli schemi numerici ecc. Quindi mentre le nuove tecnologie di calcolo rappresentano sempre un vincolo, la mancanza di dati in alcune aree può non avere sempre gli stessi effetti negativi.
- Parliamo dei modelli ad area limitata, il CNR ha sviluppato il modello BOLAM qualche anno fa con risultati eccellenti al nord. Questo modello ha ancora margine per eventuali miglioramenti?
Il BOLAM è stato sviluppato a partire dai primi anni ’90 ed è tuttora mantenuto aggiornato presso l’ISAC. Il fatto che sia un modello idrostatico ne impedisce l’utilizzo a risoluzione orizzontale superiore ai 6 km (oltre la quale perde di validità l’approssimazione idrostatica) e ciò limita molto il miglioramento della previsione. I margini di miglioramento sono quindi ridotti, ma assolutamente non trascurabili, e si ottengono attraverso l’implementazione di schemi di parametrizzazione dei processi fisici (esempio convezione) più aggiornati o attraverso l’introduzione schemi numerici più precisi. Il BOLAM resta comunque un importante strumento sia previsionale che di ricerca e ha il grosso pregio di essere un modello molto “leggero” in termini di tempo di calcolo pur fornendo ottimi risultati. - Ci può spiegare brevemente il progetto MAP D-PHASE?
Il MAP (Mesoscale Alpine Programme) è stato un importante progetto di ricerca volto a comprendere e modellare i processi fisici che regolano i fenomeni meteorologici intensi indotti dall’orografia, dalla precipitazioni, al föhn, alle onde di gravità ecc. Ha avuto il culmine nell’autunno del 1999 con una impressionante campagna di misure sull’area alpina. Il MAP D-PHASE (D-PHASE sta per Demonstration of Probabilistic Hydrological and Atmospheric Simulation of flood Events in the Alpine region) raccoglie l’eredità del MAP ed è volto a dimostrare le potenzialità, in termini di previsione di eventi alluvionali in aree ad orografia complessa come le Alpi, di una moderna catena modellistica meteorologica ed idrologica ad alta risoluzione. Tale catena non è strettamente limitata alla parte modellistica, ma include anche gli utenti finali, quindi previsori e decisori a differenti livelli, quali autorità di bacino, protezione civile e così via. In pratica, nel periodo di 6 mesi da giugno a novembre 2007 sono stati fatti quotidianamente girare numerosi modelli ad alta risoluzione sull’area alpina, attraverso i quali sono state emesse eventuali allerte meteorologiche. Un’anticipazione: nel prossimo numero di Nimbus, rivista della SMI, uscirà un lungo articolo riguardante MAP e MAP D-PHASE.
- Abbiamo visto che il CNR ha elaborato nell’ambito del progetto D-PHASE un nuovo modello chiamato MOLOCH. Quali pregi ha rispetto al “vecchio” BOLAM?
Il MOLOCH è stato sviluppato diversi anni fa. Il D-PHASE ha rappresentato una valida occasione per testare ulteriormente il modello e per utilizzarlo nell’ambito di previsioni operative. Il principale pregio del MOLOCH è quello di essere un modello non-idrostatico, quindi utilizzabile ad alta risoluzione. Attualmente viene girato con un passo di griglia attorno ai 2 km. L’alta risoluzione permette di risolvere esplicitamente i moti convettivi profondi, ovvero di descriverli direttamente attraverso le equazioni del modello senza dover ricorrere a schemi di parametrizzazione che sono sempre un po’ grossolani. Inoltre c’è una lunga serie di vantaggi dovuti all’alta risoluzione come ad esempio la descrizione più precisa dell’orografia e dei fenomeni ad essa associati. Inizialmente il MOLOCH condivideva con il BOLAM diversi schemi numerici della fisica che poi con il tempo sono stati adattati, migliorati o cambiati. Attualmente i due modelli condividono pochi aspetti, anche se spesso esiste una forte sinergia, nel senso che miglioramenti negli schemi numerici del MOLOCH vengono in cascata applicati anche al BOLAM.
- Questo nuovo modello quindi ha margini di miglioramento?
Come dicevo è un progetto che ha già diversi anni, ma rappresentando quanto di più avanzato si può avere nella previsione deterministica, ha ampi margini di sviluppo e miglioramento. L’aumento della risoluzione impone descrizioni sempre più dettagliate dei processi fisici. Quindi se si vuole andare a risoluzioni dell’ordine del km o meno, di lavoro ce ne è da fare.
- Il modello BOLAM ad alta risoluzione per il Nord Italia era stato creato anche per simulare al meglio alcune situazioni climatiche che potevano venire a crearsi in una zona di difficile lettura tra cui i venti di caduta e lo stau alpino. Il MOLOCH a parte il fatto che sia un modello non idrostatico, in quali ambiti risulta superiore alle possibilità del modello BOLAM?
Come hanno dimostrato numerosi studi, ad esempio in ambito MAP, i modelli non idrostatici ad alta risoluzione sono sistematicamente migliori dei LAM idrostatici. Nei casi di precipitazione intensa sono in grado di simulare molto meglio i picchi di pioggia e localizzarli con maggiore precisione. In termini di previsione di precipitazione un grande vantaggio del MOLOCH sta nel fatto che la convezione è risolta esplicitamente. Mi spiego. Nei LAM come il BOLAM, si è evidenziato un sistematico errore nella localizzazione della precipitazione che viene spesso soppressa o sottostimata sottovento. Ciò risulta essere una conseguenza del fatto che i processi di convezione profonda, responsabili della maggior parte della precipitazione prodotta dal modello, sono descritti da schemi di parametrizzazione i quali rilasciano la pioggia nella posizione stessa in cui è presente l'instabilità, senza quindi tenere conto del possibile trasporto delle celle convettive dovuto alle correnti. Trasporto che è invece automaticamente descritto dai modelli non idrostatici quali il MOLOCH. Inoltre, il dettaglio con cui viene descritta l’orografia grazie all’alta risoluzione del MOLOCH, permette un miglioramento della descrizione di tutti i fenomeni di interazione con l’orografia stessa.
- Tutti i vostri modelli ad area limitata sono inizializzati con i dati provenienti dal centro di Reading (modello ECMWF). Questa è una scelta “politica collaborativa” di qualità oppure semplicemente una scelta forzata?
Inizio con il precisare che solo recentemente abbiamo iniziato l’attività di previsione operativa, per altro limitata all’ambito di alcuni progetti internazionali quali il MAP D-PHASE. Normalmente presso l’ISAC si svolge solo attività di ricerca volta allo sviluppo dei modelli e allo studio di processi fisici e dinamici dell’atmosfera attraverso l’impiego dei modelli stessi. Per quanto riguarda questa attività di ricerca, che si limita allo studio di eventi passati o altro, si utilizzano dati ECMWF, il cui accesso è garantito gratuitamente a tutti gli enti di ricerca che ne facciano richiesta. Ma per quanto riguarda l’attività operativa di previsione meteorologica, i nostri modelli sono generalmente inizializzati con i dati del modello globale americano GFS, in quanto tali dati sono liberamente fruibili. I dati del ECMWF ci vengono al momento forniti esclusivamente nell’ambito del progetto D-PHASE, attraverso l’Aeronautica Militare, ma normalmente non sono accessibili. L’esperienza ha mostrato una leggera superiorità delle previsioni ottenute a partire dal modello ECMWF, quindi sarebbe preferibile continuare ad utilizzare tali dati.
- Cosa ne pensa degli altri modelli ad area limitata attualmente disponibili per la simulazione del tempo meteorologico?
Penso che ci siano diversi modelli assai validi in circolazione. Per citarne alcuni: il WRF, modello della comunità scientifica americana e che quindi gode di un supporto notevole; il Meso-NH francese utilizzato solo a scopi di ricerca e l’AROME, sempre francese, utilizzato operativamente anche durante il DPHASE. La potenzialità di avere numerosi modelli sviluppati indipendentemente è data dalla possibilità di generare previsioni di ensemble attraverso la tecnica del “multi-model”. In pratica si girano diversi modelli a partire dalla stessa analisi iniziale per ottenere un ensemble di previsioni. Così come l’ensemble tradizionale, generato a partire da differenti condizioni iniziali, permette di tener conto dell’errore contenuto nella condizione iniziale stessa, il multi-model ensemble permette di considerare l’incertezza intrinseca nel modello meteorologico.
- Ultimamente il progresso tecnologico ottenuto con i personal computer ha permesso lo sviluppo su internet di nuovi modelli su scala limitata da parte di centri meteo locali con utilizzo del modello libero e plasmabile personalmente WRF del NCEP. Trova dispersiva questa novità della troppa offerta oppure pensa possa servire per migliorare la previsione degli eventi meteorologici?
L’esistenza e l’utilizzo di più modelli per la previsione meteorologica è assolutamente un fatto positivo. La tecnica del multi-model ensemble si basa proprio sull’utilizzo di più modelli, sviluppati indipendentemente, per generare una previsione probabilistica che tenga conto statisticamente dell’errore dei modelli (allo stesso modo in cui l’ensemble tradizionale tiene conto dell’errore nelle analisi). Per quanto riguarda l’implementazione di modelli su diversi siti internet, primo fra tutti il WRF il cui codice è liberamente distribuito, resto un po’ perplesso. Mi complimento certamente con chi fa girare un modello perché non è comunque una procedura tecnicamente semplice. Però non è una mera questione tecnica ed informatica e personalmente mi sono imbattuto più volte in modelli fatti girare in maniera scriteriata, probabilmente a causa dell’inesperienza. Mi riferisco a scelte di aree, risoluzioni o altro che non seguivano alcune basilari regole necessarie per far girare in modo corretto un modello meteorologico.
- Crede che il progressivo sviluppo di modelli ad area limitata finiscano per soppiantare la figura del meteorologo?
Assolutamente no. Ritengo la figura del meteorologo insostituibile per la previsione del tempo. L’esperienza di un professionista è fondamentale al fine di leggere ed interpretare le uscite, talvolta anche discordanti, dei vari modelli disponibili. Il meteorologo deve poi conoscere molto bene la regione su cui emette il bollettino. C’è chi dice che l’accuratezza della previsione cala con la distanza dall’abitazione del meteorologo! - Una domanda sul Global Warming, come è la situazione attualmente in Italia secondo i dati a vostra disposizione?
Non mi occupo direttamente di queste questioni, anche se mi interessano certamente, quindi non entro nel merito, ma vi rimando, se volete, a colleghi più preparati. Posso però dire che l’anno meteorologico 2007 (che quindi va da dicembre 2006 a novembre 2007) è stato il terzo nella classifica degli anni più caldi ed è assai vicino, in termini di anomalia termica, al 2003, di cui ricordiamo bene la torrida estate. Come dicevo, potete trovare molte informazioni qui: http://www.isac.cnr.it/~climstor/climate_news.html
- Ho notato che l'area che ha suscitato il maggior interesse da parte Vostra, come CNR, sull'analisi e ricostruzione dei fenomeni atmosferici è quella alpina. Vi è in Italia un'altra zona che abbia un tale interesse specifico oppure una difficoltà ricostruzione simile?
L’interesse verso le Alpi è dovuto sia all’influenza che le stesse esercitano dal punto di vista meteorologico sull’intero bacino del Mediterraneo nel quale viviamo, sia dalla passione per la meteorologia di montagna. Recentemente, nell’ambito di un progetto europeo, ci stiamo interessando delle regioni meridionali e presto faremo un periodo di previsione operativa, come per il MAP D-PHASE per intenderci, ma su un’area comprendente Puglia, Calabria e Sicilia. Per quanto riguarda le difficoltà, tutto il territorio italiano rappresenta una sfida in termini di previsioni. La presenza di orografia complessa a ridosso del mare rende il nostro paese davvero unico dal punto di vista meteorologico.
- Ultima domanda quasi personale. Essendo della pianura padana ho notato che solo pochi modelli abbozzano una proiezione per simulare la presenza di nebbie e con risultati spesso poco precisi… E' cosi complessa la loro previsione? Parlo ovviamente delle nebbie da irraggiamento.
Sì, la previsione della nebbia è assai complessa. La nebbia si genera sotto opportune condizioni di umidità, temperatura e vento (quindi turbolenza) in prossimità del suolo. I modelli lavorano su livelli verticali e il livello più basso spesso si trova a decine di metri di quota. Le variabili meteorologiche in prossimità del suolo (ad esempio temperatura a 2 metri o vento a 10 metri) sono ottenute attraverso interpolazioni, le quali facilmente introducono errori che, per quanto piccoli in termini assoluti, possono essere assai rilevanti nel delicato equilibrio che porta alla formazione della nebbia. Inoltre nella formazione della nebbia gioca un ruolo importante la presenza di particolato atmosferico che agisce come nucleo di condensazione favorendo la formazione di goccioline. Questo aspetto non è presente nei modelli. Direi che nella previsione della nebbia, il previsore può esprimere un valore aggiunto rilevante.
Concludo segnalando, non per farmi pubblicità, ma in quanto penso che possano interessare chi vuole approfondire aspetti di modellistica, una serie di articoli divulgativi che ho scritto per il Meteogiornale: http://www.meteogiornale.it/news/archive.php?type=author&id=Silvio+Davolio
|
|
|
|
|