METEO

METEO

Le previsioni del tempo meteorologico possono dividersi in 4 rami fondamentali, i quali hanno una fisionomia consolidata dalla pratica operativa dei vari Servizi nazionali ed internazionali anche se non possiedono ancora una definizione riconosciuta ufficialmente dall’Organizzazione Meteorologica Mondiale (OMM/WMO).

 Questi 4 rami sono:

 .previsioni a brevissima scadenza (fino a 12-18 ore), più note con il termine inglese di nowcasting;

 .previsioni a breve scadenza (oltre le 12- 18 ore e fino a 48 ore);

 .previsioni a media scadenza ( da 48 ore fino a circa 10 giorni);

 .previsioni a lunga scadenza (oltre i 10 giorni e fino ad un mese od una stagione).

 Si affaccia peraltro all’orizzonte dei vari Servizi anche la opportunità di previsioni climatiche, di previsioni, cioè, riguardanti la probabile evoluzione del clima in periodi futuri dell’ordine di uno o più anni. Come si sarà notato la classificazione precedente è fatta in base ad un ordine crescente di scadenza. L’evoluzione storica è però diversa in quanto le previsioni meteorologiche hanno tratto le loro origini da quelle che oggi si definiscono a breve scadenza; è perciò da queste che inizieremo questa trattazione, prima con alcuni cenni storici, poi con l’evoluzione delle varie Scuole che si sono via via affermate.

L’intuizione di R. Fitz-Roy

Il primo scienziato ad intuire in qualche modo i meccanismi di formazione di alcuni sistemi meteorologici, oggi ormai familiari a tutti coloro che seguono anche solo distrattamente i mass-media, fu R. Fitz-Roy il quale neI suo “Weather book”, edito a Londra nel 1863, scrive testualmente: “I vortici ciclonici alle nostre latitudini si formano nelle zone di interazione fra masse d’aria aventi differenti proprietà, le quali masse si originano rispettivamente nelle zone polari ed in quelle sub-tropicali”. Questa idea, di fondamentale importanza, ebbe tuttavia poco seguito poichè i commerci coloniali allora imperanti imponevano una maggiore attenzione verso i fenomeni delle basse latitudini (che oggi sappiamo collegati a sistemi assai diversi da quelli delle medie ed alte latitudini); pertanto gli sforzi maggiori venivano prodigati nei tentativi, peraltro infruttuosi, di adattare alle regioni temperate le conoscenze acquisite per quelle tropicali. Questo stato di cose perdurò praticamente fino alla Prima Guerra Mondiale, nonostante illuminanti quanto frammentarie scoperte quali la formulazione di una “teoria dinamica” riguardante lo sviluppo di cicloni ed anticicloni (Hann, 1876) in contrasto con quella “convettiva” di chiara origine tropicale, l’azione esercitata sulle correnti d’aria dalla forza di Coriolis (FerreI e Teisseranc De Bort, 1889), l’andamento della diminuzione della temperatura con la quota e la possibile esistenza della Stratosfera (Assman e Teisseranc De Bort, 1900- 1902), ed altre. Fu però la Prima Guerra Mondiale che portò alla nascita della prima vera Scuola di Meteorologia moderna, al seguito di una moltiplicazione rapida del numero delle stazioni meteo, di un incremento nella regolarità e nella qualità delle osservazioni nonchè di un veloce sviluppo delle telecomunicazioni.

 

 La Scuola Norvegese non disponeva però di dati sufficienti per una descrizione iniziale completa (soprattutto, erano carenti quelli in quota), nè ancora degli strumenti di matematica applicata adatti ad un tale problema,nè, tanto meno, di mezzi di calcolo veloci ed affidabili. Accadde così che il modello usato da quella Scuola fu di tipo concettuale e soggettivo, sostanzialmente basato sull’esperienza personale e sull’estrapolazione dei sistemi e dei fenomeni ad essi associati. Il modello venne chiamato anche modello del fronte polare poichè fu principalmente applicato ai fronti di avanzata di aria di origine polare. E se da un lato un tale modo di procedere rese possibile cogliere alcuni significativi successi prognostici per le Nazioni affacciate sull’Atlantico, dall’altro si rivelò spesso fallace in regioni più tormentate, come il Mediterraneo, dove la complessa orografia, interagendo in maniera molto marcata con i sistemi meteorologici, ne modifica sostanzialmente la struttura e il movimento.

L’esperimento di L.F Richardson

Nel 1922, e quindi in periodo di pieno sviluppo della Scuola Norvegese, fu però anche tentata una previsione dinamica, una previsione basata, cioè, sulla elaborazione di un modello fisico-matematico. Tale modello era costituito da un’applicazione all’atmosfera della teoria fluidodinamica e cioè delle tre equazioni scalari del moto, dell’equazione di continuità (la quale stabilisce che ogni variazione di massa in una data regione deve essere bilanciata dal passaggio di materia attraverso i confini della regione stessa), dell’equazione di conservazione dell’acqua nelle sue varie fasi (anche tenendo conto delle sorgenti positive o negative), del primo principio della termodinamica e della classica equazione di stato dei gas opportunamente adattata all’atmosfera. Ora, la forma di queste equazioni è tale che la derivata temporale di ciascuna variabile può essere espressa mediante le derivate nello spazio delle variabili stesse. Poichè è possibile misurare la distribuzione spaziale delle grandezze meteorologiche ad ogni istante, è di conseguenza possibile determinare anche la loro rapidità di variazione. Ciò costituisce evidentemente una previsione di uno stato su un intervallo molto piccolo di tempo; considerando questo stato previsto come un nuovo stato iniziale e iterando il procedimento si può, alla fine, ottenere una previsione su di un intervallo di tempo finito. Inoltre, sostituendo tutte le derivate nel sistema di equazioni dato con i rispettivi rapporti incrementali, alle differenze finite, è possibile ridurre un sistema di equazioni differenziali, che non può essere risolto direttamente, ad un sistema di equazioni algebriche, la cui soluzione può invece essere sempre ottenuta. Tenendo conto di tutti questi elementi L.F. Richardson effettuò una previsione di 24 ore sulla regione europea svolgendo tutti i calcoli a mano ed impiegando circa un anno. Purtroppo i risultati dell’esperimento furono disastrosi. Fra l’altro furono previste variazioni di pressione da lO a 100 volte superiori a quelle effettivamente osservate, perturbazioni che si muovevano a velocità eccessiva, talora sonica, e in direzioni sbagliate e altri errori minori. Di conseguenza l’ indirizzo di Richardson venne completamente abbandonato per più di 20 anni senza nemmeno cercare di stabilire le cause dell’ insuccesso.

La teoria dello sviluppo baroclino di R.Sutcliffe

Fino alla fine degli anni ’30 continuò così a dominare la Meteorologia della Scuola Norvegese che ricevette un notevole perfezionamento essenzialmente ad opera dell’inglese R.Sutcliffe, il quale mise a punto la cosiddetta teoria dello sviluppo baroclino. Questa teoria riesce a collegare l’evoluzione dei campi dinamici e termici in quota a quelli al suolo dimostrando che questi ultimi dipendono fortemente dai primi. Approfittando del miglioramento, peraltro modesto, della rete di osservazione dei parametri meteo in quota, Sutcliffe mise in evidenza che la formazione di un vortice ciconico negli strati bassi dipende essenzialmente da un’ instabilità su grande scala che si verifica in determinate e ricorrenti condizioni nelle configurazioni dei sistemi in quota. Tale instabilità è collegata principalmente ai gradienti termici (ed è per questo denominata instabilità baroclina) e produce nel ramo orientale della saccatura di un’onda in quota, un’ampia zona di divergenza di massa; al di sotto di tale zona, per compensazione, vi è dunque una regione di moti verticali ascendenti ed un’ altra di convergenza negli strati prossimi al suolo. In questi ultimi strati, per effetto della forza di Coriolis, l’aria penetra nella zona di convergenza con movimento antiorario a spirale creando così un vortice ciclonico; inoltre lo stesso processo produce un’ondulazione sul fronte di avanzata dell’ aria fredda, cioè sul fronte freddo, determinando, in una prima fase, la formazione del sistema frontale costituito da fronte freddo e fronte caldo e successivamente lo sviluppo del sistema maturo fronte freddo-fronte caldo-fronte occluso. In aggiunta a questo Sutcliffe mise chiaramente in evidenza che i sistemi in quota hanno una funzione di guida per quelli prossimi al suolo. Le conclusioni di questa teoria fornirono un poderoso strumento di miglioramento prognostico; infatti nella meteorologia della Scuola Norvegese, basata quasi esclusivamente sui dati di osservazione prossimi al suolo, l’innesco dell’ondulazione del fronte freddo, primo passo per la formazione di un sistema frontale, come pure il parallelo inizio dello sviluppo di un vortice ciclonico, si consideravano dovuti ad un impulso grilletto, cioè ad un’instabilità a scala locale di carattere più o meno casuale e pertanto difficilmente prevedibile. L’instabilità baroclina, invece, per l’ampia scala su cui si manifesta e per la maggiore regolarità dell’evoluzione dei sistemi in quota rispetto a quelli al suolo, è molto più facilmente prevedibile.

La Scuola di Chicago

Doveva essere un’altra guerra, la Seconda Guerra Mondiale, a dare un nuovo potente impulso alla meteorologia in genere ed alle previsioni operative in particolare. Il massiccio impiego dell’aviazione e le dimensioni più che emisferiche del teatro delle operazioni belliche portarono allo sviluppo di una rete di stazioni a maglie molto più strette di quella prima esistente e soprattutto a un fortissimo e decisivo aumento del numero dei radiosondaggi, cioè delle osservazioni in quota. E se proverbiale rimane l’abilità dei previsori inglesi nello sfruttare ai fini bellici l’evoluzione dei sistemi di tempo, si può dire che, nel campo della Meteorologia e più in generale della Fisica dell’Atmosfera, la Seconda Guerra Mondiale lasciò un’eredità positiva. In particolare, forte del grande miglioramento della rete di osservazioni, un gruppo di meteorologi scandinavi, fra i quali primeggiano S. Petterssen ed E. Palmen, operante presso l’Università di Chicago, sottopose a revisione tutto il campo delle conoscenze acquisite fino ad allora. Fu così largamente confermata, e successivamente ampliata e perfezionata, la teoria dello sviluppo baroclino che divenne nel periodo fra la fine della guerra e gli anni 70 il più importante e preciso strumento a disposizione dei previsori sinottici del tempo a breve scadenza. Molti elementi della teoria della Scuola Norvegese furono rivisti, corretti ed amplificati. In particolare si riconobbe che i concetti di linea frontale e di superficie frontale dovevano essere sostituiti da quelli di banda frontale, nel senso che i fronti non hanno, come essenzialmente ritenuto fino ad allora, una sola dimensione, cioè quella longitudinale, bensì due dimensioni: una longitudinale e una trasversale. In tali dimensioni i fenomeni si sviluppano e sono distribuiti su due scale di moto diverse; la scala sinottica (dell’ordine del migliaio di chilometri) per la dimensione maggiore e la mesoscala dell’ordine del centinaio di chilometri) per la minore. Ed a proposito di scale di moto, l’individuazione di numerosi sistemi di tempo non etichettabili nell’ambito della Scuola Norvegese portò anche alla messa a punto di un nuovo importante strumento diagnostico e prognostico:l’analisi di scala. Infatti un quadro sinottico di una situazione meteorologica coinvolge sistemi aventi dimensioni spazio-temporali diverse, o meglio, come si usa dire, scale diverse: da quella locale a quella delle onde planetarie. Scale che lavorano in intervalli temporali diversi, su estensioni territoriali diverse, con contenuti energetici diversi, ma tutte presenti contemporaneamente in un’intrigata sequenza di interazioni. Ebbene, cercare di individuare e di separare, almeno a fini euristici, le varie scale significa cominciare a capire quali sistemi avranno più importanza nell’ambito della scadenza in cui ha validità una determinata previsione. Il gruppo di Chicago catalogò poi in maniera esemplare le correnti a getto, quelle correnti velocissime (fino a oltre 500 chilometri orari) che si sviluppano in determinate zone della troposfera e della stratosfera. Di queste correnti fu riconosciuta la dinamica di formazione e di evoluzione, la loro posizione rispetto agli altri sistemi e la loro estrema importanza nell’evoluzione dinamica delle situazioni meteorologiche. Insomma, il quadro delle conquiste e dei miglioramenti apportati dal gruppo di quella Università è così vasto ed importante che si può parlare (anche se non vi è alcun riconoscimento ufficiale) di Scuola di Chicago. Fra l’altro sul testo di S. Petterssen “Weather Analysis and Forecasting” e su quello di E. Palmen e C. Newton “Atmospheric Circulation Systems”, si sono formati, almeno nella fase iniziale della loro carriera, migliaia di meteorologi in tutto il mondo. Su linee simili si mosse in Europa il gruppo di Berlino guidato da R. Scherhag.

Il moderno approccio dinamico per le previsioni del tempo

Nella seconda metà degli anni ’40, inoltre, diversi fattori resero possibile un riacostamento all’indirizzo della soluzione numerica di modelli dinamici dell’atmosfera, all’indirizzo, cioè, che più di 20 anni prima aveva portato al fallito esperimento di Richardson. In primo luogo il grande sviluppo dei Servizi  Meteorologici conseguente la Seconda Guerra Mondiale, e quindi il parallelo sviluppo di una rete internazionale di osservazioni con relativa ampia disponibilità di dati, fece capire che le equazioni di un modello dinamico potevano essere semplificate e opportunamente trattate con piccola perdita del loro contenuto fisico, almeno per moti di grande scala. In secondo, ma non meno importante luogo, la disponibilità, dei primi elaboratori elettronici permise di ridurre drasticamente i tempi di calcolo rendendoli vicini a quelli necessari per la realtà operativa. In terzo luogo, dai tempi di Richardson la matematica applicata aveva fatto notevoli passi in avanti, soprattutto a partire dal 1928 e soprattutto ad opera di Courant, Lewy e Friedericks. Fu per questi vari fattori che si cominciarono a capire le ragioni dell’insuccesso di Richardson, corrette le quali si aprì la strada al moderno approccio dinamico per le previsioni del tempo. Ma si badi bene, quello che in questo ambito producono gli elaboratori elettronici sono campi dinamici previsti e non previsioni di parametri meteorologici come la pioggia, l’umidità ecc. ecc.. Fino agli inizi degli anni 80 la previsione finita, quella cioè dei parametri meteo suddetti, veniva ancora esclusivamente affidata ai previsori sinottici che, soggettivamente, interpretavano i campi previsti dagli elaboratori.

I motivi dell’insuccesso di Richardson

Vari gruppi di fisici dell’atmosfera, ed in particolare quello guidato da J. Charney misero dunque in evidenza che Richardson fallì per i seguenti motivi:

 . una buona previsione dinamica si basa su una buona analisi iniziale dello stato dell’atmosfera, la quale buona analisi si basa su una grande massa di dati di osservazione di cui Richardson non poteva disporre;

 . l’ atmosfera, vista a grande scala, è sempre vicina a uno stato di equilibrio dinamico, l’equilibrio geostrofico; è questa una condizione in cui approssimativamente si bilanciano la forza di gradiente (dovuta alla differenza di pressione) e quella deviante, o di Coriolis, (dovuta alla rotazione terrestre). Ma anche questo si scoprì quando si ebbe un’ampia disponibilità di dati, soprattutto di quelli in quota;

 . in un procedimento di integrazione iterativa, quale quello ideato da Richardson, l’incremento di tempo (dt) sul quale si fa ogni passo di previsione deve essere più piccolo del tempo che occorre ad una determinata onda, di velocità di fase c, per compiere la distanza (dx) fra due punti della griglia utilizzata nelle operazioni alle differenze finite; si deve cioè avere dt<dx/c. Senza applicare questa condizione (scoperta anni dopo l’esperienza di Richardson) non si eliminano dai procedimenti le onde veloci (ad esempio quelle sonore di nessun interesse) che portano a una forte instabilità di calcolo ed a soluzioni finali fortemente errate.

 Successivi perfezionamenti delle tecniche matematiche e l’aumento della potenza e della velocità degli elaboratori elettronici portarono, negli anni ’60 e ‘70, a forti miglioramenti nella previsione a breve scadenza dei campi dinamici e di conseguenza pure dei parametri meteorologici come pioggia, umidità, temperatura, ecc., anche se le previsioni dei suddetti parametri rimasero sempre soggettive e prevalentemente qualitative. Si deve però tenere presente che sebbene i modelli numerici costituiscano una strada più praticabile e conducente a soluzioni più precise di quelle collegate ai precedenti e più tradizionali modelli concettuali, le equazioni relative furono adattate e calibrate in modo da interpretare la maggiore quantità possibile degli elementi di Fisica dell’ Atmosfera acquisiti dalle Scuole Norvegese e di Chicago. Inoltre, e ancora di più, alle conoscenze raggiunte dalle due Scuole si rivolsero ampiamente i meteorologi previsori nel tradurre i campi previsti dagli elaboratori in termini di previsioni del tempo utilizzabili dai vari utenti.

I primi tentativi di previsioni numeriche a media e lunga scadenza

Intanto, a cominciare dalla fine degli anni ’50, la vita moderna, sempre più impostata su attività pianificate e organizzate a medio e lungo termine, aveva fatto insorgere una pressante richiesta di previsioni a lunga scadenza, di previsioni cioè di ampiezza mensile, stagionale e in genere superiore a 7-10 giorni. Fin dall’inizio fu chiaro che tali previsioni non potevano essere basate sui metodi dinamico-numerici usati per quelle a breve scadenza; infatti, a quei tempi, le previsioni condotte con l’integrazione numerica delle equazioni fondamentali cominciavano a divenire inattendibili al di là dei 2 giorni di scadenza. Ci fu, dunque, in varie parti del mondo, un fiorire di tecniche e metodi empirico-statistici con i quali furono fatti i primi tentativi di previsioni, appunto, a scadenza prolungata. Fra questi possono essere menzionati i metodi basati sulla periodicità o la ricorrenza di determinati eventi atmosferici (metodi incoraggiati dalla scoperta di una periodicità quasi-biennale in alcuni fenomeni inerenti la circolazione a grande scala), quelli fondati sui possibili andamenti di alcuni parametri meteorologici e sulle loro fluttuazioni intorno a tali trend, altri ancora facenti capo alla Climatologia ed alle sue singolarità salienti, altri, infine a carattere più empirico basati sull’andamento dei decorsi stagionali e sull’esperienza personale. Fra i vari metodi vale la pena di soffermarci un pò su quello, usatissimo, delle analogie.

Il metodo delle analogie

L’esperienza quotidiana dei meteorologi previsori dimostra infatti che i tipi di circolazione a scala sinottica o superiore che si possono presentare su di una data regione, come per esempio quella euroatlantica, in realtà non sono poi moltissimi; inoltre un determinato tipo tende, con una certa frequenza, a trasformarsi in un altro e altrettanto ben determinato tipo. Ed anche se la catena di trasformazioni non è sempre la stessa e tende nel tempo a spezzarsi poiche l’atmosfera è un sistema essenzialmente turbolento e quindi basato più sulla variabilità che sulla persistenza, si verifica talora che una certa configurazione delle correnti conduca con maggiore frequenza ad altre configurazioni da individuare e prevedere in analogia con quanto accaduto nel passato, anche in un passato remoto. Per esemplificare, se un sistema di alta pressione in quota, formatosi nella seconda metà di ottobre sulla regione mediterranea, in 7 casi su lO nel passato si è trasformato in correnti da sud-ovest nella prima quindicina di novembre, è ragionevole pensare che esista un’alta probabilità che l’evento si possa ripetere in futuro anche se non esiste nessun fondamento fisico conosciuto per avallare una tale conclusione.

Le anomalie climatiche dei primi anni ’70

Per cercare di unificare alcune tecniche e di mettere ordine in questa materia così complessa e variegata l’ Organizzazione Meteorologica Mondiale cominciò ad organizzare incontri e piani di studio a partire dal 1965. In queste attività si è impegnato e distinto in particolare il meteorologo americano J. Namias. I contatti si infittirono dopo le impreviste ed allora imprevedibili anomalie a scala mondiale degli anni ’72 e ’73 che portarono il Pianeta sull’orlo del collasso alimentare per le bassissime rese nelle produzioni di cereali sia alle basse latitudini (India, Sahel, ecc.) che nei granai mondiali di USA, Canada e, dell’allora Unione Sovietica. Emersero in quegli anni alcuni fatti interessanti. Intanto che le previsioni a lunga scadenza avevano un certo successo in alcune zone del Pianeta e molto meno in altre; in secondo luogo che bisognava esaminare a fondo il problema della prevedibilità dell’atmosfera, e cioè fino a che punto, per quale massimo intervallo di tempo è intrinsecamente prevedibile il comportamento di un fluido complesso e turbolento come l’atmosfera terrestre. Quest’ultima, inoltre, non costituisce nemmeno un sistema chiuso essendo, nel lungo termine, influenzabile da attività solare, eruzioni vulcaniche, variazione delle correnti marine ecc.. In altri termini ci si pose la seguente domanda: anche disponendo di mezzi di calcolo infinitamente potenti, di modelli dinamici infinitamente precisi, di una rete mondiale di osservazioni meteorologiche del tutto adeguata e ben distribuita, fino a quale scadenza ci si potrebbe spingere nel prevedere l’evoluzione futura dell’atmosfera a scala globale? Una risposta precisa non è ancora arrivata e tuttora la questione, peraltro vitale per gli sviluppi futuri, è materia di contendere, anche se comincia a delinearsi una certa convergenza per una scadenza compresa fra l5 e 30 giorni.

L’esordio dei primi supercentri di calcolo

Comunque, nella seconda metà degli anni 70, visto che le previsioni a lunga scadenza preparate con i metodi tradizionali di cui si è parlato non davano nel complesso risultati soddisfacenti e visto il grande sviluppo della Meteorologia numerica soprattutto collegato all’incipiente funzionamento di alcuni supercentri di elaborazione fra i quali spicca l’European Centre for Medium Range Weather Forecast (ECMWF), si cominciò a pensare di poter allungare di molto le scadenze delle previsioni numeriche, che allora erano divenute attendibili fino a 5-7 giorni. La prima cosa che bisognava fare era quella di capire quanto precisa avrebbe dovuto essere l’analisi di partenza, ovvero quali caratteristiche avrebbe dovuto avere la rete mondiale di osservazioni. Fu questo  uno degli obiettivi del GARP (Global Atmosphere Research Programme). I risultati in questo senso furono sintetizzati nell’importante convegno tenuto a cura dell’Organizzazione Meteorologica Mondiale a Princeton nel dicembre 1982. Le conclusioni, purtroppo, non furono ottimistiche: si stimò che una rete osservazionale adatta per una buona analisi di partenza atta ad ottenere con metodi numerici previsioni di 15- 30 giorni aventi la stessa attendibilità di quelle a media scadenza (cioè fino a circa 7- 10 giorni) sarebbe stata disponibile presumibilmente nei primissimi anni del 2000. Fino a quel momento  bisognava ancora affidarsi alle tecniche tradizionali non numeriche. Di conseguenza per verificare i progressi fatti in tutti i campi, sia in quelli tradizionali che in quelli della modellistica numerica orientata verso la lunga scadenza, l’OMM cominciò ad organizzare convegni a ritmo biennale a partire dal 1983; il primo di tali convegni si tenne al College Park in USA.  Frattanto, però, sulla scena di questo tipo di previsioni si era affacciata una nuova metodologia, quella delle teleconnessioni.

Le previsioni a lunga scadenza e le teleconnessioni

La migliorata conoscenza della Circolazione Generale dell’ Atmosfera e del Sistema Climatico mondiale aveva infatti messo in luce che anomalie imponenti che si verificano in determinate zone del globo possono influenzare la circolazione globale in modo tale da generare, dopo molto tempo (anche mesi) altri fenomeni ben individuabili in regioni del globo distanti perfino molte migliaia di chilometri da quella dell’anomalia iniziale. Inoltre cominciarono ad assumere grande importanza gli scambi oceani-atmosfera, come pure quelli superfici ghiacciate-atmosfera, poichè nel lungo termine influenzano in maniera importante la circolazione atmosferica globale. Queste ed altre tecniche si sono affiancate in questi ultimi tempi ai metodi più tradizionali e già sperimentati nel campo delle previsioni a lunga scadenza, le quali peraltro, rimangono ancora da un lato di incerta attendibilità e dall’ altro campo di accaniti studi e ricerche dato l’enorme impatto positivo che un loro sostanziale miglioramento avrebbe su moltissime attività umane a cominciare da quella fondamentale: l’ Agricoltura.

Annunci