sabato 1 marzo 2014

Tutti i modelli sono sbagliati, ma alcuni sono utili

fonte di ispirazione


Tutti sbagliati (> 95 su 100), a quanto pare.


anche quelli che sono comparati con quello che non rappresentano.

Ma siamo sicuri di queste incongruenze e di questa divergenza recente fra modelli di simulazione e osservazioni? E come mai alcuni (pochi) modelli ci stanno azzeccando? E, semmai, quali implicazioni suggeriscono queste incongruenze per quel che concerne l'utilità delle proiezioni sui cambiamenti climatici di origine antropica?

First of all: i modelli non sono indipendenti e non andrebbero considerati come tali, perché - un po' come le componenti mutevoli e selettive della struttura evolutiva - in un modo o nell'altro dipendono da modelli collaterali e antecedenti e sono soliti imparare.



Ora, nel merito della quest: a parte l'auspicio di voler comparare le simulazioni dei modelli con ricostruzioni più complete e realistiche, individuerei tre possibili categorie di spiegazione:

1) i modelli sottostimano la variabilità naturale interna del sistema climatico (fattore stocastico);
2) i modelli climatici non riescono (o fanno fatica) a comprendere/catturare altri processi esterni con forzatura radiativa collateralmente importante in aggiunta alla forzante antropica (fattore deterministico primo);
3) i modelli climatici attualmente in uso sopravvalutano la sensibilità del sistema climatico al forcing esterno di origine antropica (fattore deterministico secondo).

La successione di queste 3 categorie di spiegazione è inversamente proporzionale all'eccezionalità della consapevolezza della loro presenza e direttamente proporzionale all'evidenza, nel campo della attuale ricerca scientifica sul tema: molto evidente e per nulla sorprendente la prima, decisamente poco evidente e parecchio sorprendente l'ultima.

Siccome anche e soprattutto nella ricerca scientifica vale il principio secondo il quale affermazioni eccezionali richiedono prove eccezionali (leggasi anche: ipotesi nulla), comincerei a stanare le suddette incongruenze nella prima categoria dei fattori, per poi passare alla seconda e solo come ultima eventuale ratio all'ultima. Ed è, in fondo, quello che la ricerca sul tema già fa.

La prima spiegazione è semplice e plausibile. La variabilità naturale interna del clima è una conseguenza inevitabile di un sistema lento (il clima) che interagisce con un sistema veloce (il tempo).


Non è per nulla sorprendente che un sistema complesso, deterministico, altamente non lineare e stocastico come il sistema climatico possa essere in grado di produrre una variabilità generata internamente allo stesso sistema. La forzatura del sistema lento da parte delle componenti a bassa frequenza del sistema veloce produce una sorta di "moto browniano" del sistema lento, rappresentata da uno spettro di varianza rosso - in accordo qualitativo con le osservazioni.
Tuttavia, i dettagli della risposta dipendono fortemente dalle dinamiche interne del sistema lento nell'intervallo della scala temporale di interesse - nel caso specifico, su scale temporali decennali.


È noto da tempo che gli attuali modelli di simulazione climatica globale fanno parecchio fatica a simulare molti di questi processi, che vanno dalla variabilità della circolazione oceanica, agli eventi ENSO, dai vari regimi di oscillazione accoppiata oceano-atmosfera, ai cambiamenti nella copertura glaciale marina (vedi immagine seguente, figura tratta da qui).



L'evoluzione di questi modelli è intensa e l'arte di imparare dagli errori è una prescrizione imprescindibile per cui la loro utilità è anche questa. Tuttavia, finora, l'incapacità di simulare la variabilità interna, da un punto di vista statistico è stata ed è parzialmente compensata dalla messa a punto dei modelli mediante parametrizzazione su forzanti esterne prescritte come ad es. eruzioni vulcaniche e aerosol troposferici.
Questo, fra l'altro, potrebbe spiegare perché le simulazioni effettuate da diversi GCM con forcing del passato tendono ad essere molto simili e seguire da vicino il record osservato. Questa specie di "inflazione" artificiale della variabilità forzata a scapito della variabilità naturale imprevedibile ha però "potuto agire" solo nel periodo di tuning, e non più nella fase post-tuning all'incirca dall'inizio del 21esimo secolo. L'effetto netto di tale procedura potrebbe anche tradursi in una sottostima della variabilità naturale interna e in una sovrastima della risposta alla variabilità forzata.
Si veda, a titolo di esempio, queste due immagini relative alla difficoltà di catturare il trend delle SST del Pacifico tropicale orientale (asse delle x sul grafico) rispetto a quello della temperatura superficiale media globale (asse delle y sul grafico), trend osservati (cerchio rosso sul grafico, mappa a sx nella seconda immagine) vs simulati (cerchi neri, mappa a dx nella seconda immagine), tratti da questo riesame appena pubblicato:


Fyfe & Gillett 2014

Il GW di lungo periodo indotto da forzanti antropiche, come sappiamo, viene sovrapposto alla naturale variabilità a breve termine. Ne consegue che l'analisi delle tendenze per una finestra temporale inferiore a circa 20 anni risulta di difficile interpretazione. 
La stima della variabilità interna effettuata a partire da osservazioni è difficile anche e soprattutto perché misurazioni affidabili comprendono solo circa un secolo. Un'alternativa è quella di calcolarli da lunghe simulazioni di modelli climatici sotto la costante forzatura radiativa (simulazioni di controllo).


Tuttavia la seconda categoria di spiegazione dell'incongruenza fra simulazioni da parte dei modelli e osservazione non può ancora essere esclusa del tutto (e non è nemmeno detto che questi due fattori, stocastico il primo e deterministico il secondo, non possano aver agito o agire assieme): il recente possibile plateau ad alto niveau del GW potrebbe essere assegnato anche ad un forcing esterno non ancora incluso o non incluso in modo soddisfacente nei modelli contemporanei.
Le eruzioni vulcaniche e le variazioni di irraggiamento solare sono fra i candidati proposti con più frequenza, al di là del fatto che le prime non abbiano fatto registrare un significativo aumento recente (ma una intensità bassa ma più frequente c'è comunque stata, vedi anche qui, qui e qui) e che le variazioni di irraggiamento o dell' attività solare richiedano tutt'ora meccanismi di amplificazione piuttosto speculativi per poter giustificare l'eventuale contributo al recente rallentamento del GW.
Ma questo è il tema del post a puntate sul plateau.



Ma per quanti anni ancora deve ristagnare la temperatura globale (o addirittura diminuire), prima che tali fasi non possano più essere ritenute come periodi eccezionali in un contesto di GW e non si debba più continuare ad assumere un riscaldamento del clima sempre e solo sul lungo termine?
Chi si attende un numero esatto in risposta a questa domanda, si aspetta troppo, perché questo numero non esiste. È ancora una volta una questione di probabilità, con la quale possiamo escludere (o meno) una specifica ipotesi o un evento. E se sembra troppo vago, che sia di buon animo: in diverse altre aree della nostra vita di ogni giorno viviamo con tali probabilità e in maniera piuttosto buona. Pensiamo alla medicina, ad es.: gli effetti collaterali dei farmaci devono essere esclusi con una probabilità di uno a molte migliaia. O alla gestione di impianti nucleari: in questo caso un incidente estremo deve essere escluso con una probabilità molto più alta, ma non è impossibile che si verifichi. Oppure, ancora: quanti tiri di dado si devono effettuare per riuscire a convincersi che il dado è truccato? Quattro 6 di fila è una successione sospetta e nulla più, sette in serie cominciano già ad essere molto sospetti, ma non si riuscirà mai ad essere sicuri al 100% (a meno che non sia vero e lo si venga a sapere per vie traverse). L'ipotesi che il dado sia truccato diventa semplicemente più probabile ogniqualvolta esce lo stesso numero in serie. Ma potrebbe sempre essere un caso.
E con il cambiamento climatico? In questo caso, i modelli stimano che la probabilità di un raffreddamento casuale di 0.25 °C in dieci anni sia di 1 a 20. Una probabilità molto bassa, ma non nulla perché ha sempre almeno un 5% di possibilità di realizzazione. Tale raffreddamento compenserebbe ampiamente l'aumento termico di lungo periodo causato dalle attività antropiche in un decennio.



Distribuzione delle tendenze di temperatura lineare per diverse lunghezze d'epoca in tutte le simulazioni CMIP3 sotto clima costante. Per es. ci si attende che un trend di 5 anni ricada con probabilità del 50% nell'intervallo fra -0.1°C e 0.1°C. Con una probabilità del 5% il trend giace al di sopra di 0.3°C o al di sotto di -0.3°C. Anche per un periodo di 20 anni vi è una probabilità del 5% che il raffreddamento sia superiore a -0.2°C.



Quindi, per tornare alla domanda iniziale oggetto del post: e se invece comparassimo le simulazioni dei modelli con ricostruzioni più complete e realistiche? O che tengono maggiormente conto di effetti indotti dalla variabilità interna su scala decennale?

Proviamo.

Cominciamo con l'IPCC:


Qui un paio di versioni più raffinate di una comparazione che tiene conto della più recente e realistica ricostruzione dell'andamento termico, quella di Cowtan & Way (vedi anche qui e qui):

I due periodi di riferimento in questo grafico sono: 1986-2005 (grigio chiaro) e 2006-2012 (grigio scuro)

Il periodo di riferimento in questo grafico aggiornato è: 1986-2005


Qui tenendo conto di una parte importante della variabilità interna, relativa allo stato dell'oceano Pacifico e con l'associato assorbimento di energia nelle profondità oceaniche indotto dall'intensificazione degli alisei (sarà oggetto del prossimo post della serie dedicata al plateau):

Annual (grey bars) and a five-year running mean (black solid line) global surface temperaturemeasurements. Model projections are shown relative to the year 2000 and combine the CMIP3 and CMIP5 multi-model mean (red dashed line) and range (red shaded envelope). The cyan, blue and purple dashed lines and the blue shading indicate projections adjusted by the trade-wind-induced surface cooling estimated by the ocean model (OGCM), under three scenarios: the recent trend extends until 2020 before stabilizing (purple dashed line); the trend stabilizes in year 2012 (blue dashed line); and the wind trend reverses in 2012 and returns to climatological mean values by 2030 (cyan dashed line). The black, dark green and light green dashed lines are as per the above three scenarios, respectively, only using the trade-wind-induced SAT cooling derived from the full coupled model (CGCM). Shading denotes the multi-model range throughout.
  From England et al. (2014).

Ecco una comparazione che tiene conto delle distanze fra simulazione e osservazione (per T superficiali e precipitazioni) fra le ultime tre generazioni di modelli CMIP (vedi anche qui, qui o qui):


e una comparazione delle proiezioni termiche globali fra CMIP3 e CMIP5:


I progressi ci sono ma ovviamente permangono le incertezze (vedi dopo) e anzi: lo spread, nell'ultima generazione di modelli, aumenta.

Spesso l'aggregazione di più modelli permette di ottenere proiezioni più robuste in diverse tipologie di simulazione, persino per taluni eventi estremi:




Come corollario finale di questa vetrina, ecco un Hansen di buona annata :-D




Insomma: non si pretende dai modelli la perfezione, ma l'utilità di alcuni / di molti è sinonimo di potenzialità di miglioramento di molti / di gran parte di essi.
In questo senso, appare più che mai urgente ribadire la distinzione - in questo specifico ambito - fra incertezza e variabilità.
La prima è una misura di una variazione non spiegata e può essere parzialmente causata sia da errori di misurazione e sia da una mancanza di comprensione su cause e effetti di un fenomeno.
Ma le proiezioni sul cambiamento climatico e le misure da adottare per la sua mitigazione non portano con sé soltanto incertezze nell'intensità delle risposte, bensì contengono anche - come si sa e come già detto - una significativa porzione di variabilità naturale nello spazio e nel tempo che non necessariamente si assottiglierà con il progresso scientifico, anzi.

Lehmann & Rillig 2014 (sopra), Wilby and Dessal 2010 (sotto a sx), Hawkins 2014 (sotto a dx)

Qui uno schema che esemplifica questo processo di scenari climatici "a cascata" per quel che riguarda l'applicazione delle proiezioni su scala regionale usata nel rapporto sugli scenari climatici futuri in Svizzera:


e la panoramica della catena di modelli globali (GCM) e regionali (RCM) usata nel progetto ENSEMBLE utilizzato per il suddetto lavoro:



Ci sono tre principali fonti di incertezza nelle proiezioni del clima: quelle causate dalle emissioni future (incertezza dello scenario, verde), quelle causate dalla variabilità interna del clima (arancione) e quelle dovute alle differenze fra i vari modelli (blu). La variabilità interna è pressoché costante nel tempo, e le altre incertezze crescono con il tempo, ma a velocità diverse.
Vediamo due modalità di rappresentazione di questa informazione per le proiezioni di temperatura: la prima è il classico modus di rappresentazione grafica "a pennacchio", la seconda come una frazione della varianza totale (fonte dei grafici: IPCC, AR5, WG1, cap. 11)


Vediamo, per curiosità e comparazione, due applicazioni stagionali/regionali del secondo tipo di rappresentazione grafica per temperature e precipitazioni invernali in Europa:


Modelli che "girano" con un'alta sensibilità al forcing antropico danno un output assai diverso rispetto per es. a quelli impostati in modo da tener conto di una più bassa sensibilità oppure a quelli impostati in modo da tener maggiormente conto - nel limite del possibile - della variabilità interna. Questo lo si può vedere, ad es., persino nella rappresentazione di scenari climatici relativi al mutamento del ciclo annuo della distribuzione delle temperature e delle precipitazioni, vedi ad es. la figura qui sotto presa dal rapporto sugli scenari climatici futuri in Svizzera e relativa alla località di Lugano come esempio di regione elvetica sudalpina, con target temporale al 2085 rispetto al periodo di riferimento 1980-2009. Vediamo per es. come il modello tarato su una sensibilità alta (l'HadCM3Q16 del MetOffice) mostri grandi variazioni inter-e persino intra-stagionali con picchi amplificati sia di temperatura (quasi sempre al di sopra del range di incertezza in banda grigia, che rappresenta il margine probabilistico del cambiamento dei due parametri meteorici nella distribuzione del ciclo annuo) che di precipitazioni. Per questo, negli scenari medi, questo modello è poi stato escluso. Vediamo anche come il modello che soppesa maggiormente la variabilità interna (il danese BCM) mostri invece la minor variazione soprattutto termica e risulti essere lungo quasi tutto l'anno al di sotto della banda grigia.




Risolvere le differenze fra i modelli potrebbe ridurre l'incertezza in modo significativo, ma c'è ancora una grande incertezza irriducibile causata proprio dalla variabilità del clima nel breve termine e, in particolare per la temperatura, dai futuri scenari delle emissioni a lungo termine.

Update 10/4: ecco conclusioni e questioni ancora aperte a proposito di quel che si è imparato dall'ultima generazione di modelli climatici (presentazione di Reto Knutti al recente meeting "15th Swiss Global Change Day - Meeting Report" a cui ho avuto occasione e piacere di partecipare lo scorso 2 aprile a Berna):




Nessun commento:

Posta un commento