L’ITALIA È UN PAESE IN VIA DI DESERTIFICAZIONE: BUFALA!
Catello Masullo
Puntualmente, quando ci si trova di fronte ad un anno con scarse piogge parte la campagna mediatica secondo la quale l’Italia sarebbe un paese in via di desertificazione. Si tratta di una bufala! In Italia, infatti, piovono dal cielo, mediamente, qualche anno un po’ di più, qualche anno, come quello corrente, un po’ in meno in meno (accade in media ogni 11 o 12 anni, il periodo delle macchie solari), 350 miliardi di m3 di acqua, di cui ne vengono utilizzati tra il 10 ed il 15%, quindi tra l’85 ed il 90% di questa montagna d’acqua viene persa in mare, oppure in infiltrazione o in evaporazione. Ergo, per evitare ogni emergenza idrica, basterebbe adottare lo spirito del buon padre di famiglia, cioè mettere da parte le risorse quando sono abbondanti, per usarle quando sono scarse. Con accumulo di acqua. Invasi. Anche con le tanto vituperate “dighe”. Che non servono solo a conservare l’acqua per i tempi magri, ma anche ad evitare le tante vittime e danni da alluvioni. Per trattenere cioè le violente piene dei fiumi, eliminandole o attenuandole.
Per fare questo occorre visione politica, occorre studiare, programmare, progettare, eseguire. Un esercizio difficile e faticoso. Che comporta assunzioni di responsabilità. È certamente più facile scaricare tutto sui “cambiamenti climatici”. Causa di ogni male. E formidabile strumento di deresponsabilizzazione e di giustificazione per la inazione politica.
I Cambiamenti climatici sono assunti oramai come “verità” assoluta e indiscutibile. Dato che li sponsorizza la famosa agenzia della Nazioni Unite IPCC (International Panel on Climate Change). Lo stesso IPCC che asseriva (vaneggiava?) nel 1977 che se non si fosse fatto qualcosa per ridurre il riscaldamento climatico entro 10 anni, avremmo avuto un innalzamento dei mari di sei metri (sigh!). Nel 1985, otto anni dopo, questa previsione di innalzamento era stata ridotta a 1.5 metri. Nel 1990 a 0.3 metri (30 centimetri). Nel 1995 a 0.2 metri (20 centimetri). Ulteriori previsioni, non pervenute! Una azienda privata che avesse un proprio ufficio studi che sbaglia così clamorosamente le proprie previsioni, lo licenzierebbe in tronco. Invece le Nazioni Unite continuano a dare all’IPCC sempre più soldi. Dalle nostre tasche (doppio sigh!).
Ma non tutti gli scienziati sono allineati con l’IPCC. Franco Prodi, noto e stimato climatologo di fama mondiale, ha affermato che con i dati a disposizione, data la complessità ed il numero molto elevato di variabili che influiscono sul clima, non è possibile oggi affermare con certezza se stiamo andando verso un riscaldamento globale, oppure verso un raffreddamento della terra.
Vi inviterei ad approfondire, leggendo una ragionata rassegna degli studi scientifici in proposito, scritta da Roberto Vacca e che si incolla di seguito in appendice.
Da cui estraggo alcuni passaggi: il titolo è “Riscaldamento globale, effetto serra, clima futuro: analisi critica”, firmato da Roberto Vacca, di cui nei decenni ho imparato ad apprezzare l’onestà intellettuale, la libertà di pensiero ed il rigore scientifico.
[Nell’articolo si specifica che: “Roberto Vacca non è un climatologo, ma un ingegnere sistemista che ha cercato di capire chi abbia ragione fra tanti esperti in disaccordo”]
“…le variazioni della temperatura sono determinate da regolarità della posizione e del moto della terra. Sono esse, quindi, a causare le variazioni della % di CO2 nell’atmosfera e non viceversa. Non è l’aumentato effetto serra che produce il riscaldamento globale, ma è l’innalzamento di temperatura che fa crescere la percentuale di CO2 e questa POI contribuisce a sua volta all’aumento di temperatura…”
Conclude, dopo una approfondita disamina delle varie tesi contrapposte, con riferimento alle tesi degli scienziati che prevedono catastrofi climatiche, osservando che si tratta di “affermazioni (che, ndr.) suonano avventate, anche se espresse da un noto esperto. Io ritengo che dovremmo essere modesti e stare attenti a non accettare certezze gratuite. Certo l’immaginazione va coltivata: è alla base del progresso e dell’invenzione scientifica e fornisce i concetti che sono alla base di ogni modello mentale o matematico. Ricordiamo, però, che i modelli matematici, anche se ci impressionano mentre girano velocemente sui computer, devono essere usati con prudenza. Prima di essere validati, non danno certezza alcuna. In questo settore della climatologia a lungo termine finora non abbiamo validazioni. Nessun modello ha previsto accuratamente eventi futuri con decenni di anticipo. Ricordiamo sempre la frase di Galileo Galilei:
“Ciò che l’esperienza e i sensi ne dimostrano devesi anteporre a ogni discorso ancorché ne paresse assai fondato.”
APPENDICE :
Riscaldamento globale, effetto serra, clima futuro: analisi critica (versione aggiornata di articolo su M!ND, Settembre 2005) di Roberto VACCA, Scienza e Tecnica, SIPS Gennaio 2008.
[Roberto Vacca non è un climatologo, ma un ingegnere sistemista che ha cercato di capire chi abbia ragione fra tanti esperti in disaccordo]
La percentuale di anidride carbonica (CO2) nell’atmosfera cresce. Nel 1958 era di 315 ppm (parti per milione), cioè in totale 670 Gt (miliardi di tonnellate) di carbonio; nel 2004 era 377 ppm (798 Gt). Da circa 30 anni sentiamo ripetere ovunque:
“Questa crescita intensifica l’effetto serra e fa salire la temperatura dell’atmosfera in modo preoccupante.”
Il processo viene chiamato riscaldamento globale – global warming.
Alcuni scienziati (fra cui J.E. Hansen, NASA, D.A. Lashhof, Environment Protection Agency USA (EPA) dicono che la temperatura dell’atmosfera crescerà di 4 o 5°C nei prossimi 50 anni. Quindi si scioglierebbero grandi masse di ghiaccio in Antartide e in Groenlandia tanto da far salire il livello dei mari che nell’ultimo secolo sarebbe cresciuto di 10 centimetri. La tesi è che l’aumento del CO2 nell’aria è causato dall’uso dei combustibili fossili (carbone, petrolio, metano). Se non limitiamo drasticamente queste emissioni – dicono – il processo si accentuerà. Fra un secolo il livello dei mari si sarà innalzato di qualche metro: le città costiere andranno sott’acqua. John T. Hardy (Climate Change, Wiley, 2003) riporta il parere di esperti secondo i quali l’imminente innalzamento di 1 metro del livello del mare inonderebbe decine di migliaia di km2 nelle zone costiere e forzerebbe la migrazione di milioni di persone in USA, in Europa, in Asia, in Africa.
Questi punti di vista sono considerati ormai una verità ufficiale. Li incorpora il Protocollo firmato a Kyoto nel 1997 dai governi di 150 Paesi. Questi, tutti insieme, producono circa il 60% dell’anidride carbonica immessa nell’atmosfera. L’obiettivo è diminuire le emissioni di CO2 fino a tornare nel 2012 a un livello del 7% inferiore a quello del 1990. Il Protocollo di Kyoto è stato ratificato anche dalla Russia, ma non dagli USA che lo ritengono dannoso allo sviluppo della loro economia. Infatti, per applicarlo dovrebbero adottare misure intese ad aumentare i rendimenti, diminuire i consumi energetici, passare a tecnologie diverse e a fonti rinnovabili di energia. Sostengono che se applicassero le regole di Kyoto, creerebbero 5 milioni di disoccupati e subirebbero perdite economiche fino a 62 G$ al 2010 e fino a 102 G$ al 2020. Non sono cifre enormi: circa l’1% del PIL americano, ma ugualmente le considerano inaccettabili.
* * *
E’ strano che queste teorie siano state accettate così largamente, dato che solo il 15% dell’effetto serra dipende dal CO2 (predomina nettamente l’effetto del vapore acqueo e anche il metano ha un effetto sensibile). L’argomento è critico: esiste davvero un rischio grave? I pareri sono divisi. I catastrofisti e i loro oppositori (secondo i quali le attività antropiche non influiscono quasi affatto sul clima globale) si affrontano sui giornali, in TV, in acri dibattiti pubblici. Firmano a migliaia appelli e manifesti e pubblicano commenti venefici sostenendo che i firmatari dei documenti degli avversari sono pochi e poco qualificati. Cominciamo col rileggere la storia delle teorie sull’argomento e analizziamo, poi, i numeri, le risultanze empiriche e le teorie.
La storia dell’effetto serra e del clima terrestre è piena di intuizioni brillanti e anche di calcoli sbagliati – e di calcoli giusti. Curiosamente una previsione errata fu avanzata da John von Neumann, il famoso matematico di origine ungherese, davanti al quale Dennis Gabor (il fisico che vinse il Premio Nobel per aver inventato l’olografia) raccontava di essersi sentito come lo scemo del villaggio. Von Neumann, oltre ad aver elaborato teorie e fatto scoperte notevoli definì la struttura dei primi computer: quello costruito all’Università di Princeton si chiamava JOHNNIAC in suo onore. Von Neumann elaborò anche la teoria dei modelli climatici chiamati, poi, GCM o General Circulation Models. In questi modelli l’intera atmosfera viene suddivisa in decine di migliaia di celle elementari. Si calcolano le influenze meccaniche e termodinamiche fra le celle, mirando a prevedere ogni futuro evento meteorologico. L’approccio è interessante e serve a prevedere il tempo atmosferico con vari giorni di anticipo. I modelli sono inadeguati a formulare previsioni a lungo termine e von Neumann sostenne nel 1955 che l’insuccesso dipendeva dalla scarsa velocità dei computer del tempo. Vaticinò che per il 1980 la velocità dei computer sarebbe stata tanto alta da permettere previsioni a mesi o forse anni di distanza. Non andò così. Ora i computer sono molti milioni di volte più veloci di quanto lui prevedeva, ma il clima futuro non si riesce a calcolare: dipende da un numero eccessivo di fattori in modi ancora non chiariti. I calcoli giusti servono a illustrare quali siano i punti di vista più ragionevoli in merito alle variazioni del clima passate e future. I processi coinvolti sono tanto complessi che le certezze raggiunte sono scarse e le questioni opinabili.
Il fisico e matematico francese Fourier formulò per primo la teoria fisico-matematica della trasmissione del calore e scoprì le serie matematiche (note con il suo nome) indispensabili per analizzare ogni tipo di fenomeni periodici (e anche le variazioni del clima come vedremo più oltre). Nel 1824 fu anche il primo a capire che l’atmosfera produce un effetto serra sul nostro pianeta: l’energia irradiata dalla Terra verso lo spazio è minore di quella ricevuta dalla radiazione solare (che ha una lunghezza d’onda minore). Se non ci fosse l’atmosfera, non ci sarebbe effetto serra e la temperatura media della superficie terrestre sarebbe di 33°C più bassa di quella attuale (che è di 15°C) cioè di -18°C (18 gradi sotto zero).
Dalla metà del secolo XIX si affermò sempre più chiaramente l’idea che molti millenni fa la Terra aveva attraversato ere glaciali. Gli studiosi che la svilupparono erano K. Schimper (il primo a parlare di Eiszeit = era glaciale), lo svizzero L. Agassiz, lo scozzese J. Croll. Nessuno, però, era in grado di stimare la durata, nè la successione di queste presunte ere.
Nel 1896 il chimico svedese (premio Nobel) Svante Arrhenius sostenne che l’uso continuato del carbone come combustibile avrebbe raddoppiato nei prossimi tre millenni la quantità di CO2 nell’atmosfera, accentuando l’effetto serra e producendo un aumento di 5°C della temperatura media dell’aria. Arrhenius non disponeva, però, di misure attendibili delle temperature antiche, nè di serie storiche del tasso di CO2 presente nell’atmosfera.
Gli astronomi, intanto, avevano misurato con precisione le caratteristiche geometriche del moto della Terra. Già nel 1842 il matematico francese Alphonse Adhemar aveva sostenuto che le ere glaciali fossero causate da variazioni nell’orbita terrestre. L’idea fu ripresa dall’ingegnere (e astronomo) serbo Milutin Milankovitch che dal 1912 al 1940 calcolò accuratamente (a mano!) gli effetti sull’energia solare irradiata sulla terra di tre ordini di fenomeni:
- la variazione dell’eccentricità dell’orbita ellittica della Terra con periodo di 100.000 anni
- la variazione dell’inclinazione dell’asse terrestre (tra 22° e 25°) con periodo di 40.000 anni
- la precessione degli equinozi che ha un periodo di 22.000 anni
La figura precedente riporta i diagrammi dei 3 tipi di fenomeni citati con i loro periodi di 100.000, 40.000 e 22.000 anni. Il quarto diagramma da sinistra mostra l’effetto cumulativo sull’entità della radiazione ricevuta dalla terra. Milankovitch asserì che le variazioni corrispondenti sono la causa delle ere glaciali verificatesi negli ultimi 800.000 anni.
La teoria destò notevole interesse, ma fu poi criticata in base alla considerazione che non dava conto in modo adeguato delle risultanze climatiche relative ai due emisferi terrestri.
L’astronomo inglese Sir Fred Hoyle avanzò una teoria alternativa attribuendo la causa delle ere glaciali all’impatto di grossi meteoriti di pietra che causavano l’inizio di un’era glaciale per il polverone sollevato – tale da oscurare il sole per una decina di anni. La diminuzione della temperatura avrebbe causato il congelamento dell’umidità dell’aria a formare piccolissimi aghetti di ghiaccio (detti “polvere di diamante”) che avrebbero poi riflettuto la radiazione solare tenendo bassa la temperatura per millenni. La fine del freddo sarebbe stata causata dall’impatto di un grosso meteorite metallico cui conseguiva la presenza di particelle metalliche che assorbendo la radiazione solare e avendo un basso calore specifico, facevano sciogliere la polvere di diamante. Si innalzava la temperatura dell’aria e cominciava un’era interglaciale.
La tesi di Hoyle fu abbandonata, mentre a partire dagli anni Settanta trovò ampia conferma la teoria di Milankovitch basata sulle variazioni dell’orbita terrestre (vedi box alla pagina precedente). Furono analizzati, infatti, i carotaggi di ghiaccio eseguiti fino alla profondità di alcuni kilometri nell’Antartide dalla spedizione Vostok. Di questo ghiaccio profondo si può determinare l’età in base alla profondità. I campioni contengono bolle d’aria: analizzandole si determina la percentuale di CO2 atmosferico in epoche remote. La temperatura media dell’atmosfera all’epoca in cui quei campioni d’aria si conglobavano nei ghiacci si determina in funzione del rapporto fra le quantità dei due isotopi dell’ossigeno 18O e 16O.
I diagrammi della figura seguente mostrano le variazioni della temperatura atmosferica rispetto a medie contemporanee (curva blu), il tasso di CO2 in ppm (curva verde) e la quantità di polveri nell’atmosfera (curva rossa). I primi due essenzialmente coincidono coi diagrammi di Milankovitch relativi alla insolazione della superficie terrestre determinata in base a elaborazioni di dati astronomici. Se ne deduce che le variazioni della temperatura sono determinate da regolarità della posizione e del moto della terra. Sono esse, quindi, a causare le variazioni della % di CO2 nell’atmosfera e non viceversa. Non è l’aumentato effetto serra che produce il riscaldamento globale, ma è l’innalzamento di temperatura che fa crescere la percentuale di CO2 e questa POI contribuisce a sua volta all’aumento di temperatura.
Fonte: www.ngdc.noaa.gov/paleo/icecore/antarctica/vostok/vostok_data.html
BILANCIO CO2
Ma, allora, quali sono gli argomenti sui quali si basa il convincimento che sono gli uomini a influenzare la composizione dell’atmosfera e a causare il riscaldamento globale?
Attualmente il contenuto di CO2 dell’atmosfera cresce di 1,6 ppm all’anno, il che corrisponde a 3,3 Gt/anno. E’ un aumento notevole – e lo analizzo più oltre. Da dove viene questa anidride carbonica? Si valuta che due contributi notevoli e abbastanza facili da misurare siano:
Combustione di gas, carbone, petrolio 5,5 Gt/anno
Deforestazione e attività agricole 1,5 Gt/anno
Totale 7,0 Gt/anno
Aumento CO2 atmosferico 3,3 Gt/anno
Differenza assorbita dall’ambiente 3,7 Gt/anno
Dunque, l’aumento annuo della percentuale di CO2 atmosferico costituisce poco meno del 50% del CO2 emesso nell’atmosfera per effetto di attività umane. La domanda:
“Dove va a finire il resto?”
è mal posta. Come in contabilità, non possiamo calcolare questi bilanci per differenza. Infatti esistono altre fonti e altri assorbitori di CO2. Occorre considerare tutti i modi in cui l’anidride carbonica è immagazzinata sul nostro pianeta. Testi autorevoli (ad es.: Guido Visconti, L’atmosfera, Garzanti, 1989) dicono che il carbonio presente nell’atmosfera come CO2 pesa 800 miliardi di tonnellate. La biosfera (alberi e piante) ne contiene 2.000 miliardi di tonnellate e i mari 37.000. E’ ragionevole pensare che comandino i mari – in base a meccanismi ancora non del tutto compresi (v. Lai, C.C. et al – Topics in Catalysis, Kluwer Academic, 2005). Ma L.C. Smith e altri hanno pubblicato sulla rivista SCIENCE (Vol.303, 16/1/2004) un lavoro sui meccanismi per cui gli enormi depositi di torba nel Nord della Russia funzionano come assorbitori di carbonio e come fonti globali di metano. [Uno solo di questi occupa 600.000 km2 (il doppio dell’area dell’Italia) e a seconda della temperatura assorbe o emette enormi quantità di metano e di CO2 ]. Esistono notevoli incertezze sulla quantità di carbonio contenuta in questi depositi formatisi durante l’olocene, cioè negli ultimi 12.000 anni. Le stime variano da 270 a 1050 Gt. L’assorbimento di CO2 e l’emissione di metano varierebbero in funzione della temperatura: le quantità coinvolte sono così notevoli da superare notevolmente quelle elencate nel bilancio riportato qui sopra. L’effetto delle attività antropiche va, quindi, ridimensionato per più ragioni di una.
C’è un’obiezione che potrebbe essere fatta alla tesi secondo cui le variazioni della temperatura e dell’anidride carbonica atmosferica sono causate in modo predominante da eventi astronomici. Infatti il grafico precedente mostra, sì, una correlazione di quasi il 100% fra temperatura e CO2, ma la periodicità non è precisa, come ci attenderemmo da una sequenza di eventi che ha cause astronomiche. Gli intervalli di tempo fra i massimi di temperatura (evidenziati nella tabella seguente) a partire dall’epoca attuale sono di 130.000, 110.000, 95.000 e 85.000 anni.
[Incidentalmente il massimo di temperatura attuale non sembra ancora raggiunto – per cui dovremmo attenderci un aumento della temperatura atmosferica unicamente in base alle risultanze in merito al paleoclima].
Interglaciali prima del massimo | attuale | secondo | terzo | quarto |
Massimi di temperatura, (k anni fa) | 130 | 240 | 335 | 420 |
Minimi di temperatura, (k anni fa) | 20-50 | 140-170 | 240-260 | 340-360 |
Se consideriamo, però, gli intervalli fra i minimi di temperatura, vediamo che sono più lunghi e che il periodo di 100.000 anni ricade ogni volta entro la variazione periodica. Dunque l’analisi di Fourier dei diagrammi dà un periodo di 100.000 anni e la ripetizione dei cicli glaciali e interglaciali dipende essenzialmente dal cumulo di circostanze rilevato da Milankovitch. La forma d’onda del processo viene deformata da numerosi fattori. L’aumento del tasso di anidride carbonica (dovuto all’aumento della temperatura) causa un aumento dell’effetto serra che amplifica il riscaldamento. Effetto analogo è prodotto dalla diminuzione dell’albedo le superfici ghiacciate hanno area minore e riflettono verso lo spazio meno energia solare. Si ha un forte feedback positivo, il che spiega perchè le salite di temperatura alla fine delle glaciazioni sono così ripide.
Entrano in gioco, poi altri fattori, fra cui l’attività solare (variazione delle macchie, etc.) e – a lungo termine – la deriva dei continenti, mentre, a breve termine, si risente spesso dell’offuscamento dell’atmosfera dovuto alle eruzioni dei vulcani. Ad esempio dopo il 1980 si è avuto un abbassamento della temperatura attribuito all’eruzione del Piñatubo.
La storia recente – dopo l’ultima glaciazione e gli ultimi 1000anni
Ci furono glaciazioni importanti 700, 400 e 4 milioni di anni fa, quando l’homo sapiens non esisteva. Secondo Peter Ward dell’Università di Washington ci fu, invece, un massiccio riscaldamento globale 250 milioni di anni fa, che condusse nel corso di alcuni milioni di anni all’estinzione del 90% delle specie marine e del 75% di quelle terrestri. Pare che il tragico fenomeno fu causato da enormi eruzioni vulcaniche in Siberia e, insieme, da eventi geologici che produssero un abbassamento del livello del mare. I fondali marini esposti avrebbero emesso grandi quantità di metano che è il gas più efficace nel contribuire all’effetto serra. Le condizioni attuali sono molto diverse e quindi quegli eventi ci riguardano poco.
Rilevante, invece che ventimila anni fa Canada e Nord Europa erano coperti da uno strato di ghiaccio spesso 2000 metri. Anche a Sud il clima era più rigido. Il grafico che segue mostra gli aumenti della temperatura (di circa 8°K) e dell’anidride carbonica (di circa 100 parti per milione) da allora fino a oggi. Questo è il fenomeno analizzato da Milankovitch. Gli aumenti sono velocissimi. I Neanderthal e gli homo sapiens erano già apparsi prima della fine della glaciazione precedente e in quei tempi nelle savane africane i nostri progenitori si evolsero fino a raggiungere la nostra costituzione attuale. Quegli uomini primitivi se la cavarono malgrado le risorse scarse, le conoscenze minime, la tecnologia embrionale.
Se non fosse aumentata la temperatura, non si sarebbe sviluppata poi nessuna delle grandi civiltà umane. Solo quando l’isoterma dei 21°C si spostò a Nord, lungo di essa nacquero le civilizzazioni di Mohenjodaro (fra India e Persia), di Persepoli, Babilonia, Egitto e poi quelle dei fenici, dei greci, dei romani. E lontano si sviluppavano la civiltà cinese e quelle pre-colombiane amerindie. Con le città crebbero l’agricoltura, le tecniche, le arti, la scienza e tutti i fattori che hanno aumentato la potenza e le risorse umane. Da allora la vita degli uomini ha lasciato tracce. Ha prodotto eventi interessanti, ricordati dopo millenni, e oggetti imponenti ancora visibili. Insieme si sono prodotte tragedie, guerre, genocidi, distruzioni. Malgrado questo, le cose non vanno tanto male. Stiamo molto meglio di quanto toccasse ai nostri avi cacciatori e raccoglitori. Alcune vicende tragiche per certe popolazioni ebbero cause prime climatiche. La scomparsa di grandi regni Maya fu dovuta forse a un lungo periodo di siccità dall’VIII al XIV secolo. Secondo alcuni rivolgimenti climatici dovuti alla scarsità di macchie solari abbassarono la temperatura nell’Atlantico settentrionale producendo la mini era glaciale (dal XV al XVII): la Groenlandia fu abbandonata, l’Islanda aveva un solo porto libero da ghiacci e gli abitanti stavano per tornare in Danimarca. Poi la temperatura cominciò a salire di nuovo verso il 1700 – e non si bruciavano ancora combustibili fossili – chiaro indizio che l’effetto delle attività industriali viene sopravvalutato.
La figura seguente rappresenta le variazioni della temperatura atmosferica secondo 6 diverse ricostruzioni fatte da diversi gruppi di scienziati. Tutti confermano il periodo caldo fra l’800 e il 1300 e la mini era glaciale seguente, che si concluse verso la fine del secolo XVII.
La tendenza è confermata dai rilevamenti relativi agli ultimi 150 anni (vedi figura seguente). Nel diagramma si notano il raffreddamento – o la stasi – dopo il 1900 e si riconosce anche la modesta diminuzione di temperatura dopo la già citata eruzione del Piñatubo nel 1980.
Una mia previsione matematica – empirica, ma accurata
Negli ultimi 4 decenni la concentrazione del CO2 atmosferico misurata a MaunaLoa da C.D.Keeling e T.P. Whorf dello Scripps Institute of Oceanography dell’Università della California, è aumentata di continuo Questa circostanza è nota a tutti. Meno noto, invece, è il fatto che nel 1976 si verificò una netta discontinuità in questo processo.. L’aumento annuo medio della percentuale di CO2 nell’atmosfera fra il 1959 e il 1976 fu di 0,95 ppm/anno. Invece fra il 1976 e il 2003 l’aumento è stato in media di 1,608 ppm/anno. Questa accelerazione del processo di incremento del CO2è stato interpretato da taluno come un indizio che il processo si aggrava e che, quindi, arriveremo presto al temuto raddoppio dell’anidride carbonica atmosferica. Questa, però, è una previsione ingenua che si basa su procedure di extrapolazione semplicistiche. Io ho calcolato quali siano le equazioni che meglio descrivono l’andamento delle serie storiche 1958-76 e 1976-2003. Ho utilizzato equazioni logistiche di Volterra a 3 variabili del tipo:
x = A/[1 + e(B t + C)]
Queste equazioni descrivono accuratamente processi di crescita di certe variabili (popolazioni biologiche, epidemie, prodotti industriali) che si espandono tendendo a riempite una nicchia ecologica. L’andamento tipico ha forma ad S: crescita iniziale lenta, poi tanto veloce da sembrare esponenziale. Infine entrano in azione fattori limitanti: la crescita rallenta e tende a un asintoto costante.
La tabella seguente riporta i dati rilevati a MaunaLoa.
Anno | Media annuale ppm | Differenza anno prec. |
1958 | 315 | – |
1959 | 316 | 1 ppm |
1960 | 316.91 | .91 |
1961 | 317.63 | .72 |
1962 | 318.47 | .84 |
1963 | 319.02 | .55 |
1964 | 319.52 | .5 |
1965 | 320.09 | .57 |
1966 | 321.34 | 1.25 |
1967 | 322.12 | .78 |
1968 | 323.11 | .99 |
1969 | 324.6 | 1.49 |
1970 | 325.65 | 1.05 |
1971 | 326.32 | .67 |
1972 | 327.51 | 1.19 |
1973 | 329.61 | 2.1 * |
1974 | 330.29 | .68 |
1975 | 331.16 | .87 |
1976 | 332.18 | 1.02 |
1977 | 333.88 | 1.7 |
1978 | 335.52 | 1.64 |
1979 | 336.89 | 1.37 |
1980 | 338.67 | 1.78 |
1981 | 339.95 | 1.28 |
1982 | 341.09 | 1.14 |
1983 | 342.75 | 1.66 |
1984 | 344.44 | 1.69 |
1985 | 345.86 | 1.42 |
1986 | 347.14 | 1.28 |
1987 | 348.99 | 1.85 |
1988 | 351.31 | 2.45 * |
1989 | 352.94 | 1.5 |
1990 | 354.19 | 1.25 |
1991 | 355.62 | 1.43 |
1992 | 356.36 | .74 |
1993 | 357.1 | .74 |
1994 | 358.86 | 1.76 |
1995 | 360.9 | 2.04 * |
1996 | 362.58 | 1.68 |
1997 | 363.84 | 1.26 |
1998 | 366.58 | 2.74 * |
1999 | 368.3 | 1.72 |
2000 | 369.47 | 1.17 |
2001 | 371.03 | 1.55 |
2002 | 373.07 | 2.04 * |
2003 | 375.61 | 2.54 * |
2004 | 377.5 | 2.09 * |
2005 | 380 | 2.5 * |
2006 | 383 | 3 * |
Le caratteristiche delle due equazioni sono riportate nella tabella seguente. L’errore standard è la radice quadrata della somma dei quadrati delle differenze fra valori calcolati e valori misurati, divisa per la media dei valori. La costante di tempo è il tempo per passare dal 10% al 90% del valore dell’asintoto.
Serie storica | Asintoto | Errore
standard |
Costante
di tempo |
B | C |
1959-76 | 512 ppm | 5.12 E-04 | 513 anni | .856 | -.897 |
1976-2006 | 424 ppm | 1.04 E-03 | 153 anni | 2.865 | -3.829 |
Questa analisi indica che a partire dal 1976 la concentrazione atmosferica del CO2 aumenta più velocemente che negli anni precedenti, ma mira a un asintoto più basso, di 424 ppm, che dovrebbe essere raggiunto nei primi decenni del XXII secolo (vedi diagramma seguente).
I due valori dell’errore standard riportati in tabella sono estremamente bassi, il che indica che questa analisi è molto plausibile. Se le rilevazioni future effettuate a MaunaLoa confermeranno che la tendenza attuale del fenomeno mira a un valore della concentrazione di 424 ppm (solo il 13% maggiore del livello del 2003), avremo un altro elemento che ci induce a ridurre (o ad annullare) il timore che l’aumento della temperatura atmosferica dipenda dalla concentrazione crescente del CO2atmosferico.
Nella terza colonna della tabella alla pagina precedente è riportata la differenza fra il valore di ogni anno e quello dell’anno prima. Tale differenza supera 2 ppm negli anni: 1973, 1988, 1995, 1998 e 2002-2006. Appare dunque improbabile che esista una correlazione fra l’aumento della concentrazione di CO2 e il fenomeno ENSO (El Niño Southern Oscillation = Oscillazione Meridionale El Niño) dato che El Niño (il noto riscaldamento della superficie marina nel Pacifico meridionale) si verificò intensamente negli anni 1973, 1983, 1993 e 1998 – solo in 2 anni (ma non in altri 7) coincisero l’ENSO e un aumento maggiore di 2 ppm.
Rimedi
Non è ragionevole pensare, dunque, che gli uomini stiano causando danni ecologici gravi e irreversibili per il fatto che bruciano combustibili fossili. Non stiamo producendo, noi, un riscaldamento globale su scala planetaria.
Ancora meno ragionevole sembra una teoria che taluno ha avanzato recentemente. Secondo questa, già migliaia di anni fa i primi agricoltori hanno iniziato la tendenza al riscaldamento globale perchè distruggevano le foreste, bruciavano vegetali, allagavano campi per piantare il riso, allevavano animali. In quei tempi remoti, infatti, la popolazione umana del globo era tanto piccola che non ha senso pensare a suoi impatti globali sul clima. In ogni caso, quando le idee erano meno chiare di oggi, alcuni studiosi hanno pensato a rimedi per il caso che effettivamente l’aumento del CO2 atmosferico potesse rappresentare un rischio grave.
- Il fisico Freeman Dyson propose di piantare mille miliardi di sicomori. Se a regime ogni albero immagazzina 500 kg di carbonio, la quantità totale sarebbe di 500 Gt (miliardi di tonnellate) cioè il 60% della quantità esistente nell’atmosfera nel 2004 sotto forma di CO2. (Nel suo libro A Many Colored Glass(University of Virginia, 2007) Dyson demolisce l’ipotesi che un riscaldamento globale abbia causa antropica.
- Il fisico Cesare Marchetti suggerì nel 1988 [“How to Solve the CO2 Problem Without Tears” – Come risolvere il problema del CO2senza lacrime, Conferenza sull’idrogeno, Mosca, 1988] di centralizzare la produzione di CO2 usando energia nucleare nelle steppe per riformare il gas naturale, estraendone l’idrogeno da usare come vettore energetico. Il CO2 prodotto potrebbe essere liquefatto e immesso nelle profondità degli oceani oppure in pozzi di petrolio esauriti. Quest’ultima soluzione permetterebbe di far emergere il petrolio restante. Il CO2 conservato sotto terra potrebbe essere di nuovo immesso nell’atmosfera per far crescere l’effetto serra e innalzare la temperatura, se si profilasse una nuova era glaciale.
- Una misura efficace da prendere in ogni caso, consiste nello sviluppare energie alternative che evitino di bruciare i combustibili fossili. Fra queste: il fotovoltaico solare ad alto rendimento: teoricamente si potrebbe salire dal 15% attuale all’85%. Anche se bruciare petrolio e metano non è rischioso ai fini dell’impatto sul clima, tali sostanze sono la base dell’industria petrolchimica e della plastica con utilità ben maggiore di quella ottenuta bruciandole.
Le incertezze – recentissime ipotesi ed esperimenti
Certo molti fenomeni e situazioni influiscono sul clima. Sono: regolarità ed eventi astronomici, fenomeni biologici (i cianobatteri, miliardi di anni fa, scomposero le molecole d’acqua assorbendo l’idrogeno e rilasciando ossigeno che formò l’atmosfera), impatto di meteoriti, eruzioni vulcaniche. Gli esperti hanno capito parecchie cose, ma non tutte. Non siamo in grado di fare previsioni a lungo termine sul clima.
Il fisico danese H. Svensmark, dell’Istituto Danese di Ricerche Spaziali, nel suo The Chilling Stars – “Le stelle gelide” (Icon Books, 2007) cita 6 possibili cause dell’ aumento di 0,6°C della temperatura atmosferica nell’ultimo secolo.
- Più intenso effetto serra dovuto all’aumento del CO2 atmosferico
- Aumento temperatura superficiale del Pacifico per via di El Niño
- Variazioni nell’atmosfera di fumi e polveri
- Effetto serra dovuto a O3, CH4
- Variazioni dell’albedo dovute ad aumento della vegetazione
- Diminuzione delle nuvole a bassa altitudine.
Svensmark ritiene che l’ultima ipotesi sia la più credibile. Cicli climatici di circa 1000 anni sono causati da variazioni del campo magnetico solare: se è forte, devia dalla Terra i raggi cosmici galattici per cui diminuisce la condensazione a bassa quota del vapore acqueo e la scarsità delle nuvole basse causa un aumento della temperatura. [V. grafici seguenti: le variazioni di raggi cosmici hanno andamenti simili a quelli delle nuvole a bassa quota (non di quelle ad alta quota). Questo sta succedendo da qualche secolo e successe anche 1000 anni fa. Succede il contrario se il campo magnetico solare è debole: i raggi cosmici galattici sono forti e ci sono più nuvole a bassa quota: la temperatura si abbassa come accadde nella mini era glaciale fra il XIII e il XVII secolo. Svensmark e Marsh hanno calcolato che negli ultimi 100 anni la copertura di nuvole basse è diminuita dell’8,6% che corrisponde a un aumento dell’energia radiante del sole di 1,4 W/m2. Curiosamente tale ammontare è uguale a quello stimato dall’Intergovernmental Panel on Climate Change (IPCC) come l’impatto causato dalla CO2 prodotta da attività umane dall’inizio della rivoluzione industriale. Tale stima, però, è basata sull’uso di modelli e non rispecchia adeguatamente gli effetti di altre fonti e assorbitori di CO2 (nei mari, nei depositi di torbe, etc.).
La teoria di Svensmark è stata confermata dall’esperimento SKY condotto a Copenhagen. Il vapore acqueo in una camera con il volume di 7 m3 si condensava marcatamente in presenza di raggi cosmici. La condensazione diminuiva di molto quando i raggi venivano deviati per mezzo di un forte campo magnetico sopra la camera. Un esperimento simile (CLOUD) è stato progettato al CERN di Ginevra, simulando i raggi cosmici mediante raggi di particelle prodotti da un acceleratore. E’ significativo che Svensmark abbia avuto la collaborazione del Consorzio CLOUD formato da scienziati di 17 istituti di ricerca (in USA, UK, Russia, Danimarca, Germania, Finlandia, Austria, Norvegia) coordinati da Jasper Kirkby.
E se, invece, venisse un’era glaciale?
Atsumu Ohmura è un geografo e lavora al Politecnico Federale Svizzero. Nel 1985 analizzava le serie storiche della radiazione solare registrata sulla superficie terrestre negli ultimi 30 anni e rimase basito: stava diminuendo di circa lo 0,3% all’anno. In tre decenni era calata del 10%. Esitò quattro anni prima di pubblicare i suoi risultati. Quando lo fece, fu ignorato. Altri ricercatori sostenevano che la luce solare sulla terra tendeva a diminuire negli ultimi due decenni del secolo scorso. Stanhill e Shabtai Cohen (del Centro Vulcani a Bet Dagan, Israele) ritennero di aver dimostrato che la radiazione solare che raggiunge la terra è diminuita dal 1958 al 1992 fra lo 0,23 e lo 0,32% all’anno.
Questi studiosi furono presi sul serio da Graham Farquhar, biologo australiano dell’Università di Canberra, che studiava la velocità di evaporazione dei mari e sosteneva che fosse diminuita di pari passo con la calante radiazione registrata al suolo. Quando Farquhar ne parlò a un famoso esperto (che non nomina), questi rispose: “Baggianate, Graham! Se fosse vero, saremmo tutti congelati.” Le polemiche divamparono. Un articolo di Farquhar fu accettato nel 2002 dalla rivista Science. La diminuzione della radiazione pare avvenga nella gamma dello spettro visibile e nell’infrarosso, non nell’ultravioletto. Altri, invece, sostengono che la radiazione solare è aumentata negli ultimi 150 anni. Come si conciliano queste osservazioni con l’aumento della temperatura atmosferica che è in atto da 3 secoli e che ha dato adito al panico per il riscaldamento globale? Secondo i ricercatori citati, la radiazione solare diffusa non danneggia la flora: la favorisce. La temperatura crescerebbe, mentre la luce cala. Le controversie continuano.
Un fattore enorme che influenza il clima è l’energia trasportata dalle correnti oceaniche: migliaia di volte maggiore di quella prodotta dall’uomo. A causa della corrente del Golfo l’Europa Settentrionale ha un clima ben più dolce delle regioni atlantiche di Canada e USA, che sono alla stessa latitudine. L’equilibrio di queste grandi correnti è influenzato dalla deriva dei continenti, fenomeno ben noto e lentissimo.
Una previsione preoccupante è stata pubblicata da Peter Wadhams, professore di fisica degli oceani all’Università di Cambridge e capo del gruppo di studio sulla fisica degli oceani polari. Dopo campagne di rilevazioni in Groenlandia e sotto il Polo Nord (con un sommergibile britannico) lo scienziato riferì di aver misurato un assottigliamento della calotta polare artica del 45% e una netta diminuzione delle correnti verticali fredde e dense discendenti (fino ai fondali a 3000 metri di profondità) provenienti dal Polo. Esse richiamavano in superficie l’acqua calda della Corrente del Golfo molto meno di prima. Quindi Wadhams considera probabile che entro il 2020 la calotta polare artica sia del tutto disciolta. Ritiene che tale evento si verificherà di sicuro entro il 2080. La temperatura delle Isole Britanniche scenderebbe allora di una decina di gradi.
Queste affermazioni suonano avventate, anche se espresse da un noto esperto. Io ritengo che dovremmo essere modesti e stare attenti a non accettare certezze gratuite. Certo l’immaginazione va coltivata: è alla base del progresso e dell’invenzione scientifica e fornisce i concetti che sono alla base di ogni modello mentale o matematico. Ricordiamo, però, che i modelli matematici, anche se ci impressionano mentre girano velocemente sui computer, devono essere usati con prudenza. Prima di essere validati, non danno certezza alcuna. In questo settore della climatologia a lungo termine finora non abbiamo validazioni. Nessun modello ha previsto accuratamente eventi futuri con decenni di anticipo. Ricordiamo sempre la frase di Galileo Galilei:
“Ciò che l’esperienza e i sensi ne dimostrano devesi anteporre a ogni discorso ancorchè ne paresse assai fondato.”
I LIBRI DI ROBERTO VACCA SI TROVANO SU www.printandread.com