LE CRISI AMBIENTALI
GLOBALI
Alberto
Di Fazio
Osservatorio
Astronomico di Roma e
Global
Dynamics Institute
Documento presentato al
Congresso Comitato Scienziate e Scienziati Contro la guerra 1999
CNR-IAC (Istituto per le applicazioni del
calcolo “Mauro Picone”).
On-line a www.aspoitalia.net
1. INTRODUZIONE
Può essere interessante iniziare subito con una citazione dal libro di
Meadows et al. Beyond the Limits
(Earthscan, 1992), di cui parlerò più avanti (pag. 25), dove viene presentata,
nello “Scenario 1”, una simulazione del mondo nel caso in cui nulla viene
fatto, da parte di governanti e potere industriale, per porre rimedio a quelle
che vengono ora unanimamente riconosciute come le “crisi ambientali globali”; è
il cosiddetto scenario “Business as
usual” (BAU).
“In questo scenario la società mondiale procede per il suo cammino storico, il più a lungo possibile, senza fare alcun cambiamento politico importante. La tecnologia continua ad avanzare nei settori dell’agricoltura, dell’industria e dei servizi sociali secondo gli schemi prestabiliti. Non viene fatto nessuno sforzo particolare per combattere l’inquinamento o per preservare le risorse naturali. Il modello di mondo, nella nostra simulazione, cerca di trascinare la popolazione mondiale attraverso la transizione demografica e di inserirla in un’economia industriale e poi post-industriale. Questo modello si fa carico della sanità pubblica e del controllo delle nascite, via via che cresce il settore dei servizi; aumenta gl’investimenti nell’agricoltura ed ottiene raccolti maggiori, via via che cresce il settore dell’agricoltura; emette più sostanze inquinanti ed esige sempre più risorse non rinnovabili, via via che cresce il settore industriale.
“La popolazione mondiale in questo scenario cresce da 1.6 miliardi nell’anno 1900 a più di 5 miliardi nell’anno 1990 ed a più di 6 miliardi nell’anno 2000. Il prodotto industriale mondiale lordo si espande di un fattore 20 tra il 1900 e il 1990. Tra il 1900 e il 1990 viene consumato solo il 20% delle risorse non rinnovabili mondiali; l’80% di queste risorse è ancora intatto nel 1990. L’inquinamento in quest’anno, nella nostra simulazione, ha appena cominciato ad aumentare in maniera rilevante. In media i beni di consumo pro capite raggiungono un valore (in dollari del 1968) di $260 per persona per anno –una cifra utile da ricordare per confronti con simulazioni future. La durata media della vita sta aumentando, i servizi ed i beni pro capite aumentano, la produzione di cibo aumenta. Ma cambiamenti cospicui si delineano di lì a poco.
“In questo scenario, ad un certo punto, la crescita economica si arresta ed inverte l’andamento, a causa di una combinazione di limitazioni. Subito dopo l’anno 2000 l’inquinamento aumenta tanto da cominciare a danneggiare seriamente la fertilità della terra. (Questo potrebbe succedere nel ‘mondo reale’ per la contaminazione da metalli pesanti o da sostanze chimiche persistenti, a causa del cambiamento climatico, o a causa dell’aumento dei livelli d’intensità dei raggi ultra-violetti dovuto alla diminuzione dello strato dell’ozono). La fertilità della terra diminuisce soltanto del 5% tra il 1970 e il 2000, ma risulta avere un tasso di diminuzione del 4.5% all’anno nel 2010 e del 12% all’anno nel 2040. Contemporaneamente aumenta l’erosione della terra. La produzione totale di cibo comincia a crollare dopo il 2015. Con il risultato che l’economia deve aumentare gl’investimenti nel settore dell’agricoltura per mantenere il livello della produzione. Ma l’agricoltura deve competere, quanto agl’investimenti, con il settore delle risorse naturali che pure comincia a risentire di alcune limitazioni.
“Nel 1990 le risorse non rinnovabili rimanenti sotto terra sarebbero durate 110 anni al tasso di consumo del 1990. Non si evidenziava nessun limite serio alle risorse. Ma arrivando al 2020 le risorse rimanenti costituiscono un serbatoio di soli 30 anni. Perché si verifica un così repentino calo? Perché una crescita esponenziale fa diminuire le risorse e fa aumentare il tasso di consumo allo stesso tempo. Tra il 1990 e il 2020 la popolazione aumenta del 50% e il prodotto industriale cresce dell’85%. Il tasso di consumo delle risorse non rinnovabili raddoppia. Durante i primi vent’anni del XXI secolo, nella nostra simulazione, la popolazione in aumento e l’impianto industriale consumano tante risorse non rinnovabili quante l’economia globale ha consumato nell’intero secolo precedente. Una tal quantità di risorse è stata consumata che è necessario investire molto più capitale ed energia per individuare, estrarre e raffinare ciò che rimane.
“Via via che diventa sempre più difficile ottenere cibo e risorse non rinnovabili, in questo mondo simulato, una quantità sempre maggiore di capitale è spostato e indirizzato ad ottenerli. Questo implica che ci sono meno profitti da investire nell’accrescimento del capitale.
“Infine l’investimento non riesce a tenere il passo con il deprezzamento (questo è l’investimento e il deprezzamento fisico, non monetario). L’economia non può smettere d’investire nei settori delle risorse e dell’agricoltura; se lo facesse la scarsità di cibo, di materie prime e di combustibile limiterebbe ancora di più la produzione. Dunque comincia il declino dell’impianto industriale capitalistico, portandosi dietro i settori dei servizi e dell’agricoltura; i quali sono diventati dipendenti dagl’investimenti industriali. Per un breve periodo la situazione è particolarmente seria, perché la popolazione continua ad aumentare, a causa del ritardo implicito nella struttura delle età e nel processo di adattamento sociale. Alla fine, però, anche la popolazione comincia a diminuire, perché il tasso di mortalità è spinto in alto dalla mancanza di cibo e di strutture sanitarie.”[pp. 132-134, Meadows]
E questa che segue è la figura originale che accompagnava il brano, che per ora non commenterò ulteriormente:
Dunque già da questo brano si può avere un’idea di che cosa siano le crisi ambientali globali, tra le quali tratterò in particolare, in questo articolo, della crisi climatica e della crisi energetica, per poi dare qualche cenno delle altre. Inizio perciò a elencarle, insieme agli schieramenti economici, negoziali e militari ad esse connessi. Nonostante che molte siano interconnesse, la classificazione tiene conto di diversi problemi e minacce da esse poste all’umanità intera. L’ordine è quello che viene riconosciuto dalle competenti organizzazioni delle Nazioni Unite (UN), come ad esempio WMO[BG1][BG2][1], UNEP[2], UNFPA[3], FAO[4], WHO[5], IFAD[6], etc.(e che a sua volta ad esse viene suggerito da diverse organizzazioni scientifiche di settore, coordinate dall’ICSU[7]):
·
1. CRISI CLIMATICA
·
2. CRISI ENERGETICA
·
3. DEFORESTAZIONE
·
4. CRISI IDRICA
·
5. CRISI DEMOGRAFICA
·
6. DESERTIFICAZIONE
·
7. PERDITA DELLA BIODIVERSITÀ
·
8. CRISI AGRICOLA: EROSIONE E RIDUZIONE PROGRESSIVE
DELLA SUPERFICIE ARABILE
·
9. PROGRESSIVO E RAPIDO CALO DELLE RISERVE ITTICHE.
Non abbiamo ovviamente
elencato tutte le crisi ambientali globali, ma quelle più rilevanti per il
presente contributo. Non forniremo qui che una sintetica descrizione dei punti
più importanti.
SITUAZIONE
- A livello
negoziale:
Vi sono Convenzioni Quadro (veri e
propri trattati sulle modalità di negoziazione in sede UN) solo per la crisi
climatica, la deforestazione, la desertificazione - quest’ultima firmata a Roma
nell’autunno 1997 - e la biodiversità. Nell’ambito delle Framework Conventions
operano le COP (Conference of the Parties), veri e propri parlamenti mondiali
in cui si prendono le decisioni operative (trattati, provvedimenti economici,
controlli e sanzioni). Molto famosa è la UNFCCC[8],
la cui COP3 a Kyoto nel dicembre 1997 ha adottato il Protocollo di Kyoto, primo
esempio nella storia in cui il mondo scientifico ha forzatamente indotto
l’attivazione di un trattato globale legalmente vincolante per un problema
ecologico globale le cui soluzioni non sono ottenibili tramite meri shifts
tecnologici[9].
Sono in negoziazione i meccanismi economici, quelli di controllo e il sistema
di sanzioni. Nonostante l’estrema
gravità, non sono ancora neanche
contemplate Convenzioni Quadro - né negoziazioni - sulla crisi energetica,
sulla crisi demografica e sulla crisi idrica.
La Convenzione sulla deforestazione non ha ancora un vero e proprio
organo decisionale-negoziale.
Gli schieramenti
:
à
il G77&China
(il gruppo maggioritario, di circa 140 paesi su 180, rappresentante circa l’85%
dell’umanita’, guidato in maniera universalmente riconosciuta dalla Cina e
comprendente il sottogruppo dell’Africa, oltre all’India, ai paesi dell’OPEC, la
quasi totalità dei paesi sud-americani e
tutti quelli asiatici meno il Giappone e la Corea del Sud[10])
à
l’ Unione
Europea
à
La Federazione
Russa e il resto dei paesi CSI
(ex-URSS meno i tre piccoli stati Baltici)
à
lo “Umbrella Group” o JUSCANNZ (dalle iniziali di Japan, United States, Canada, New
Zealand), comprendente anche l’Australia. Questo schieramento porta avanti in
pratica gli interessi statunitensi
- A livello
economico:
Gli interessi sono grosso modo divisi tra paesi in via di
sviluppo (PVS) e paesi industrializzati. Ogni tipo di crisi coinvolge uno
opportuno dosaggio e redistribuzione di risorse del pianeta, ad esempio: i)
la quota nazionale di energia, sotto forma di combustibili fossili,
utilizzabile per unità di tempo senza impedire la riduzione di emissioni di
anidride carbonica e di altri gas di serra;
ii) la quota di petrolio e gas
naturale utilizzabile nel quadro della diminuzione tendenziale del tasso di
estrazione, senza minacciare il fabbisogno vitale di altri paesi e/o blocchi
militari; iii) il tasso massimo di deforestazione da applicare a scopi
agricoli e commerciali senza superare il tasso di ricrescita e quindi le
capacità di assorbimento di CO2 e la capacità di regolare il tasso
di umidità; iv) il flusso di acqua
necessario alle attività industriali, metropolitane ed agricole senza però
intaccare la quota dei paesi confinanti e che condividono gli stessi bacini
idrografici; v) il tasso di crescita demografica massimo tollerabile senza
aggravare le crisi 1–4 e 6,7, etc. etc.
Le soluzioni per le crisi
1-4 e 7 sono tutte inconciliabili con la
crescita economica, e quindi incompatibili
con il vigente sistema di mercato. Ciò schiera una serie di organizzazioni
intergovernative occidentali potenzialmente (e in alcuni casi effettivamente)
contro l’applicazione delle soluzioni.
Diamo un breve elenco degli schieramenti
economici:
¨
G7 (Russia a parte, il G8 è solo formale nelle
decisioni sostanziali)
¨
OECD[11] (OCSE)
¨
OPEC[12]
¨
ASEAN[13]
¨
IMF[14]
(UN ma in realtà portavoce di Washington, Wall Street, e in misura molto minore
di UK e Giappone)
¨
NAFTA[15]
¨
IEA[16]
¨
(UN): UNCTAD[17], UNIDO[18], World Bank
- A
livello militare:
Esistono una serie di potenze, patti ed alleanze varie
che, come vedremo, giocano un ruolo fondamentale nell’ambito del dominio delle
risorse e - in definitiva - della “gestione” delle crisi sopraelencate. Alcune,
e in particolare quelle imperniate intorno agli Stati Uniti d’America, sono
costruite per imporre una dominanza che tende a risolvere le crisi suddette
tentando di garantire la sopravvivenza di una parte del cosiddetto Occidente.
Elenchiamo brevemente gli schieramenti
ed alleanze più importanti:
*
US
*
NATO
*
Alleanza Federazione Russia-Cina-India
*
Alleanza
US-Japan-Korea e - anche se non ufficialmente- Taiwan
L’Unione Europea (EU) non possiede -
come è noto - un proprio dispositivo militare, anche se - come vedremo - le sue
posizioni ed interessi strategici e a medio termine nel gestire le su elencate
crisi non coincidono (e anzi
sono contrapposti) con quelli degli US. Quest’ultimo fatto è confermato dal
fatto che le posizioni negoziali dell’EU sono praticamente sempre in conflitto
con quelle del JUSCANNZ negli scontri
sui trattati sulle grandi crisi ambientali 1-4 e 6-7. È da segnalare il
trattato militare per il secolo a venire stipulato da Cina e Federazione Russa
nel 1997, a cui si è aggiunta l’India meno di un anno fa.
Il progettato
sistema missilistico US-Japan-Korea, con l’istallazione di missili anche su
Taiwan costituisce una minaccia per la Cina e per l’alleanza “Asiatica” sopra
descritta, oltre che una minaccia di destabilizzazione nucleare per tutto il
mondo.
Prima di vedere che ruolo hanno
queste alleanze e che minacce ne vengono alla pace e infine come esse giocano
nel conflitto dei Balcani, esaminiamo i dati, la natura e la rilevanza delle
crisi globali sopra descritte. Nel
descrivere i dati trascurerò dapprima i cenni storico-scientifici, che tratterò
in seguito. Mi limiterò qui invece a descrivere i dati e i processi su cui è
stato raggiunto consensus scientifico
nella comunità scientifica internazionale (ICSU).
2.
LE GRANDI CRISI
AMBIENTALI GLOBALI IN ATTO
2.1 CRISI
CLIMATICA.
I dati
L’uomo ottiene circa il 95% dell’energia ossidando atomi
di carbonio nei legami C-H e C-C (i.e., bruciando combustibili fossili:
idrocarburi, gas naturale e carbone). Il
necessario
prodotto finale di tali processi di generazione di energia è
l’emissione in atmosfera di anidride carbonica (CO2) in quantità
strettamente proporzionali alla energia totale usata. Tale modalità di
generazione dell’energia è non rinnovabile e non sostenibile. Infatti,
centinaia di milioni di anni fa grandi masse di clorofilla hanno cominciato a
rimuovere carbonio nella forma ossidata (sotto forma di CO2)
dall’atmosfera, per riporlo nei propri tessuti sotto forma ridotta, nei legami
C-C e C-H. Contemporaneamente, veniva immagazzinata energia a spese di quella
solare, come è chiaro dalla reazione generica che segue e dalla spiegazione
della struttura energetica delle molecole organiche data tra breve:
iCO2 + clorofilla + fotone + mH2O ®
n(R-CH-S) + clorofilla + wO2,
dove i coefficienti
stechiometrici dipendono dal tipo di molecola organica formata, mentre R ed S
sono radicali organici generici comunque complessi. La clorofilla agisce da
catalizzatore, mentre il fotone assorbito fornisce l’energia necessaria per la
riduzione (vedi qui sotto). Nel corso degli ultimi circa 200 milioni di anni,
una frazione considerevole di tale manto clorofilliano è morto, putrefacendosi
e trasformandosi in petrolio, gas naturale e
carbone. I legami C-C e C-H
(maggiormente quest’ultimo) hanno una buca di potenziale meno profonda del
legame C-O. La differenza è quella che l’uomo usa per produrre energia,
riossidando il carbonio (i.e. bruciando i combustibili fossili) e di
conseguenza producendo anidride carbonica.
L’insostenibilità di tale processo umano di generazione di energia sta
nel fatto che - per ordini di grandezza - essa è stata immagazzinata nel corso
di più di 200 milioni di anni, mentre noi la stiamo consumando (e immettendo in
atmosfera) in soli 140 anni, anzi -essenzialmente- negli ultimi 60! La velocità
di consumo -umano- è così circa 3 milioni di volte quella di produzione -
naturale.
A questo punto bisogna ricordare che l’equilibrio termo-radiativo dell’atmosfera è
regolato, a parità di irraggiamento, dalla concentrazione - in atmosfera - dei
cosiddetti gas di serra, ossia dalla
concentrazione di molecole che hanno alti coefficienti di assorbimento (ossia
in definitiva alte sezioni d’urto) nell’infrarosso. Tra le molecole naturali
essenzialmente troviamo l’acqua (H2O) l’anidride carbonica (CO2)
e il metano (CH4). Mentre
l’equilibrio radiativo boltzmaniano - che si avrebbe in assenza di atmosfera -
tra la radianza solare e il reirraggiamento da diseccitazione dei livelli
roto-vibrazionali assegnerebbe alla superficie del nostro pianeta una
temperatura media[19]
di circa -20° C, la presenza dei
suddetti gas di serra garantisce una media di circa 15° C. Questo è quello che si chiama l’effetto serra
naturale. In maniera quantitativa, per
il lettore fisico, diamo qui di seguito le espressioni per la potenza radiante
assorbita per unità di superficie e per il contributo dell’effetto serra alla
derivata della temperatura media al livello del mare. Esse si ottengono
mediando - sulle frequenze infrarosse rilevanti - l’equazione differenziale del
trasporto radiativo, e manipolando opportunamente l’espressione ottenuta,
uguagliando poi la radianza assorbita per transizioni roto-vibrazionali alla
derivata rispetto al tempo dell’energia interna media dell’atmosfera per unità
di superficie:
(global warming potential)
(1)
dove la sommatoria è estesa
a tutte le specie molecolari rilevanti, ni è la densità numerica delle molecole
considerate, è la sezione d’urto
monocromatica relativa alla specie molecolare i alla frequenza n e I(n) è la radianza riemessa dalla superficie terrestre
nell’infrarosso. Questa equazione descrive ovviamente la media spaziale su
tutta la superficie del pianeta. Il corrispondente contributo alla derivata
della temperatura[20]
media <T> è:
(2)
dove r è ovviamente la densità
dell’atmosfera (più precisamente della parte in cui avviene l’assorbimento) k è
la costante di Boltzman, mH la massa dell’atomo di idrogeno, e m è il peso molecolare medio.
Figure 1 The World
Industrial Product (deflated world “GDP” in real value - i.e. in physical
equivalent). The unit is an index number, set as base=100 in 1963. To obtain
-with good approximation- the value in US$ (1990 value) multiply by 212.1
billion. Doubling time@17 years.
Data: The World Bank (hereafter WB); stats.: GDI[21]. |
Figure 2 The CO2
emissions (in CO2 mass units: to obtain GtonC - i.e. Carbon units
- multiply by 12/44 @ 0.2727). Doubling time@29 years. Data: CDIAC; stats.:
GDI. |
Il problema è che l’uomo, dall’inizio della rivoluzione
industriale, per soddisfare il fabbisogno di energia - che è cresciuto e cresce
tuttora esponenzialmente, è entrato in un regime di consumo di combustibili
fossili altrettanto esponenziale, emettendo in atmosfera quantità di anidride
carbonica esponenzialmente crescenti (vedi fig.2) con un tempo di
raddoppiamento di 29 anni circa. Ciò è servito, in definitiva, ad alimentare la
crescita economica (vedi fig. 1), altrettanto esponenziale, ma con un tempo di
raddoppiamento più rapido, dovuto al miglioramento tecnologico delle efficienze
di bruciamento, per cui col passar del tempo sono necessarie quantità di
energia minori per produrre la stessa quantità di prodotto industriale mondiale (WIP). Per la precisione,
quest’ultima grandezza è la generalizzazione a livello mondiale del PIL, solo
che in termini reali (deflazionati, corrispettivi nel caso della figura al
dollaro 1963, e in termini di equivalenti fisici e non puramente monetari). Il
fatto è che per ogni unità di WIP prodotto è necessaria una ben determinata
quantità di energia - a parità di efficienza - e quindi, per motivi
energetico-molecolari, è necessario bruciare una ben determinata quantità di
combustibili fossili, e dunque di emettere una ben determinata quantità di CO2
in atmosfera. L’efficienza è - finora - costantemente aumentata, e questo è il motivo per cui il
tempo di raddoppiamento delle emissioni è più lento di quello del prodotto
industriale, cioè della crescita economica. Detto aumento di efficienza, però,
è ovviamente limitato dal Secondo Principio della Termodinamica, visto che
l’efficienza di cui parliamo - energia prodotta per unità di emissioni di
anidride carbonica - non è soltanto proporzionale all’efficienza economica -
dollari di prodotto industriale per unità di emissioni di anidride carbonica -
ma anche al rendimento termodinamico di qualsiasi macchinario converta
l’energia chimica del combustibile in energia termica e in definitiva in lavoro
utilizzabile. In termini pratici, siamo oggi ad un’efficienza termodinamica
media di circa 0.25, e possiamo crescere - ottimisticamente - fino ad un valore
di 0.75-0.8 al massimo. Questi valori tengono conto delle diverse macchine
necessarie alla vita industriale, agricola ed urbana, per esempio dai veicoli
con motore termico (benzina o diesel) con efficienza intorno al 16-17% (0.16-0.17) alle turbine a gas ad alta
temperatura, con efficienze sperimentali fino al 50% (0.5).
Figure 3 The impressive, strong correlation between the global CO2 emissions and the world industrial product. The implied correlation coefficient is r@0.995. Data from: CDIAC; WB. Correlation and stats.: GDI. |
Per concludere questa
digressione sull’efficienza, con l’attuale trend di miglioramento tecnologico,
possiamo crescere un altro paio di decenni al massimo, prima di “sbattere”
contro il Secondo Principio della
Termodinamica. Dopodiché le emissioni cominceranno a salire con lo stesso tempo
di raddoppiamento del WIP. Usando i dati
forniti dalla Banca Mondiale, in termini sempre reali, e del CDIAC[22] si può vedere in fig. 3 l’impressionante
correlazione esistente tra la crescita economica (il WIP) e le emissioni negli
ultimi 150 anni circa: il coefficiente di correlazione è r@0.995. La relazione tra
l’efficienza economica, e, il prodotto
industriale mondiale WIP e le emissioni, E, è:
E
= WIP/e. (3)
La conseguenza
dell’aumento esponenziale delle emissioni di anidride carbonica in atmosfera,
in atto da circa 150 anni, è un drammatico - per l’umanità - aumento della
concentrazione di CO2 , come si può vedere nelle fig 4 e 5, su due
diverse scale temporali (dati del CDIAC; IPCC[23];
NGDC[24];
UKMO[25]).
In fig. 4 possiamo vedere le fluttuazioni naturali che i dati ci mostrano nei
mille anni circa prima del 1850, e la rapida crescita esponenziale successiva,
tuttora in atto. La fig 5 è il dettaglio dell’era industriale in cui stiamo
vivendo.
Figure
4 The natural CO2
variations and the anthro-pogenic increase after the industrial revolution in
1800. In this graph, and in all the next ones showing a best-fit curve to the
data, the continuous lines above and below the fit are the 99% confidence
levels (inner lines) and the 99% prediction levels (outer lines from the
fit). Data from the IPCC (1995); CDIAC. Statistics: GDI
1997. |
Figure
5 A zoom-in on the 1850-2000 interval
of Fig. 1a, showing the exponential trend in the data regarding the CO2
concentration after the industrial revolution. Note the very short e-folding
time (40 years), corres-ponding to a doubling time of only 27 years.
Data from IPCC; CDIAC; det.
coefficient: r2@0.98; best-fit and conf. levels by GDI 1997. |
Possiamo notare che
il valore di concentrazione naturale
di CO2 , quello cioè che garantiva il benefico effetto serra
naturale , era di circa 280 ppmv (parti per milione in volume) mentre in 150
anni - ma essenzialmente negli ultimi 70 - abbiamo portato la concentrazione di
anidride carbonica a poco meno di 364 ppmv (valore fine 1998) pari ad un
aumento del 30% circa. E aumentiamo con
un tempo di raddoppiamento attualmente uguale a 27 anni, che fatalmente
scenderà a soli 17 anni in meno di un paio di decadi, per la saturazione delle
efficienze imposta dal Secondo Principio TDN agli attuali tassi di sviluppo
tecnologico dell’Occidente. Una accelerazione tecnologica della Cina,
dell’India e di altri importanti PVS[26]
(paesi in via di sviluppo) diminuirà ancora il tempo in capo al quale ci sarà
l’attesa saturazione.
Una brevissima digressione generale: al lettore attento non sfugga il legame di tutto ciò con il problema dell’energia. A questo scopo, si ricordi che stiamo parlando di “problemi” -eufemisticamente definiti tali - causati dal processo di generazione di energia, che avviene al 95% bruciando combustibili fossili. Torneremo ovviamente su questo e sulle conseguenze economiche e militari. Starà al lettore stesso di trarre eventualmente quelle politiche generali.
Figure 6 The temperature anomaly after 1860. Data: IPCC; UKMO |
Andiamo avanti con i dati: cosa è successo alla temperatura media
superficiale dell’atmosfera del nostro pianeta in questi 150 anni di crescita
esponenziale economica e quindi di emissioni di CO2 ? Questo si può vedere dalla fig. 6 (sorgente
IPCC;UKMO; anche NGDC del NOAA), che mostra l’andamento della temperatura media
superficiale dal 1860 ad oggi. E’ evidente il trend in crescita, a parte
oscillazioni cicliche e stocastiche. In conseguenza di tale aumento di
temperatura (circa 0.6 °C in un secolo) si è
riscontrato un aumento del livello medio del mare di 25 cm (nel Mediterraneo
circa 11 cm, a causa della prevalenza dell’evaporazione in questo bacino
chiuso).
Figure 7
220,000 years of data on the CO2 concen-tration from the
Vostok ice core. Source: NGDC (NOAA Palaeoclimatology
Program); NSIDC[27]. |
Figure 8 Same as fig. 5, but for the temperature
anomaly. Source: as in Fig 7. |
Andando a vedere i dati paleoclimatici, possiamo per
esempio valutare in fig. 7 e 8 l’andamento misurato della temperatura e della
concentrazione di anidride carbonica ottenuti analizzando le bollicine d’aria
intrappolate nel ghiaccio del carotaggio di Vostok[28]. Il grafico plotta dati riferentisi a 220 mila
anni prima di oggi[29].
Risulta evidente la forte correlazione tra l’andamento della CO2 e
la temperatura. Si vede inoltre che la concentrazione atmosferica di anidride
carbonica ha oscillato tra circa 180 ppmv e 300 ppmv. Da altri data set, più
dettagliati nei passati 10 mila anni, si vede che il valore della concentrazione preindustriale - 280 ppmv
- era ormai stabile da molte migliaia di anni, con le oscillazioni visibili in
fig. 4 prima del 1800 circa.
Figure 9. In this graph, the measured data end in
1997. The extrapolation to the year
2100 is a pure BAU behaviour of the CO2 concentration historical
data, with a best estimate of somewhat
less than 1300 ppmv, actually higher that that implied by the IPCC scenario
IS92e. Statistics: GDI 1997.
Data source as in Fig 1b. |
Se riportassimo in
fig. 7 l’aumento antropogenico di anidride carbonica degli ultimi circa 100
anni, sarebbe una retta verticale fino a 363 ppmv. E l’attuale trend business-as-usual [30](BAU)
prevede il raddoppio (560 ppmv) del
valore preindustriale entro 35 anni circa (anzi solo 20 se la
saturazione dell’efficienza avverrà prima). Entro la fine del secolo venturo il
business-as-usual trend ci farà arrivare a più di un quadruplicamento (vedi
fig. 9). In altre parole, in 100 anni circa avremo prodotto una variazione
della concentrazione atmosferica di anidride carbonica 3 volte maggiore della massima variazione
registrata in poco meno di mezzo milione di anni. Guardando la fortissima
correlazione tra temperatura media e concentrazione di gas serra (sono
disponibili analoghi dati per la concentrazione di metano) è impossibile non
aspettarsi, con tali grandi e rapidissime variazioni antropogeniche della
concentrazione di CO2 un effetto serra di origine antropogenica[31]
di vaste proporzioni - anche senza girare pesanti modelli numerici
idrodinamico-radiativi.
Ogni anno emettiamo complessivamente in atmosfera circa
6.3 miliardi di tonnellate di carbonio, ossia circa 23 miliardi di tonnellate
di anidride carbonica, a cui si devono aggiungere circa 5.5 miliardi di tonnellate di CO2 dovute alla deforestazione[32]
nelle grandi foreste tropicali. Di quei 23 miliardi di tonnellate di anidride
carbonica l’anno, più dei 3/4 vengono assorbiti[33]
dal biota clorofilliano nelle foreste e negli oceani[34].
Il lettore ha a questo punto compreso che - quando verranno meno gli
assorbitori forestali e ci sarà una sink failure delle alghe negli oceani -
l’immissione netta in atmosfera diventera’ di conseguenza più che quadrupla,
senza contare l’aumento dovuto alla crescita economica (che politici ed
economisti fanno a gara a dichiarare “irrinunciabile”[35]).
E’ anche evidente - a questo punto - la forte interazione della crisi climatica
che stiamo descrivendo con la crisi n. 3 (deforestazione). Ne vedremo più
avanti (in questo paper) le implicazioni economiche e agricole.
Questi sono i
dati. E’ naturale che il lettore si
chiederà: cosa succederà all’equilibrio termo-radiativo dell’atmosfera in
presenza di tali violente alterazioni antropogeniche della concentrazione dei
gas di serra? Per rendersi conto della rapidità del processo, si pensi che il pianeta
non vede concentrazioni di anidride carbonica così alte (come quella che raggiungeremo al tasso attuale tra
venti anni) da più di 35-50 milioni di anni. Tale dato si ottiene facilmente
confrontando i record di concentrazione che ssi ottengono analizzando i
sedimenti calcarei[36]
sia a terra che sul fondo degli oceani con le 560 ppmv che raggiungeremo al più
tardi tra 30 anni ma più probabilmente tra 20.
Si tenga presente
che anche altri gas di serra sono in vistosa crescita. Infatti, il metano sta
crescendo esponenzialmente (da processi industriali ed agricoli) e i
cloro-fluoro-carburi (che sono anche
responsabili della progressiva distruzione dello strato di ozono stratosferico)
e gli idro-fluoro-carburi (loro
sostituti salva-ozono) sono anch’essi in rapida ascesa e ambedue sono potenti
gas serra. Infine, il protossido di azoto (N2O) è anch’esso in
crescita esponenziale. I CFC e gli HFC
sono un milione di volte meno abbondanti dell’anidride carbonica, ma
contribuiscono all’effetto serra totale per il 20%, contro il 55% dell’anidride
carbonica, il 17% del metano e l’8% del protossido d’azoto. Ciò è dovuto al
fatto che la sezione d’urto dei CFC è altissima, dell’ordine di 106
volte più alta di quella della CO2. Analogamente accade per il
metano, dove il fattore è quasi uguale a mille. Anche il vapor d’acqua è un potente gas
serra (grande sezione d’urto nell’infrarosso qui rilevante). Tutto il ciclo
dell’acqua (evaporazione, formazione di nubi, precipitazioni, etc) viene
ovviamente seguito nei calcoli e nei modelli, insieme al ciclo del carbonio,
come vedremo tra breve. Ciononostante, anche se il suo contributo netto è alto
e ovviamente è un termine importante nei calcoli, non è l’H2O a “dominare” la scena, in quanto ovviamente
l’aumento di temperatura fa aumentare la tensione di vapore e l’evaporazione
dai mari, causando una maggior immissione di vapore in atmosfera, cosa che
aumenta a sua volta l’effetto serra, con retroazione positiva. Il nesso causale
ovviamente è gas serra antropogenici ® vapor d’acqua. Non
solo, ma il tempo di permanenza media in atmosfera della CO2 è di circa 200 anni, a fronte di pochi giorni
per l’H2O. Il metano permane
per periodi da anni a decenni, e alcuni CFC hanno periodi di permanenza
dell’ordine di 104 anni. Ciò chiarisce ulteriormente perché il vapor
d’acqua, pur essendo un potente gas serra, non è affatto il driving factor dell’effetto serra.
Una vecchia polemica -
superata da prima della metà degli anni ‘80 - era basata sul fatto che la copertura
nuvolosa, in aumento per l’aumento del vapor d’acqua dovuto al riscaldamento
globale[37],
avrebbe “prima o poi”, con l’aumento dell’albedo (riflettività verso lo spazio
esterno all’atmosfera), regolato automaticamente il problema termico,
arrestando il riscaldamento. A parte il fatto che questa obiezione era molto
ingenua e qualitativa, in quanto è da determinare quanto “prima” e quanto
“poi”, prima ancora che i modelli
potessero dimostrare anche numericamente che l’effetto in questione non fermava
il riscaldamento prima di almeno 10°C, era evidente -
dall’analisi dei termini forzanti delle equazioni differenziali - che comunque
tale “equilibrio” si sarebbe raggiunto soltanto quando la temperatura fosse
diventata così più alta di adesso da popolare l’atmosfera con vapor d’acqua
sufficiente ad aumentare l’albedo abbastanza per fermare l’effetto serra, e
questo appariva già qualitativamente venti anni fa avvenire per un
riscaldamento superiore a qualche grado. Per colmo di assessment di questa vecchia polemica - che io riporto per il
lettore che la avesse eventualmente sentita, anche se scientificamente non è
più in discussione da più di 15 anni -
basta valutare il data set della temperatura ottenuto dai sedimenti (analisi
del rapporto O18/O16 etc.) per i pregressi circa 200
milioni di anni (v. fig. 10).
Figure 10 Global palaeoclimatic temperature behaviour from 180 million years before present up to now, in three different time scales. The Vostok ice core data cover roughly the last half (440,000 years) of the 1 million year interval marked with the arrows. (Data from, e.g., IUCC, CDIAC or NGDC) |
Appare infatti evidente che,
essendo la temperatura stata per circa 100 milioni di anni al di sopra di 7° C più calda di ora (e per
decine di milioni intorno a 9° C), il feed-back
negativo “autoregolante” dell’albedo delle nubi non scatta in quel range di
temperature. Siccome la crisi climatica avviene con soltanto 1.5° C in più dell’attuale temperatura, questo
taglia ogni obiezione, anche senza ricorrere ai modelli che descriveremo più
avanti.
Guardando le formule (1) e
(2) per il global warming potential e
per il contributo alla derivata della temperatura dell’effetto serra, si vede
che anche - ovviamente - un aumento di radianza solare potrebbe dare l’effetto
di riscaldamento. Il fatto è che il Sole - la cui irradianza possiamo
ricostruire con buoni proxies fin dal
1600 - ha avuto sì variazioni di irradianza, ma al massimo tra 1375.6 e 1376.5
Wm-2 - meno cioè dell’1 per
mille, mentre i gas serra sono variati - negli ultimi cento anni - del 30% per
mano umana. Per giunta, un famoso articolo su Nature apparso lo scorso anno
(1998) ha fatto vedere i coefficienti di correlazione correnti - a finestra di
200 anni - della temperatura con la radianza solare e con la concentrazione di
anidride carbonica, oltre che con l’indice di polvere in atmosfera. L’analisi
ha dimostrato che la correlazione con la variazione di irradianza solare domina
fino al 1800 circa, mentre dal 1850 in poi è la correlazione con l’anidride
carbonica - in aumento esponenziale - a dominare. Guardando le formule (1) e
(2) - in cui la densità dei gas serra e la irradianza solare compaiono ambedue
al numeratore con la stessa potenza (lineari ambedue) - prevedibile che l’effetto
di riscaldamento dovuto ad un eventuale aumento di irradianza solare inferiore
all’1 per mille non poteva competere con quello dovuto all’aumento del 30%
della CO2 , che per giunta è tuttora in aumento esponenziale, mentre
le variazioni solari sono cicliche, più un trend a salire (nei pregressi 400
anni) di una frazione dell’ordine di 10-4.
Previsioni e modelli
Siamo dunque alle
previsioni sulle conseguenze dei trend rivelati dai dati. Per fare questo, la comunità scientifica ha
approntato (in più di 40 anni di lavoro teorico numerico fluidodinamico) dei
programmi evolutivi complessi, basati sull’idrodinamica a 3D, sul ciclo del
carbonio nella biosfera e nella geosfera, sulla fisica radiativa chiamati GCM
(General Circulation Models) nella versione ultima accoppiati atmosfera-oceano.
Per dare un’idea dello sforzo scientifico in atto, possiamo ricordare che il
governo degli Stati Uniti eroga circa 6.5 miliardi di dollari l’anno (dato
dell’anno fiscale 1998), e che per esempio, la NASA riceve più fondi per i
modelli climatici (del GISS[38])
-1.5 miliardi di dollari - che per il resto delle sue attività spaziali civili.
Il JPL[39]
ha il calcolo di modelli climatici come il più importante e finanziato key
project. Siamo 30 mila ricercatori nel mondo (censimento 1997) a lavorare sul
climate change, di cui circa 14 mila nordamericani. La Germania eroga circa 3
miliardi di marchi l’anno sui climate change studies, e la Gran Bretagna circa
un miliardo di sterline l’anno.
Descriviamo
brevemente un AO-GCM[40].
Si tratta del top della produzione numerica di fluidodinamica oggi esistente,
accoppiato a un insieme di sottomodelli complessi interagenti non-lineari. Per
dare una dimensione numerica, anche i computers one-off dei due laboratori
militari statunitensi (Lawrence Livermore Radiation Laboratory e Los Alamos
Laboratory) sono impegnati con i loro computers top-line. La struttura di un
programma AOGCM (d’ora in poi GCM per brevità) è composta di diversi moduli
contenenti centinaia di subroutines. Le equazioni differenziali da trattare
sono in un sistema di diverse decine, a seconda del grado di approssimazione
nella trattazione delle reazioni in fase gassosa e dei cicli dell’acqua e del
carbonio. Essenzialmente esistono: due grossi moduli che integrano le equazioni
dei fluidi per la circolazione atmosferica e oceanica; un modulo per il calcolo
della radiazione (equazione del trasporto e assorbimenti ed emissività); un
modulo per i sinks di gas serra, con le relative equazioni di continuità; un
modulo per il ciclo del carbonio e uno per quello dell’acqua (contenenti
subroutines per l’evaporazione, la formazione di nubi, i flussi di acqua terra®oceano, le precipitazioni,
con sottomoduli per il ghiacchio flottante e a terra, per la copertura nevosa,
etc.); un modulo per le reazioni chimiche in fase gassosa; uno per la
trattazione dell’accoppiamento del biota tramite i sinks; un modulo per le
sorgenti di gas serra; uno per il particolato in aerosol, e tanti altri che qui
non menzioniamo. Esistono circa una trentina di diversi GCM prodotti da diversi
laboratori, università ed istituti, ma essenzialmente sono derivazioni che
“degenerano” in 5 o 6 tipi di programma, che si possono elencare così (sono i
più importanti e famosi, ma qui non sono in ordine di importanza, anche perché
sarebbe difficile stabilirlo) il programma del GFDL[41],
lo UM[42]
del UKMO, il GISS[43]
della NASA, il BMRC[44]
australiano, un modello cinese[45],
il modello dello NCAR[46],
il modello europeo dello ECMWF, ed altri (come il modello di Pasadena -JPL- e
quello indiano).
Daremo prima un breve cenno alle previsioni così come
sono oggi (aggiornate all’ultimo Assessment Report dell’IPCC, Plenary di Roma,
dic. 1995) e poi daremo un cenno storico sull’IPCC, sul ruolo delle Nazioni
Unite, e sulle previsioni del Club di Roma riguardanti l’effetto serra[47]e
le sue cause primarie, ricondotte all’aumento esponenziale del prodotto
industriale, ossia alla crescita economica esponenziale in atto dalla
rivoluzione industriale ad oggi. L’apparente inversione logica ha lo scopo di
non distrarre il lettore dal contenuto scientifico delle proiezioni - approvato
all’unanimità alla XI Sessione Plenaria dell’IPCC dalla comunità scientifica
mondiale guidata dall’ICSU, mentre il dare i cenni storici subito dopo
permetterà di seguire l’impatto dell’enorme processo scientifico sul climate
change, nonché numerose interazioni con i governi e i poteri economici
mondiali.
L’IPCC, nel SAR[48],
offre due tipi diversi di previsione: una serie di previsioni transienti e una previsione all’equilibrio, come ora spieghiamo. Nel
primo caso, l’IPCC presenta diversi scenari circa le traiettorie evolutive
delle emissioni nel prossimo secolo e conseguentemente calcola le previsioni,
con un best estimate, un minimo e un massimo con livello di confidenza del 95%. Gli scenari suddetti sono caratterizzati
dall’essere BAU per quanto riguarda le misure, ossia si suppone che i governi
non facciano alcun intervento per combattere l’effetto serra, mentre si
ipotizzano diversi scenari di crescita
economica[49],
da cui scendono le diverse traiettorie evolutive delle emissioni. Di
conseguenza, l’IPCC sforna diverse previsioni con un clima transiente,
all’evolvere delle emissioni. Tutti i calcoli sono forniti come media dei
diversi modelli, i quali a monte vengono continuamente testati e comparati, e
viene controllato che lo scarto totale non sia superiore a valori prefissati.
E’ stato infatti istituito (da dieci anni circa) un organismo scientifico
internazionale multidisciplinare, l’AMIP[50],
con il compito di paragonare, cross-testare, e controllare i diversi programmi
peer-reviewed e ufficialmente usati dall’IPCC, oltre che -ovviamente-
paragonare i dati teorici con le osservazioni, dando come condizioni iniziali
situazioni pregresse note e paragonando la previsione teorica ad oggi con i
dati osservativi. Un secondo tipo di
previsione - più nota al pubblico non scientifico - è quella all’equilibrio,
cioè si ipotizza che l’anidride carbonica abbia raggiunto un dato livello (per
ora si usa il raddoppio rispetto al livello naturale pre-industriale) e si
lasciano evolvere tutte le altre variabili (fisiche, chimiche e biologiche)
fino al raggiungimento dell’equilibrio. I modelli - nello standard ufficiale
dell’AMIP - per ora sono in grado di calcolare il “raddoppio” (“2xCO2
world”), ma diversi leading institutes
stanno già calcolando (o hanno già calcolato) le previsioni al quadruplicamento
(4xCO2) come lo UKMO, il GISS della NASA, il GFDL, il BMRC, il
modello cinese, nonché i codes di Livermore e Los Alamos. Ovviamente, come ipotesi
di default, cioè business-as-usual, il quadruplicamento è purtroppo molto più
realistico, come possiamo leggere nel SAR, come abbiamo sentito in uno dei
seminari mensili alla Casa Bianca sul climate change, tenuto dal Prof. Jerry
Mahlman, direttore del GFDL, lo scorso anno, e come possiamo vedere dalla fig.
9 del presente articolo. Per questo motivo, visto che qui ci limiteremo a
riportare le previsioni IPCC all’equilibrio al raddoppio del valore
pre-industriale di CO2) e visto che la natura non-lineare dei
fenomeni e la monotonicità degli impatti con la concentrazione di anidride
carbonica prevedono un fortissimo peggioramento all’ulteriore raddoppio (4xCO2)
e che inoltre questo è addirittura una sottostima della concentrazione verso
cui andiamo nel prossimo secolo se non verranno prese drastiche misure, per tutti questi motivi il lettore deve
prendere le previsioni al raddoppio in equilibrio che diamo qui sotto come una visione super-ottimistica di cosa ci
attende sulla presente traiettoria BAU delle emissioni industriali e
agricole (il che equivale a dire sulla presente traiettoria di crescita
economica senza limite alcuno).
___________________
PREVISIONI IPCC SAR al raddoppio delle
concentrazioni preindustriali di gas serra[51].
(sull’orizzonte del 2100)
¨
TEMPERATURA. Da +1.5°C a +3.5°C, best estimate: +2.5°C (NB. ricalcolate
quest’inverno - febbraio 1999 - in +2.5°C __ +4.5°C, best estimate: +3.5°C). Si tratta di temperature
superficiali mediate terre-oceano e mediate su tutte le latitudini, e su una
finestra temporale di 30 anni, per eliminare le oscillazioni periodiche e
stocastiche). Ciò equivale ad uno
spostamento - verso i poli -delle fasce climatiche da 500 a 1000 Km circa. Il riscaldamento è previsto progressivamente
più pronunciato a latitudini via via più alte (come sta già avvenendo: a fronte
di un riscaldamento di 0.6°C a livello globale
nel secolo pregresso fino ad ora, ai poli e nelle regioni fredde il
riscaldamento è stato di quantità dai 2°C ai 3.5°C).
¨
LIVELLO DEL
MARE. Aumento da 25 cm a 1
metro (con le nuove temperature, circa
da 40 cm a 1.5 m) Sia il livello del mare che la temperatura continueranno ad
aumentare per molto tempo prima di stabilizzarsi, fino ad altri 100-200 anni.
¨
EVENTI METEOROLOGICI
ESTREMI. Il ciclo idrogeologico si
farà più intenso. Le precipitazioni si concentreranno su periodi più brevi,
dando luogo ad alternanza di siccità ed alluvioni, e comunque ad oscillazioni
sempre più pronunciate delle precipitazioni. Spazialmente, ci sarà la tendenza
a creare zone soggette a siccità e zone soggette ad alluvioni. E’ possibile -
anche se non dimostrato - che aumenti in alcune zone la frequenza ed intensità
di eventi come uragani, temporali intensi (frequenza di formazione di Cb) e
tornado. Si prevede l’aumento di frequenza ed intensità delle heat waves[52]. Sono previsti in numero sempre crescente
incendi regionali di vasta estensione ed intensità[53].
¨
MALATTIE TROPICALI. (previsione in collaborazione
IPCC-WMO-WHO[54]). In conseguenza dello spostamento delle fasce
climatiche, una serie di insetti, abitatori abituali delle attuali fasce
tropicali e vettori di malattie tropicali, si sposteranno verso i poli,
causando nelle attuali zone temperate epidemie di malaria, dengue, oncocercosi,
febbre gialla, malattia del sonno, ed altre. Sono previste fino a diverse
centinaia di milioni di vittime delle malattie tropicali nel secolo in arrivo.
¨
INFILTRAZIONE DELLE
FALDE ACQUIFERE COSTIERE. In
conseguenza dell’aumento del livello del mare, praticamente tutte le falde
acquifere delle zone limitrofe con il mare saranno infiltrate da acqua salata,
con danno per l’agricoltura costiera.
¨
CONTRAZIONE DEL
MANTO FORESTALE TROPICALE. A causa
dell’aumento della temperatura in tempi più rapidi di quelli dell’adattamento e
della velocità di migrazione delle foreste, masse rilevanti - fino a molto
rilevanti - di foreste verranno meno, con conseguente addizione diretta di CO2
- dovuta agli incendi a alla putrefazione - e indiretta - dovuta alla
conseguente riduzione del tasso di assorbimento clorofilliano.
¨
DESERTIFICAZIONE. Le
zone desertiche diventeranno più estese, più estreme, e più numerose.
¨
PRODUZIONE AGRICOLA. La produzione agricola sarà soggetta a
variazioni effettive e potenziali
(in generale, diminuzione nelle attuali
fasce temperate[55] e
tropicali, e potenziale aumento nelle fasce fredde). L’aumento potenziale della
produzione nelle fasce fredde, però, richiederebbe interventi come il
dissodamento della Siberia - il SAR non ha stimato il costo e chi sarebbe in
grado di pagarlo su questo pianeta, e neanche l’energia in combustibili fossili
che sarebbe necessaria, al di là del costo - e inoltre la distruzione delle
vaste foreste lì situate.
¨
SCIOGLIMENTO
PROGRESSIVO DEI GHIACCIAI. L’aumento di temperatura sta già progressivamente
sciogliendo i ghiacciai, che si stanno attualmente ritirando ovunque a velocità
dai 15 ai 50 metri l’anno. L’ulteriore aumento previsto porterà alla
progressiva scomparsa dei ghiacci permanenti sui rilievi montuosi, con conseguente
calo della portata di ruscelli pedemontani e fiumi, o addirittura inaridimento
di alcuni, producendo un vistoso calo delle acque da irrigazione.
¨
PROFUGHI DEL CLIMA. In conseguenza della fame per crollo
agricolo e dell’innalzamento del livello del mare, e tenuto conto che quasi
tutti gli insediamenti umani si trovano sul mare, si prevede che diverse
centinaia di milioni (fino a 800 milioni) di profughi si sposteranno in cerca
di zone in cui poter vivere.
¨
VARIAZIONE DELLE
RISERVE IDRICHE. A seguito dell’intensificarsi
del ciclo idrogeologico (v. eventi estremi) il terreno non riuscirà a
trattenere ed accumulare le stesse quantità d’acqua attuali. Si prevedono perciò ammanchi di fornitura
idrica[56]
anche rilevanti[57].
Anche con la sola
attuale concentrazione di anidride carbonica ed altri gas serra in atmosfera
(se cioè per esempio estremo si spegnessero tutte le fabbriche, i veicoli
termici e ogni generatore di energia a combustibili fossili) avremo una crisi
climatica - non è chiaro quanto più lieve anche se più lieve sarà senz’altro, e la situazione
naturale pre-industriale verrebbe ripristinata dopo circa 200 anni. Inoltre, caratteristica di questi fenomeni di global
warming è quella di essere a forte
delay temporale (circa 50-80 anni) rispetto alle cause. Il rapporto SAR mostra che le variazioni climatiche che stiamo subendo adesso sono dovuti alla
CO2 che abbiamo emesso fino ad 80 anni fa, e quella che stiamo
emettendo adesso produrrà i suoi effetti tra 50-80 anni. Il lettore può rendersi conto facilmente di
ciò dando un’occhiata alla formula (2). Infatti, la variabile che pilota
praticamente tutti gli impatti è la temperatura media. Ebbene, derivando la (2)
e trascurando la variazione di radianza rispetto a quella della concentrazione di
gas serra, otteniamo che la variabile su cui l’uomo può agire - le emissioni,
spegnendo o riducendo il regime delle macchine termiche - e cioè la derivata
delle concentrazioni, , è proporzionale alla derivata seconda della temperatura
media, . Da qui scende lo
sfasamento temporale.
La caratteristica
del delay temporale nell’effetto serra e conseguente global warming è veramente perniciosa,
se consideriamo l’attitudine dei politici - e dei governi - a prendere in considerazione i problemi da
risolvere solo quando si sono già presentati, anzi, dopo che sono già accaduti. Tutto ciò è ancora peggiorato, visto
che praticamente tutti gli economisti, l’IMF, le borse e in generale
l’industria tendono a sostenere che, siccome ridurre la crisi climatica costa[58]
e fermerà la crescita e il Mercato[59],
è assolutamente necessario che i governi non facciano assolutamente nulla e che
confidino soltanto nel Mercato stesso, nella magica Tecnologia e nell’ancor più
magica Scienza (che dovrebbero, per esempio, trovare il modo di violare il
Secondo Principio della Termodinamica). Ovviamente il lettore ha capito che
quest’ultimo capoverso NON è imputabile al SAR dell’IPCC, viste le procedure
diplomatiche delle Nazioni Unite che regolano le procedure IPCC, anche se devo
dire che tutti i colleghi con cui ho parlato nei congressi e meetings IPCC e
nei summit negoziali nutrono la stessa convinzione circa l’attitudine di
politici e governi a combattere l’effetto serra prima che sia del tutto fuori
controllo. Lo stesso vale per i giornalisti (specie in Italia e nel resto del
Sud europeo, ma non soltanto) nello scrivere (e in cosa pubblicare)
sull’effetto serra e sulle misure necessarie.
_______________________
PRESCRIZIONI
E DATI IPCC SAR necessari a mitigare l’effetto serra
(si tenga conto che
l’IPCC è un organo prettamente scientifico istituito dalla Nazioni Unite con il
coordinamento dell’ICSU, e i cui scienziati membri con diritto di voto sono di
nomina governativa. Non spetta dunque all’IPCC dire cosa i governi debbono
fare, anche se l’IPCC indica le possibili strade per combattere l’effetto
serra, in accordo con l’Art.2 della Convenzione Climatica -UNFCCC [60]-
di cui parleremo in seguito).
·
STABILIZZAZIONE
DELLA CONCENTRAZIONE dei gas serra, tramite la riduzione delle emissioni industriali. La riduzione delle emissioni
necessaria a stabilizzare la concentrazione dei gas serra al valore del 1990,
se messa in atto nel 1990 e in maniera immediata, sarebbe dovuta essere nel range [-60% , -80%]. Questo significa che al massimo il 20%-40% delle emissioni del 1990
era assorbibile dai sinks naturali, e che quindi la concentrazione atmosferica
non sarebbe variata. Tale misura - non realizzabile, naturalmente, in quella
quantità immediata - avrebbe quindi mantenuto le circa 357 ppmv del 1990
costanti nel tempo. E’ chiaro che, non
potendosi attuare misure così immediate (ancora oggi non abbiamo ridotto nulla,
ma aumentato a 6.3 Gton/year di carbonio dalle circa 5.9 del 1990) ogni ritardo
implica un aumento della percentuale di riduzione, per ottenere lo stesso
risultato. Questo accade poiché la crescita economica continua esponenzialmente
e di conseguenza anche le emissioni continuano a crescere, mentre rimane
sostanzialmente costante la quantità assorbibile, se si trascura la
deforestazione che diminuisce il potere assorbente dei sinks.
·
SCENARI (CURVE DI
EMISSIONE) NECESSARI AD OTTENERE LA STABILIZZAZIONE DELLA CONCENTRAZIONE A
VALORI PREFISSATI. Vengono fornite le traiettorie
di emissione globale che portano alla stabilizzazione della concentrazione a
dati valori: 350,450,550,650, 1000 ppmv.
C’è stata una battaglia tra scienziati ed economisti (questi ultimi nel
Working Group III) per omettere o no i valori alti. Inutile dire che i valori
alti delle concentrazioni sono stati pretesi dagli economisti dell’IPCC. Si
ricordi che i rapporti IPCC vanno poi ufficialmente sul tavolo di tutti i
governi aderenti alle Nazioni Unite.
·
RIFORESTAZIONE. Si consiglia la riforestazione massiccia
per aumentare la capacità di assorbimento di gas serra da parte dei sinks. Si mette però in guardia che una volta
prodotta, l’anidride carbonica sequestrata nei tessuti delle piante può
ritornare in atmosfera nel giro di pochi giorni, tramite per esempio incendi,
come quelli a cui abbiamo assistito nel Borneo, in California, in Siberia e
nelle Amazzoni nell’ultimo anno. Si
consiglia di fermare al più presto ogni pratica agricolo/industriale di
deforestazione. Il dato allarmante è che invece, per motivi economici ed
agricoli, in paesi in cui questa pratica è il principale input economico, la
deforestazione procede ad un tasso tale (ed esponenzialmente crescente) che
anche al solo tasso attuale le foreste tropicali spariranno in soli 30 anni,
meno se il tasso continua col presente trend. Come esempio, si mostra che la
copertura forestale del Nicaragua è diminuita del 70% negli ultimi 20 anni.
Quella delle amazzoni del 10-15%.
·
DIFESE E DIGHE
COSTIERE. Si raccomanda la
progettazione e l’approntamento di barriere e dighe nelle coste a maggior
rischio (basse e sabbiose).
·
APPRONTAMENTO DI
SISTEMI DI GENERAZIONE DI ENERGIE RINNOVABILI. Si considera e si suggerisce
l’uso massiccio di:
à
energia solare (sia i pannelli
fotovoltaici che quelli termici, che immagazzinano energia entropizzata, ma
comunque utilizzabile per il riscaldamento e l’acqua calda);
à
energia eolica (per produrre energia potenziale elettrica
tramite opportuni alternatori);
à
energia ottenuta bruciando le biomasse (per produrre: 1) energia potenziale elettrica facendo
girare turbine a vapore, e 2) calore per riscaldamento;
à
energia elettrica sfruttando il moto ondoso (utilizzando
opportuni pistoni, bielle ed alternatori)
Purtroppo, solo al massimo il 30-40% del fabbisogno (attuale) è così ottenibile.
E, come il lettore avrà ormai intuito, tale percentuale diminuisce
inesorabilmente se la crescita economica, e di conseguenza anche il fabbisogno,
continuano a crescere. L’aumento delle efficienze può al più rendere temporaneamente più lenta la diminuzione della percentuale
del fabbisogno energetico ottenibile con energie rinnovabili in presenza di
crescita economica, in quanto ancor più inesorabilmente il Secondo Principio
della Termodinamica interverrà presto a bloccare detto aumento di efficienze,
non appena i rendimenti termodinamici massimi realizzabili in macchine reali
siano stati sostanzialmente raggiunti.
·
USO DI COLTURE ADATTABILI
ALLE AVVERSE CONDIZIONI CLIMATICHE. (Quando possibile)
L’IPCC mette inoltre
in guardia sulla durata estremamente lunga degli effetti del cambiamento
climatico e sulla loro caratteristica ritardata.
_________________________________________
Anche se per sommi capi, queste sono le previsioni e le “prescrizioni” dell’IPCC per i governi.
A questo punto, il
lettore comprende che nessun governo
può permettersi di ignorare tali risultati scientifici così allarmanti e
semplicemente accettare che anche solo una piccola parte di quanto sopra accada
incontrastata. Da qui a prendere i provvedimenti ce ne passa e, visto che lo
scopo di questa presentazione del problema è quello di mostrare come le grandi
crisi ambientali siano in realtà la vera ragione - e lo rimarranno per lungo
tempo - dei conflitti attuali e di ogni guerra e attività militare per
stabilire la dominance di una o
un’altra alleanza nel gestire risorse ed energia, è ora necessario dare al
lettore un breve quadro storico dell’apparire delle crisi ambientali e
dell’attività scientifica, politica, e negoziale per tentare di gestirle.
2.2 LE
CRISI AMBIENTALI GLOBALI E LA RISPOSTA INTERNAZIONALE.
Questa sezione darà
lapidariamente cenni storici sulle crisi ambientali, insieme all’attività
scientifica e politico-negoziale ad esse collegata. Le connessioni militari saranno invece trattate
nelle Conclusioni.
Prima degli anni ‘60 soltanto
ristretti gruppi di specialisti - ognuno
nel suo specifico campo scientifico e con scarse interazioni col mondo esterno
- si occupavano di tali temi, anche se già molta attenzione veniva dedicata a
questi problemi in quegli ambiti scientifici. Per quanto riguarda l’effetto
serra, già nella prima decade di questo secolo il fisico Arrhenius aveva
inquadrato il problema. Arrhenius aveva notato che già da circa cento anni,
dopo lo sviluppo della Termodinamica e l’inizio della rivoluzione industriale,
il consumo di combustibili fossili era aumentato esponenzialmente, a causa
dell’altrettanto esponenziale aumento del fabbisogno di energia. Il fisico si pose subito il problema
termodinamico-radiativo dell’equilibrio dell’atmosfera con una quantità sempre
crescente di gas serra e calcolò, anche se approssimativamente, il
riscaldamento, ottenendo una stima non molto lontana dalla verità, considerando
i mezzi e le scarse conoscenze di tutti i fenomeni complessi implicati.
Negli anni ‘60, invece, molti gruppi si occupavano già di diversi
problemi allora già evidenti, come: i) l’inquinamento
crescente, ponendosi la domanda di quale fosse il limite naturale di
assorbimento per ogni sostanza tra le più pericolose; ii)
l’effetto serra; iii)la disponibilità delle risorse; iv)
la crescita demografica imponente, esponenziale, e il problema degli
alimenti implicato; v)l’erosione delle terre arabili, dovuta
allo sfruttamento sempre più intensivo;
vi) il calo della popolazione
ittica, dovuto all’attività di pesca divenuta ormai industriale; ed altri
ancora.
Molti istituti prestigiosi, come la
Smithsonian Institution, il Tata Institute e l’Istituto Landau, dedicarono
intere squadre di personale allo studio di questi problemi, anche se il
confronto Est-Ovest appariva allora più pericoloso di queste crisi, nonostante
l’apparente insondabilità di alcune di esse, e la minaccia grave in quanto si
poneva la questione se lo sviluppo industriale - capitalistico o del socialismo
reale - si ponesse in conflitto con l’ambiente naturale in quanto tale (sviluppo
industriale) oppure se fossero possibili soluzioni puramente tecnologiche.
Alla fine degli anni ‘60 molti
indicatori divennero così minacciosi che un nutrito gruppo di scienziati ed
economisti di diverse nazionalità (tedeschi, statunitensi, norvegesi, indiani,
turchi, italiani) decise di costituirsi in organismo scientifico internazionale
per l’assessment di questi problemi e per tentare di fare delle proiezioni su
base scientifica. Si costituirono a Via della Lungara, presso l’Accademia dei
Lincei, nel 1968, e per questo assunsero il nome di Club di Roma. Subito
dopo, con il finanziamento del gruppo Volkswagen e con il supporto numerico del
MIT e del suo General Dynamics Group, diedero il via al progetto di approntare
un modello complesso con molti fenomeni interagenti, basato su un sistema di
equazioni differenziali che allora richiedeva notevole sforzo di calcolo, per
lo studio dell’evoluzione di circa 225 variabili, le cui più rilevanti ai fini
descrittivi dei risultati erano: il
prodotto industriale mondiale, il prodotto agricolo, la popolazione, le risorse
naturali, l’inquinamento. Il modello si avvaleva di un famoso modulo del
General Dynamics Group del MIT, mediante il quale tuttora praticamente tutti
gli organismi finanziari, le holdings, le imprese multinazionali e le grandi
banche prevedono con notevole approssimazione lo sviluppo
industriale-economico. Non solo, ma diversi istituti statunitensi avevano sviluppato
separatamente un complesso sistema di equazioni differenziali e di relative
subroutines per la previsione e lo studio dell’evoluzione dell’inquinamento da
pesticidi in agricoltura e da metalli pesanti e sali basici nei grandi laghi
del Mid-West. Tale modulo funzionava notevolmente bene. Si aggiunsero al gruppo demografi e geofisici
per lo studio dell’evoluzione della popolazione e delle risorse. Il Club di Roma commissionò un rapporto
scientifico entro 3 anni, rapporto che fu effettivamente redatto dal MIT al
Club di Roma nel 1971, subito tradotto in più di 30 lingue[61]
e sottoposto all’attenzione dei governi dei paesi più influenti.
Il rapporto mostrava
che il sistema economico-industriale-agricolo, la popolazione e il sistema
ambientale, in breve il sistema delle società umane, andavano incontro a una
crisi ineliminabile con mezzi puramente tecnologici, dovuta essenzialmente a
due esponenziali: la crescita del prodotto industriale - ossia la crescita
economica - e la crescita demografica. La crisi era prevista dal modello, in
diverse varianti, nell’intervallo temporale dal 2010 al 2040. Il modello faceva
partire le integrazioni usando come
condizioni iniziali i valori noti del 1900, permettendo quindi fino al
1971 di confrontare i risultati teorici con i dati noti osservati fino ad
allora. Le integrazioni proseguivano poi in quella che era una sia pur
approssimata proiezione. Il modello non
aveva la pretesa di fare una reale previsione, ma sondando ipotesi diverse più
che ottimistiche (infatti poi non realizzate) cercava di vedere se i diversi
tipi di crisi fossero eliminabili con provvedimenti puramente
economico-tecnologici, senza cioè rallentare la crescita economica e
demografica. Le ipotesi super-migliorative sondate furono: 1) il raddoppio, e
poi il quadruplicamento delle rese agricole dal
1975; 2) l’introduzione, dal 1975, della fusione nucleare come mezzo di
generazione dell’energia; 3) l’introduzione di tecnologie atte a combattere
l’erosione dei territori arabili; 4)la riduzione da 20 anni a 5 anni del tempo
totale di risposta del sistema politico-economico-tecnologico alle innovazioni
tecnologiche nell’introdurle nel sistema mondiale[62];
5) l’ipotesi che le stime di risorse naturali fossero sottostimate di un
fattore 2; 6) l’ipotesi che la società
umana riuscisse ad adottare entro il 1975 misure efficaci per il controllo
della popolazione nei PVS; 7) il modello
è stato fatto girare con diverse miscele di queste ipotesi super-migliorative,
fino a far girare il modello con tutte queste ipotesi contemporaneamente. La crisi si spostava - a seconda dei casi
- al più di 20 anni, in molti casi di pochi anni, ma rimaneva: una o più
variabili andavano in overshooting
rispetto a qualche valore critico e poi in collasso, trascinando le altre. Le risorse naturali, al contrario di
quanto sembra oggi essere nell’accezione
di molti circa il lavoro del MIT, NON ,
anche se ovviamente diminuiscono, più o meno velocemente a seconda del tasso di
crescita del particolare run del
modello. Sull’orizzonte del 2000 (che per il lavoro del MIT era una proiezione
di 29 anni) tutti i casi prevedevano riduzioni di appena il 20% o al massimo
del 40%. E’ ovvio che il sistema sarebbe
collassato - se tutte le altre variabili avessero “retto” - nel momento in cui
le risorse si fossero esaurite, ma il fatto è che tutti i runs mostrano
l’instaurarsi di una crisi - con collasso del sistema - prima che le risorse
naturali collassino. E’ importante che il lettore ricordi questa caratteristica
delle crisi del modello del MIT. Le
crisi previste dal modello si manifestavano a volte nel collasso del prodotto
industriale, seguito dalle altre variabili, con un overshooting di inquinamento
sfasato in delay e un overshooting della popolazione, che piccava per ultima. A
volte il modello dava collasso prima nel
prodotto agricolo (alimenti), seguito da quello industriale, dopo che il
sistema aveva tentato di allocare sempre più capitali per arrestare il collasso
agricolo. A volte (nel caso della “energia a costo trascurabile”, con la fusione
controllata) i capitali - liberati dal fardello del finanziamento dell’energia
- permettevano una crescita economica ancor più rapida, con conseguente
esplosione dell’inquinamento, conseguente collasso del prodotto agricolo, e
collasso finale della popolazione, che in diversi casi piccava tra il2010 e il
2030 a valori tra 8 e 11 miliardi di individui, per poi ridursi a meno di un
miliardo sull’orizzonte del 2100. A volte era il prodotto industriale a piccare
e a collassare per primo, a causa dell’esplosione dell’inquinamento, e
l’allocazione di risorse troppo ingenti. Ogni modello veniva studiato su tale
orizzonte temporale. Per concludere questa breve carrellata sul rapporto del
MIT al Club di Roma, il rapporto
dimostrava che la causa delle crisi erano i due esponenziali, come driving
forces: la crescita industriale e la crescita demografica. Si dimostrava che
queste ultime non potevano continuare fino al periodo 2020-2050. Soprattutto,
la serie di studi numerici dimostrava che la crescita economica non poteva
continuare per sempre in un mondo non infinito come il nostro, e in cui ogni
sorta di limiti compare prima o poi per ogni variabile. I limiti sono da
intendere come valori superati i quali la variabile collassa, rendendo prima
instabile il sistema e poi trascinando via via tutte le sue variabili chiave in
collasso, causando alla fine il collasso del sistema. Lo studio dimostrava che la soluzione -
anzi il ventaglio di soluzioni - passavano tutte per una graduale frenata della
crescita industriale e della popolazione, accompagnate da miglioramenti
tecnologici e shifts economici significativi.
Le reazioni dei governi, dei
politici e della maggioranza degli economisti nel mondo furono un vero
putiferio. Il mondo industrializzato
occidentale -capitalistico- sosteneva che
non si erano sondate abbastanza le virtù del mercato e della tecnologia,
cioè che nel modello non erano state inserite le capacità di risposta relative.
Questo claim degli occidentali non aveva alcun fondamento, in quanto il modulo
del General Dynamics Group del MIT era (ed è tuttora) usato per ogni previsione
di sviluppo industriale ed economico in tutto l’occidente (e ora nel mondo). I
meccanismi di risposta del sistema tecnologico in World3[63]
erano ben presenti, e riproducevano numericamente ciò che fanno tutte le
multinazionali hi-tech in borsa e nella produzione. Semmai, i meccanismi in
questione erano in World3 troppo efficaci
e pronti, e in definitiva troppo
ottimistici. Il MIT, d’altra parte, fece questa soprastima dei meccanismi
dell’interazione del mercato con la tecnologia intenzionalmente, proprio per
controllare se le crisi erano o no eliminabili senza toccare la crescita. Il
mondo del blocco orientale, da parte sua (sia quello dei paesi alleati
dell’URSS che la Cina e gli altri paesi socialisti) gridò che questo avveniva
(nel modello) soltanto perché esso funzionava con i meccanismi capitalistici e
non conteneva i meccanismi regolanti del mondo socialista. Sbagliava anche il
blocco orientale, perché in nessuna parte
nel modello era incluso un meccanismo politicamente capitalistico: il sistema
allocava risorse all’agricoltura, all’industria, o a combattere l’inquinamento
senza distinzione alcuna delle classi sociali a favore delle quali era fatto.
In altre parole, nel modello, la popolazione è approssimata come un tutto
unico, e i provvedimenti tecnologico-economici presi da World3 potevano
benissimo essere presi dalla Casa Bianca come dal Politburo, dal Gosplan, da
Downing Street governata dai Tories o dall’esecutivo della Cina Popolare. Infine, anche i PVS non-allineati diedero
addosso al lavoro scientifico del MIT, sostenendo che l’arresto della crescita
avrebbe implicato che la loro condizione di sottosviluppo sarebbe stata
cristallizzata per legge. Questi ultimi in particolare sbagliavano anch’essi,
perché il rapporto del MIT parla chiaramente ed estesamente di una redistribuzione di risorse tra Nord e
Sud del mondo, energia e prodotto industriale, come condizione sine qua non per poter arrestare la
crescita su valori sostenibili da tutta l’umanità, senza guerre e conflitti che
altrimenti sarebbero inevitabili.
Alcuni governi di paesi occidentali,
come gli USA e la Gran Bretagna, spaventati per la minaccia del messaggio
portato dagli scienziati del Club di Roma[64], istituirono addirittura delle task--force interministeriali per screditare
il Club di Roma, nonché per
diffondere false accezioni ed interpretazioni sul lavoro scientifico del MIT. Questo sforzo propagandistico, appoggiato
abbondantemente dai media, simile a quello odierno di gran parte dell’industria
pesante USA per tentare di screditare l’IPCC agli occhi dei membri del
Congresso, fu molto efficace, previde spese di milioni di dollari (in valuta
del 1972!!), nonché l’arruolamento di diversi professori di economia - come il
prof. Nordhaus, che scrisse un libro di risposta al lavoro degli scienziati del
MIT intitolato “Models of Doom”[65]
. Il prof. Nordhaus scrisse diverse
volgarità grossolane dal punto di vista scientifico, come l’asserzione che il
Secondo Principio della Termodinamica non c’entrerebbe nulla nella catena
produttiva del processo industriale-economico, sorvolando (o ignorando) che
alla base di ogni produzione - capitalistica o no - c’e sempre la necessità di
energia in forme usabili e non entropizzate, e cioè è sempre necessario
produrre lavoro. Siccome il lavoro viene prodotto dai combustibili fossili
bruciandoli ed ottenendo calore, succede che - con o senza l’assenso di
Nordhaus e di altri esimi economisti - la fisica c’entra per forza, e in
particolare c’entra il Secondo Principio.
Nordhaus, inoltre, tentò (con successo, purtroppo[66])
di vendere ai media una distorsione fondamentale delle crisi previste dal
rapporto del MIT, e cioè che esse sarebbero dipese dal fatto che i modelli
arrivavano al collasso per l’esaurimento delle risorse. Falso! Leggere per
verificare.
Per disgrazia dell’establishment economico occidentale di
allora, lo shock sollevato dal lavoro del MIT si aggiungeva a quello provocato
dai lavori di diversi geofisici e geologi americani - di diverse università -
guidati dal geofisico prof. King Hubbert, che aveva previsto con successo un
decennio prima il picco del tasso di estrazione del petrolio dal territorio
statunitense avvenuto come previsto nel 1970. Hubbert faceva vedere, che a
causa della complessa geometria dei pozzi, non è possibile estrarre il 100%
della giacenza iniziale del pozzo all’atto della scoperta, perché presto -
quando la giacenza è ridotta al 50%-60% - per estrarre è necessario pompare
dentro vapore ad alta pressione per spremere fuori il residuo, e arriva il
momento in cui l’energia necessaria per fare ciò supera quella ottenuta
bruciando il petrolio stesso. A quel punto esatto - fece notare il prof Hubbert -
l’estrazione finisce semplicemente perché non ha più senso estrarre il
petrolio, in quanto il pozzo diventa non più una sorgente di energia, ma un
assorbitore - a prescindere dal prezzo, di nuovo, con buona pace di certi
economisti. Lo studio di Hubbert prevede che il picco del tasso di estrazione
di un pozzo - o di una intera regione petrolifera - avviene quando la giacenza
totale è circa il 50% del valore iniziale. Hubbert aveva previsto anche che il
tasso del petrolio su scala mondiale
avrebbe piccato - per poi scendere per sempre - intorno al 2020. Anche in questo caso fu sollevato un
polverone, cercando di accreditare presso i media la versione secondo la quale
i geofisici americani si erano sbagliati e che la diminuzione del tasso di
estrazione dai pozzi USA - realmente avvenuta nel 1970 - era in realtà una
decisione politica del governo statunitense
“che aveva deciso di sfruttare prima il petrolio del Medio Oriente per
preservare le scorte Americane”. Questa
balla resiste tutt’oggi nei media - ogni volta che affiora la questione della
durata del petrolio - e nella diffusa opinione pubblica, anche se non ha mai
preso piede negli ambienti geologici e geofisici connessi al problema.
Il polverone sollevato - con una certa efficacia - contro
i risultati del MIT finì così come quello sul petrolio, che doveva
assolutamente essere percepito dall’opinione pubblica come una risorsa “che
durerà ancora centinaia di anni”. Ciononostante, i dati reali erano conosciuti
anche da coloro che cercavano di tacerli all’opinione pubblica o di
falsificarli. Inoltre altri dati
sull’inquinamento, sull’effetto serra, sulla produzione agricola che non teneva
- pur aumentando - il passo della popolazione, sulla desertificazione e
sull’erosione dei territori arabili[67],
continuavano ad affluire. Ciò aumentava il grado di preoccupazione latente nei
governi, fino all’inizio degli anni ‘80, in cui il primo summit sul clima - sia
pur con il mondo scientifico su posizioni non ancora univoche - gettò una luce
niente affatto rassicurante su uno dei principali effetti della crescita
industriale e del fabbisogno annuo di energia: l’effetto serra.
La misura era colma - nonostante i tentativi (ad Est e ad
Ovest) a volte di ignorare, a volte di
sminuire, e nel 1987 le Nazioni Unite, sotto mandato dell’Assemblea Generale,
istituiscono la Commissione Bruntland[68]
sullo sviluppo sostenibile. Il
celebre rapporto della Commissione Bruntland (“Our Common Future”[69])
stabiliva finalmente[70]
che i lavori scientifici dei pregressi 20 anni non erano poi così sballati come
si era sostenuto fino a pochi anni prima. In particolare, si stabiliva con
criteri scientifici che lo sviluppo - usato in realtà come diplomatico
sostitutivo di crescita - non era
necessariamente sostenibile, ma che dovevano addirittura essere soddisfatti
dei criteri generali perché lo diventasse
(non consumare risorse a tassi maggiori di quelli a cui possono essere
ripristinate, etc.). I ricercatori
ovviamente hanno sorriso di tanta ufficialità per stabilire criteri così ovvii,
ma comunque i risultati della Bruntland hanno costituito una vittoria
fondamentale per la continuazione del processo scientifico di indagine su quei
temi, il suo incremento di finanziamento da parte dei governi, e in generale
per il processo di sensibilizzazione sui temi delle crisi ambientali
globali. Ovviamente, i governi non
stabilirono in pratica assolutamente
nulla, sebbene all’interno nacquero in silenzio interi maxi-progetti, come lo
USGCRP[71].
Solo un anno dopo, per l’infuriare delle polemiche che
l’industria pesante e la maggioranza degli economisti avevano scatenato contro
il processo scientifico sull’effetto serra e le necessarie misure, che
minacciavano di nuovo la Crescita Economica e il Mercato, nel 1988, sotto
mandato dell’Assemblea Generale, le Nazioni Unite, con il coordinamento del
mondo scientifico guidato dall’ICSU, affidano all’Organizzazione Meteorologica
Mondiale (WMO) e al Programma Ambiente delle Nazioni Unite di fondare un
organismo internazionale ed intergovernativo di scienziati di ogni disciplina,
con l’obiettivo di seguire permanentemente il problema dell’effetto serra, gli
impatti e le risposte, e di fornire periodicamente ai governi di tutto il mondo
rapporti ufficiali, con la massima autorevolezza fornita dal mondo scientifico.
L’organismo era l’IPCC, l’Intergovernmental Panel on Climate Change.
Il primo rapporto fu uno shock per tutti, ma soprattutto
per chi aveva sostenuto che le preoccupazioni sull’ambiente globale e le sue
interazioni con la crescita erano esagerate e fuori di luogo. La struttura e le procedure IPCC sono tali
che ogni governo rappresentato alle Nazioni Unite nomina due scienziati
delegati con diritto di voto sui rapporti ai governi, ma i lead authors - che guidano i settori scientifici operativi
dell’IPCC - sono di nomina strettamente accademica e vengono nominati dalle
comunità scientifiche sotto guida ICSU.
Il rapporto del 1990 non ottenne l’unanimità degli scienziati, anche se
approvato a schiacciante maggioranza. Si opposero i delegati di Kuwait, Arabia
Saudita, Stati Uniti ed altri paesi produttori di petrolio. Curiosamente, i due
scienziati delegati governativi USA votarono contro tutta una serie di
paragrafi, che erano stati redatti soprattutto con il lavoro scientifico di più
di 4000[72]
ricercatori USA delle massime istituzioni scientifiche del paese, pubbliche e
private, governative (come il NOAA, la NASA, il JPL) e anche militari (come
Livermore e Los Alamos).
Nel 1991 esce un nuovo lavoro di Meadows et al. (“Beyond
the Limits”[73])
in cui il gruppo che aveva - 20 anni prima - fatto scoppiare la problematica
della insostenibilità della crescita rinnova i calcoli, aggiornando i
coefficienti e ottenendo sostanzialmente gli stessi risultati. Soprattutto,
inoltre, confrontano i dati
osservati dei passati 20 anni con
le loro proiezioni del 1971, mostrando che gli scarti massimi riscontrati sono stati appena del 1.8%. Una bella soddisfazione, per il prof. Meadows
e il suo gruppo, che rende loro giustizia di tutte le sciocchezze allora
propalate dai media e dalle campagne organizzate dai governi USA e UK per
discreditarli. Purtroppo, come ho potuto
verificare personalmente, la disinformazione e falsificazione principale (“le
crisi del Club di Roma dipendevano dalla previsione dell’esaurimento delle
risorse non verificatosi”) regge ancora, e anche qui nel nostro convegno
qualche collega ha mostrato di avere questa lettura del lavoro del Club di
Roma. Anche molti giornalisti ambientali mostrano di avere questa falsa lettura
del famoso rapporto del MIT. Comunque, a
livello scientifico, il lavoro di Meadows del 1991 conferma autorevolmente
quello del 1971, e stavolta lo fa con la potenza dei dati. Tra l’altro, il
lavoro del 1971 del MIT prevedeva la concentrazione di anidride carbonica del
1991 con un errore di appena 0.5%.
Gli eventi precipitarono. All’inizio del 1992 l’IPCC
pubblicò il celebre Supplementary Report[74],
con il calcolo degli scenari business-as-usual
delle emissioni e delle concentrazioni di gas serra relative. A tamburo
battente venne convocato ed organizzato per il 1992 a Rio de Janeiro il primo
Summit intergovernativo UN sul clima, dove venne firmata la UNFCCC (Convenzione
quadro delle Nazioni Unite sui Cambiamenti Climatici). Si costituì il primo
schieramento intergovernativo, l’AOSIS[75],
e la Cina cominciò a formare uno schieramento, il cosiddetto G77&China,
inizialmente di 77 paesi (oggi di circa 140) che prese la guida degli interessi
dei PVS, raggruppando uno schieramento molto più vasto del vecchio schieramento
dei Paesi Non Allineati del tempo del dominio dei due blocchi.
La Convenzione fu caratterizzata per un testo molto
avanzato. Infatti, l’Art. 2 recita che
l’obiettivo dei paesi aderenti è quello di riportare la concentrazione dei gas
serra in atmosfera “ad un livello tale da non essere pericoloso per il sistema climatico”. Nella Convenzione UNFCCC si afferma
chiaramente che i paesi industrializzati sono quelli che hanno tratto il
maggior beneficio dalla crescita delle emissioni di gas serra fin qui avvenuta
ed in atto - in quanto tale crescita ha causato la loro crescita economica. Si
continua concludendo che “il maggior sforzo economico deve quindi
gravare sui paesi industrializzati, così come l’onere dell’avvio delle misure”.
Mentre il presidente Bush
dal podio lamentò che “non si può fermare l’economia statunitense per una crisi
climatica su cui il mondo scientifico non sa indicare con esattezza tempi e
intensità”, in altra sede firmava l’articolo sul principio di precauzionalità, che afferma che “ove sia presente il pericolo di vaste distruzioni irreversibili, la
mancanza di certezza matematica sull’entità della crisi non può essere addotto
come motivo per non prendere alcuna misura”. Contemporaneamente alla firma del primo
trattato della storia sul clima, Bush faceva approvare un aumento del budget
del pacchetto di programmi scientifici dello USGCRP da 2.5 a 4 miliardi di
dollari l’anno... Da quell’anno, la NASA cominciò a ricevere più soldi per le
sue attività di modellistica ed osservazione climatica che per tutto il resto
delle sue attività spaziali civili.
I paesi firmatari cominciarono il processo di ratifica
(il Parlamento Italiano ratificò la UNFCCC e la convertì in Legge dello Stato
nel gennaio 1994, con L.65/94[76].
All’inizio del 1998, la Convenzione fu ratificata da 165 parlamenti su 180. La UNFCCC istituì inoltre un organismo
negoziale per installare un Organo Supremo dei governi di tutto il mondo per
prendere le future decisioni con valore
di legge sul clima. Era l’INC[77],
che ebbe il compito di istruire i meccanismi, i regolamenti e le sottostrutture
della Conferenza delle Parti (COP), che si sarebbe riunita a Berlino nel marzo
1995 per la prima volta, per poi essere convocata annualmente. Visto che la
Convenzione era piena di buoni principi, ma senza il potere forzante di legge,
l’unica cosa concreta che fu stabilita a Rio era proprio la COP, Organo Supremo
sul clima che stava alla UNFCCC come un parlamento nazionale sta alla propria
Costituzione.
Nel frattempo, sintomi come l’aumento della frequenza
degli uragani nelle zone tropicali degli oceani e l’aumento della frequenza dei
tornado negli Stati Uniti, così come l’aumento della frequenza delle siccità e
delle alluvioni - in termini di trend sul grande periodo, al di là cioè delle
oscillazioni climatiche periodiche e/o stocastiche, spingevano ancora sui
governi - e sull’industria delle grandi riassicurazioni - provocando
un’ulteriore accelerazione negoziale.
A livello scientifico, i modelli e l’analisi teorica
facevano ormai grandi passi, e fu sconfitta nel 1994 l’ultima obiezione di una
parte di ricercatori dei paesi petroliferi e dei delegati governativi USA, che
si aggrappava ad una discordanza di qualche decimo di grado (0.3-0.4°C) tra la riproduzione
teorica con i modelli del riscaldamento globale osservato in questo secolo e i
dati, nel senso che i modelli davano un riscaldamento 0.3-0.4°C maggiore
dell’osservato. Il problema fu risolto
inserendo nei calcoli il - sia pur lieve - raffreddamento indotto dal
particolato in aerosol da SO2 e SO3 . L’anidride
solforosa e la solforica si producono infatti in massicce quantità nel processo
di bruciamento nelle centrali elettriche a carbone. La nube del particolato ha
breve raggio di azione (poche centinaia di chilometri) e breve durata (qualche
giorno). Per questo non influenza sostanzialmente il clima globale, tranne per
quell’effetto calcolato di raffreddamento lieve. I modelli del secondo
assessment (SAR), in preparazione per l’approvazione formale all’inizio del
1995, ottennero per la prima volta l’unanimità, costringendo infatti anche i
delegati di Stati Uniti, Arabia Saudita e Kuwait ad approvare ill rapporto.
La prima Conferenza delle Parti, a Berlino nel marzo
1995, stabiliva che gli oneri e gli impegni addebitati ai paesi
industrializzati nel testo della Convenzione non erano adeguati al compito di combattere l’effetto serra senza
danneggiare gli interessi dei PVS, non responsabili del vistoso aumento
(del 30%) della concentrazione di
anidride carbonica finora registrato. Il Summit di Berlino fu sul punto di
fallire completamente, quando gli Stati Uniti, il Canada, l’Australia e la
Nuova Zelanda pretesero - per andare verso un trattato sul clima che prevedesse
l’inizio delle riduzioni - che anche i paesi poveri se ne facessero in qualche
modo carico. La sollevazione della Cina,
dell’India, del Brasile, dell’intero e appena costituito African Group, di
tutti i paesi asiatici (tranne la Corea del Sud) e di tutta l’America Latina
impedì il fattaccio, e gli USA accettarono di capitolare, non riuscendo a
trovare una ragione pronunciabile per sostenere che, dopo aver loro stessi
(soprattutto) e l’Europa creato il problema, dovevano essere anche i paesi
poveri a spartirsene l’onere. Fu decisivo il fatto che la Cina e l’India
minacciarono velatamente di passare a produrre tutto il loro fabbisogno di
energia a carbone[78]...
La COP istituì dunque l’AGBM[79],
il cui mandato era quello di individuare adeguati inasprimenti degli oneri di
riduzione delle emissioni a carico dei soli paesi industrializzati (“Annex I
countries”), da fare entrare in vigore entro la COP3 - da tenere a Kyoto nel
dicembre 1997 - tramite un “Trattato con forza di legge”. Era
già un risultato storico per il mondo scientifico, che a seguito di calcoli e
lunghi studi per salvare l’umanità dai peggiori impatti da effetto serra, per
la prima volta forzava decisioni governative in direzione potenzialmente
minacciosa per la crescita e il mercato. La COP è continuamente una interazione
dei membri governativi con gli scienziati, che sono presenti sia come membri
del SBSTA- corpo scientifico della Conferenza delle Parti - che come
osservatori. Nella COP sono rappresentati - senza diritto di voto - anche i
rappresentanti dell’industria e del mondo ambientalista.
Ormai il processo scientifico era a valanga. Nel dicembre
1995 (1-11) a Roma la XI Assemblea Plenaria dell’IPCC ratificava all’unanimità
il Second Assessment Report (altrove descritto in questo articolo). La ratifica
avvenne dopo una battaglia accanita - articolo per articolo[80]
- dei due delegati USA con diritto di voto - peraltro contro la stessa
delegazione scientifica USA che contava più di cento membri - insieme ai
delegati di Kuwait e Arabia Saudita per tentare di redigere il sommario per i
governi in forma edulcorata rispetto al documento scientifico già approvato
all’unanimità. In pratica ogni 3-5 minuti, per 10 giorni, i sei delegati di
USA, Kuwait e Arabia Saudita hanno tentato di fare approvare, in ogni articolo,
delle espressioni come “potrebbe”, “forse”, “probabilmente” in affermazioni
scientifiche del documento-sintesi per i governi, mentre nel documento
scientifico integrale (di cui la sintesi per i politici era solo il riassunto)
loro stessi avevano approvato - all’unanimità - espressioni contenenti assoluta
certezza. Il lettore deve immaginare il
Chairman, lo Svedese prof. Bolin, che bocciava uno dopo l’altro i tentativi di
“mitigazione” del documento riassuntivo per i governi, con osservazioni tipo:
“ma perché mai lei vuole dire che questa affermazione deve essere riportata in
forma dubitativa, quando lei stesso nel documento scientifico integrale la ha
già approvata in forma di certezza, e soprattutto quando proprio l’intera sua
vasta delegazione scientifica è stata responsabile della dimostrazione che
andava usata l’espressione di certezza? Perché vuole che il suo governo legga
qualcosa di diverso rispetto al documento scientifico integrale, nel documento
che lo riassume??”. Per finire la descrizione dello scontro, bisogna dire che
il documento ha rischiato di non essere approvato, perché a metà percorso gli
Stati Uniti hanno preteso di cambiare unità di misura della produzione
nazionale di anidride carbonica: volevano che nel rapporto per i governi
fossero usate non le unità del rapporto integrale scientifico, e cioè
tonnellate di CO2 pro capite, da cui risultava che un cinese produce
20 volte meno CO2 di uno
statunitense, ma bensì tonnellate di CO2 per unità di prodotto
nazionale lordo in dollari USA, da cui sarebbe risultato che gli americani
“fanno fruttare bene l’inquinamento”. La battaglia con i delegati cinesi si è
risolta mantenendo le unità del rapporto integrale, ma menzionando che
“potrebbero essere usate anche altre unità riferite al prodotto economico”. La
Cina ha fatto registrare in nota il suo disaccordo.
Il lettore ha così compreso come il rapporto-riassunto
per i governi “Synthesis for Policy Makers” è
stato combattuto fino all’ultimo, per fare arrivare il messaggio meno
allarmante possibile ai governi. Tutto
sommato il tentativo USA è fallito sostanzialmente.
Un anno dopo, a Luglio 1996 nella COP2 di Ginevra, tutti
i governi facevano ufficialmente proprio- sentiti i loro staff scientifici - il
SAR dell’IPCC.
A Kyoto, a dicembre 1997 durante COP3, gli USA - per bocca della Nuova Zelanda a nome del
JUSCANNZ - proposero di porre come condizione per fare il trattato che anche i
PVS accettassero riduzioni e limitazioni. La COP stava per fallire. Vi fu una
sollevazione di praticamente tutto il mondo (UE+G77&China) che faceva
notare che tale proposta assurda era contro la Convenzione stessa e contraria
al Mandato di Berlino (AGBM). Inoltre
era contro ogni logica ed equità, visto che il problema era stato causato dai
paesi industrializzati. Il tentativo USA falliva, dopo gli interventi per
un’intera giornata che ribadivano il no (tranne i sei paesi del JUSCANNZ). E’
rimasto famoso lo sferzante ed ironico intervento cinese, quando il loro
delegato disse: “le vostre sono emissioni di lusso, mentre quelle dei PVS sono
di sopravvivenza: una riduzione del 50%, per esempio, per voi americani
equivale ad avere un’automobile ogni due cittadini adulti invece che una
ciascuno, mentre per i cinesi significherebbe andare in autobus in 60 persone
invece che in 30! Questo non è solo ridicolo, è impossibile.”
Finalmente, la COP3 approva il Protocollo di Kyoto, primo
trattato sul clima con forza di legge,
che prevede complessivamente una riduzione delle emissioni di anidride
carbonica dei paesi industrializzati del 5.2% rispetto al livello del 1990
entro il 2012. Molto poco rispetto alla
riduzione necessaria (del totale delle
emissioni, non solo di quelle del Nord del mondo) del 60%-80% rispetto al 1990[81]. Dal punto di vista quantitativo, il trattato
è praticamente nullo per combattere l’effetto serra, ma è comunque il primo
esempio, è un inizio, e costituisce una riduzione del 24% in media rispetto al
livello di emissioni di gas serra che si sarebbe raggiunto nel 2012 senza
trattato. Inoltre, il Trattato costituisce una sconfitta per quella parte (la
maggioranza) del mondo industriale ed economico che ha combattuto per non fare
approvare nulla. Per esempio, era
presente una delegazione di 100 tra senatori e rappresentanti del Congresso USA
per convincere la delegazione governativa a mandare a monte il Trattato. La posizione della delegazione USA era di
inserire nel trattato una “riduzione dello 0% rispetto al 1990” entro
il 2010, quella dell’UE di ridurre del
15% rispetto al 1990 entro il 2005, quella dell’AOSIS del 25% entro il 2005, e
quella del Giappone di ridurre del 5% entro il 2010, sempre rispetto al 1990
(con un subdolo meccanismo di sconto per chi produceva più PIL, per cui la vera
riduzione sarebbe stata, per USA e Giappone, inferiore al 2% secondo il
protocollo proposto dal governo giapponese).
L’industria pesante USA aveva organizzato un cartello con circa 130
aderenti che ha finanziato spot radio-televisivi per circa 50 milioni di
dollari all’anno per spaventare l’elettore americano. La campagna pubblicitaria
diceva che “l’economia americana perderà colpi e competitività con il trattato
contro l’effetto serra”, che “si perderanno milioni di posti di lavoro”[82],
che “il cittadino americano perderà la sua tradizionale libertà”, che “la
benzina rincarerà di 20 volte”, etc.
Il Trattato di Kyoto è per questo una vittoria, e
costituisce un esperimento, ma si tramuterà in una sconfitta del mondo
scientifico - e dell’umanità - se rimarrà impantanato e inapplicato, e
soprattutto se non sarà seguito da altre, sostanziali misure di
riduzione...specie prima che sia troppo tardi.
Il Protocollo di Kyoto prevede la prima riduzione di emissioni dei paesi industrializzati per
quote differenziate:
·
-8% per l’Unione Europea, che a sua volta al suo
interno ha già quote differenziate (-6% l’Italia, +30% il Portogallo, +40%
l’Irlanda, -25% la Germania, etc.)
·
-7% gli USA (che hanno ottenuto “lo sconto”,
emettendo molto di più dell’Europa (quasi il doppio pro capite)
·
-5% il Giappone
·
0% la
Federazione Russa e l’Ucraina
·
+10% l’Australia (che ha preteso questo bonus
minacciando la non adesione, anche se in barba all’art. UNFCCC sull’equità,
visto che l’Australia non è certo un PVS e la sua economia è più che florida)
Tutte le riduzioni sono calcolate sui valori
del 1990. I gas da ridurre sono (con
coefficienti di equivalenza in base al global warming potential di ogni gas):
¨
l’anidride carbonica (CO2)
¨
il metano (CH4)
¨
i clorofluorocarburi (CFC)
¨
il protossido di azoto (N2O)
¨
l’esafluoruro di zolfo (SF6)
¨
i perfluorocarburi (PFC)
¨
gli idrofluorocarburi (HFC)[83].
L’Unione
Europea si è battuta abbastanza seriamente per ottenere un trattato il più
vicino possibile all’impegno preso da tutti i governi a Ginevra di seguire il
rapporto scientifico SAR. L’UE proponeva -15% rispetto al 1990 entro il 2005,
per mediare tra la proposta AOSIS (-25% entro il 2005) e quella USA (-0% entro
il 2010). Purtroppo, il prezzo da pagare
- da parte dell’UE e della comunità internazionale - per ottenere la firma di
USA e Giappone non è stato soltanto di accordare un misero -7% agli USA (che emettono pro capite il doppio dell’Europa), appena un
-5% al Giappone e addirittura un +10% all’Australia. Si è dovuta accettare una
clausola - fortemente osteggiata dall’Europa e dal G77&China - che permette
il commercio dei diritti di inquinare, il cosiddetto “emission
trading”. In sostanza, gli USA e il Giappone, avendo ben presente il recente
collasso economico della Russia e dell’Ucraina, e ottenendo per questi ultimi
l’assegnazione di una riduzione dello 0% nel 2012 rispetto
al 1990, pretendendo la possibilità di emission trading ottengono adesso
di non ridurre nulla, anzi di poter crescere le loro emissioni semplicemente
acquistandone i diritti dai russi e dagli ucraini! Niente male, vero? Chissà se il clima - e i
processi radiativi di assorbimento nell’infrarosso - faranno distinzioni tra le
molecole di CO2 emesse dagli americani e dai giapponesi da quelle
emesse dai russi... Ci vorrebbero dei processi fisici che avvengono o non
avvengono a seconda delle convenienze del Libero Mercato...
In totale, essendo la riduzione complessiva pari a -5%,
praticamente solo l’Unione Europea dovrà farsi carico della riduzione, visto
che gli americani e i Giapponesi provvederanno comprando i “diritti” dai
Russi. Altro cedimento è stato la
clausola che permette il calcolo netto
delle emissioni, cioè le emissioni
industriali meno le quantità assorbite dai sinks forestali nazionali, in
modo che i paesi con molte foreste debbano ridurre di meno...
Nella COP4 a Buenos Aires, nel novembre 1998, si è
tentato di completare il Trattato con i meccanismi di controllo e di sanzione,
ma senza riuscirvi. Il fallimento è stato causato dal tentativo della
delegazione del governo USA di introdurre il trading dei diritti di emissione
anche con i PVS. Questi ultimi ovviamente hanno rifiutato per i seguenti
motivi:
à
gli USA, il Giappone, il Canada e diversi altri
importanti paesi (per la quota assegnata di emissioni) non hanno ancora
ratificato Kyoto, e dunque i PVS vedono violato lo spirito della Convenzione
(“se non avete ridotto ancora nulla voi che emettete il 90% delle emissioni e
che avete messo in atmosfera il 98% della CO2, perché dovremmo
vendere nostre quote che non ci sono state assegnate, così accettando il
principio di limitarci prima ancora che voi abbiate anche cominciato?”);
à
non ci sono assegnazioni di emissioni per i PVS,
quindi non si sa quanto potrebbero “vendere”.
Va inoltre tenuto presente che l’Unione
Europea vuole introdurre un limite all’emission trading.
Il prossimo 25 ottobre a Bonn, COP5 vedrà una battaglia
decisiva tra USA e G77%China, con l’Unione Europea sostanzialmente ostile a USA
e Giappone, e con un crescente protagonismo dell’African Group all’interno del
G77&China.
Già dal 1996, un gruppo di ambientalisti e ricercatori
britannici - il Global Commons Institute - porta avanti una proposta nuova e
dirompente sulla crisi climatica, capace di coniugare la riduzione delle
emissioni con il principio di equità. Questo è importante non solo perché così
stabilisce la UNFCCC, ma perché è la condizione necessaria perché si arrivi ad
un trattato in cui anche i PVS abbiano il loro sviluppo garantito in maniera
però da non danneggiare il sistema climatico.
La proposta del GCI[84]
- oggi già approvata dal Parlamento Europeo e già applicata alle riduzioni di
emissioni interne all’Unione - si chiama CONTRACTION & CONVERGENCE. Essa prevede che, assunta
una determinata traiettoria delle emissioni globali totali fissata dall’IPCC,
nei primi 30 anni ogni paese abbia una quota di emissioni pro capite variabile
nel tempo, che parte dal valore attuale fino a convergere ad un valore pro
capite uguale per tutti appunto 30 anni dopo l’inizio del periodo di
convergenza. Dopo quel momento, ogni paese continua ad avere lo stesso valore
pro capite, ma riducendo le proprie emissioni nazionali proporzionalmente
all’inviluppo totale. Questo ovviamente costerà riduzioni molto più drastiche
per i paesi che hanno ora emissioni pro capite altissime, ma è l’unico modo di
portare l’India, la Cina, il Gruppo Africano, e il resto dei PVS al controllo
delle emissioni. Inoltre questo darebbe un sia pur parziale compenso (rimanendo
però sempre in credito, da colmare con tecnologia) per quello che negli
ambienti negoziali viene chiamato “il
debito storico”. Questo debito è quello che abbiamo contratto noi - paesi
industrializzati - con i PVS, dato che, avendo pompato in atmosfera il 30% in
più del livello naturale di anidride carbonica nel corso del presente secolo,
abbiamo realizzato una crescita economica e di consumi energetici, causando al
tempo stesso la crisi climatica. Non solo, ma sempre con la nostra crescita
abbiamo innescato anche la crisi energetica, rendendo inoltre materialmente
impossibile altrettanta crescita per i PVS.
Andando almeno alla redistribuzione graduale da qui a 30 anni (ma questo
numero è da negoziare) i paesi in via di sviluppo rimarranno in credito del
debito storico, ma la redistribuzione permetterà a loro di crescere in valore
pro capite di energia e di emissioni, oltre che in valore assoluto. Tutto
questo avverrà però mantenendo le emissioni totali globali in contrazione, come
richiesto dall’IPCC.
Il G77&China ha già mostrato di gradire la proposta
del GCI, con l’esplicito assenso dell’African Group. L’Unione Europea la sta
già applicando al proprio interno.
Infatti, la UE ha accettato una contrazione totale dell’8% rispetto al
1990 entro il 2012, ma all’interno di questa contrazione ha anche trovato lo
spazio per la crescita del 30% del Portogallo e del 40% dell’Irlanda, mentre la
Germania dovrà ridurre del 25%, la Gran Bretagna del 20%, l’Italia solo del 6%, etc.
Passiamo a valutare gli elementi disponibili sulle altre crisi globali.
2.3 CRISI
ENERGETICA
Già nel 1997, il
problema del picco del tasso di estrazione in arrivo nella prossima decade era
uscito dalle ristrette cerchia dei geofisici e geologi, con un famoso articolo
apparso su Nature (apr.’97) con il titolo “Oil Back on the Global Agenda” e in
cui si spiegava che le riserve erano state sovrastimate dall’OPEC e
dall’ex-URSS a scopi puramente di vendita e di prezzo del barile. Nel 1998 la Petroconsultants di Ginevra - un
istituto che fornisce le consulenze geologiche e geofisiche petrolifere a tutte
le multinazionali del petrolio - mostrava che nei passati 50-60 anni il tasso
di scoperta di nuove riserve (in Gigabarili/anno) era sceso costantemente, e da
più di 40 anni è ormai trascurabile rispetto al tasso di produzione e di
consumo. Dal 1997 ogni G7/G8 ha in
agenda un rapporto dell’IEA sulla proiezione del tasso di estrazione di
petrolio e gas naturale. Nel G8 di Mosca del Marzo 1998, l’IEA mostra grafici e
dati complessivi, ritoccando in basso le riserve pretese dall’OPEC di fattori
4-5, prevedendo il picco del tasso di estrazione nel periodo 2010-2015 circa a
livello mondiale (cioè il picco della somma dei tassi di estrazione massimi possibili di ogni pozzo o
regione petrolifera, includendo ovviamente anche tutto il Medio oriente, l’Iran
e il Caucaso). A marzo 1998 la questione
viene pubblicata persino sulla rivista divulgativa scientifica “Scientific American”, con riferimenti, oltre che al picco in arrivo
e ai dati che lo avvalorano, anche alla previsione di King Hubbert, fatta 30
anni prima con sorprendente buona approssimazione. Sui media britannici e USA la questione fa
rumore. Sui media italiani, nulla.
Nel maggio del 1998, l’allora capo esecutivo dell’ENI, il Dr. Bernabè, rilasciava un’intervista alla rivista di economia ed alta finanza Forbes, prevedendo il picco (geologico, non temporaneo) della produzione di petrolio e gas naturale a livello mondiale nel 2005 ± 5 anni, e prevedendo anche un potente shock economico causato dall’esplosione del prezzo del barile, visto che la domanda sarebbe per un po’ continuata a crescere, mentre l’offerta avrebbe piccato. Sui media italiani, come sempre, niente.
Cosa avviene sul fronte negoziale circa la crisi
energetica e le sue micidiali interazioni con la crisi climatica e le
necessarie riduzioni di consumo di energia fossile? Nulla. L’unica sede in cui
- sommessamente - si discute sono i
meetings del G8, ma su questo aspetto l’eco sui media, di nuovo, è pari a 0.
Un cenno importante su un particolare aspetto
dell’interazione di questa crisi con la crisi climatica, che così tanto è
intrecciata con il problema dell’energia, fino a diventare quasi un tutto
unico. Quando si verificherà il picco, come tutti gli analisti - scientifici ed
economici - hanno previsto, i prezzi esploderanno. Anzi, si prevede - come ci
spiega Bernabè dalle colonne di Forbes - che i prezzi cominceranno a salire
quando la derivata seconda della curva del tasso di produzione diventerà
negativa. Cosa ci si deve aspettare
allora? Un violento shock economico, dai risvolti complicati, tranne per alcuni
elementi facilmente prevedibili:
·
I militari diranno che la loro quota di carburanti
non si tocca, in quanto “strategica”;
·
Le quote dei bunker fuels - quelle per alimentare il
grande trasporto marittimo - non si potranno toccare, in quanto non c’è proprio
altro modo di trasportare i grandi carichi di fertilizzanti, acciaio, cemento,
il petrolio stesso là dove l’oleodotto non può arrivare, etc., se non via cargo
marittimo;
·
il trasporto aereo civile crollerà per motivi
tariffari e di disponibilità di kerosene;
·
la quota di petrolio disponibile per il trasporto su
gomma crollerà di una frazione superiore allo shortage totale, a causa dei primi due punti;
·
anche l’industria dell’auto e il suo indotto
crollerà di conseguenza;
·
i prezzi di ogni trasporto e in particolare dei
prodotti alimentari saliranno cospicuamente.
A questo punto, senza altre variazioni, le emissioni di anidride carbonica diminuiranno apprezzabilmente. Una “soluzione” per la crisi climatica? Purtroppo, no, e per due motivi:
1) Tranne per i trasporti
aerei, in cui l’energia elettrica non è di aiuto, il sistema risponderà
spostando l’uso di combustibile dal petrolio e gas naturale al carbone. Infatti quest’ultimo, estrapolando
linearmente il tasso attuale di consumo si esaurirà tra circa 80 anni, e
tenendo invece conto del trend si esaurirà tra 40 anni circa. Se si tiene conto della prossima crisi del
petrolio e della sua graduale sostituzione con il carbone nel produrre energia,
il periodo di disponibilità del carbone potrebbe ridursi a 20-30 anni dopo
l’inizio della crisi del petrolio. La disponibilità del carbone per almeno
20-30 anni causerà un massiccio uso del carbone, e la sua caratteristica
energetica di fornire meno energia per mole di carbonio rispetto agli
idrocarburi, porterà il sistema a produrre circa 33-35% di CO2 in
più rispetto al petrolio per unità di energia prodotta. Si stima che questo compenserà - approssimativamente - la diminuzione delle emissioni
causata dal minor uso di petrolio. Il conto esatto dipenderà dall’entità
della crisi economica indotta e dalla relativa contrazione dei consumi.
2) la seconda ragione è che
il picco del tasso di produzione del petrolio, e perciò l’approssimativo inizio
del calo potenziale delle emissioni avverrà tra 10-15 anni. In capo a questo
periodo, la concentrazione di anidride carbonica - anche se Kyoto venisse
applicato scrupolosamente - aumenterà molto probabilmente oltre le 400 ppmv, e
nel periodo trentennale successivo - dominato dal carbone - supererà anche le
700 ppmv. Ciò è sufficiente per avere una crisi climatica ben più forte di
quella descritta precedentemente, che faceva i calcoli usando una
concentrazione tra 500 e 560 ppmv.
Cosa ci si può aspettare, a livello di schieramenti e a
livello militare?
Questo è complicato, ma
alcune strutture e trend si delineano all’orizzonte. Per esempio, se - come è probabile e
prevedibile - gli Stati Uniti dichiareranno il Medio Oriente “strategico” per
il loro fabbisogno energetico, finirà con ogni probabilità la lunga “amicizia”
con l’Europa, in quanto quest’ultima riterrà il residuo petrolio Mediorientale
altrettanto “strategico”. Visto che la Cina e la Federazione Russa hanno un
trattato militare per la mutua difesa nel secolo venturo, e che a questo
trattato si è agganciata anche l’India, è lecito chiedersi se queste potenze
lasceranno che l’ultimo petrolio sia monopolizzato dagli Stati Uniti. E’
inoltre interessante chiedersi che fine faranno le due ulteriori “amicizie”
degli USA con Cina e Russia.
E l’Islam? Come si
collocheranno i tanti paesi a popolazione islamica? Nei negoziati sul clima i
paesi Islamici sono schierati con la Cina... Per lo schieramento dei paesi islamici
sulla contesa del petrolio, bisogna sapere un fatto fondamentale circa la prossima crisi energetica. Si tratta del fatto che, prima del picco
globale del tasso di estrazione - in pratica tra 5-6 anni - il tasso di estrazione OPEC supererà il tasso di
estrazione dei paesi non-OPEC. Tale dato può essere visto sul sito di
Petroconsultants di Ginevra o su quello del King Hubbert Center. Questo dato è
al centro delle preoccupazioni ormai di ogni G8. Ora, tutti sanno che l’OPEC è controllato
praticamente del tutto dal mondo islamico. Ciò sarà probabilmente il dato
principale per la decisione dello schieramento concreto del mondo islamico
nella prossima crisi del petrolio.
Siccome un serbatoio quasi intatto, anche se perturbativo
rispetto al giacimento Mediorientale, è quello intorno al Mar Caspio, una linea
prioritaria di alimentazione di petrolio per l’Europa è quella che passa nei
Balcani. Questa circostanza, unita alla ancor più importante fattore costituito
dalla strategia della dominance totale, è senza dubbio alla base del conflitto
nei Balcani. Altro che guerra “umanitaria”.
2.4 DEFORESTAZIONE
Il lettore ha potuto valutare - nella sezione sulla crisi
climatica che a tante altre crisi è agganciata - il ruolo chiave delle foreste
- e in particolare quelle tropicali - nell’assorbire e sequestrare l’anidride
carbonica. In aggiunta a ciò, nelle foreste vive più della
metà della riserva di biodiversità del pianeta. Il ruolo di scambiatori di
umidità conferisce inoltre alle foreste un’importanza di valenza agricola, in
quanto anche il regime di precipitazioni è influenzato dalle grandi foreste per
notevoli estensioni attorno ad esse.
Purtroppo, i dati non sono confortanti. Oltre ad essere minacciate dalla crisi
climatica (v. sezione relativa) tanto che si può calcolare approssimativamente
il tempo in capo al quale il riscaldamento intaccherà il grosso delle foreste
tropicali, queste stanno essendo eliminate - ad un tasso esponenzialmente
crescente - dall’uomo. Infatti, ancor
prima di essere usate come sorgenti di legno e carta, le foreste vengono rase
al suolo con tecniche slash and burn
per motivi agricoli ed economici in diversi PVS. Prima di tutto, senza
opportune politiche e tecnologie agricole si rende necessario sempre più
terreno da coltivare. Secondo, l’erosione dei territori arabili da
supersfruttamento agricolo - dove le necessarie tecnologie sono disponibili -
richiede il reperimento di sempre più territori arabili, per la progressiva
riduzione e scomparsa dell’humus. Terzo, le tecniche di piantagione intensiva
di nuovi alberi da frutto richiedono di bruciare periodicamente diverse zone,
ma l’effetto serra in atto con i lunghi periodi di siccità manda spesso questo
incendi fuori controllo, con conseguenti incendi addirittura sulla scala
regionale (vedi Borneo, Siberia, Amazzoni, Florida, Canada) e che durano anche
molti mesi.
Esiste una Convenzione sulla deforestazione, ma non è
ancora in piedi il necessario processo negoziale, con relativo organo
decisionale. Ciò è dovuto soprattutto
al fatto che la deforestazione applicata da diversi PVS (v. per es. il Brasile)
è a tutti gli effetti una fonte di prodotto nazionale lordo. Per questo motivo,
se i paesi industrializzati vogliono negoziare sulla deforestazione, devono
essere disposti a pagare l’ammanco di PIL che si creerebbe nel fermare la
deforestazione. O a compensare l’equivalente somma annullando debiti esteri,
oppure fornendo tecnologia per generare energia pulita, etc. Per ora, nulla di tutto questo appare nelle
intenzioni dei paesi del Nord del mondo.
Per questo motivo, niente negoziati sostanziali.
2.5 CRISI IDRICA
Lo scarseggiare
delle riserve acquifere già discusso nella sezione climatica costituisce soltanto una piccola parte del problema.
Infatti, le principali cause della crisi idrica sono - anche qui - 1) la
crescita economica, con il crescente fabbisogno d’acqua dell’industria e delle
metropoli, dove sono in continuo aumento il consumo pro capite d’acqua, e 2) la crescita demografica, che moltiplica il
fabbisogno d’acqua essenzialmente per motivi agricoli, ossia per la produzione
di alimenti.
Non esiste attualmente alcuna Convenzione specifica né un
processo negoziale per arrivare ad un Trattato con relativa legislazione
idrica, con le modalità e i flussi di utilizzo.
Nella sua relazione del 1998, il Segretario Generale UN,
Sig. Kofi Annan ha lanciato l’allarme sulla crisi idrica in atto e sulle sue
dimensioni in crescita, associandosi all’analisi del direttore esecutivo
dell’UNEP, il tedesco K. Toepfer, che prevede che il secolo su cui ci stiamo
affacciando sarà segnato da guerre e
conflitti per il controllo e l’utilizzo dei flussi d’acqua.
Va qui ricordato il dato del Fiume Giallo, che l’anno scorso
ha subito così massiccio prelievo a monte della foce per motivi industriali,
agricoli, e per il fabbisogno idrico delle metropoli, che per circa 220 giorni
su 365 il flusso a mare era praticamente nullo.
Anche i conflitti futuri sull’acqua saranno dunque
connessi al problema della produzione agricola, industriale e dell’energia,
visto che le principali motivazioni di consumo idrico sono quelle della
siderurgia, dell’irrigazione e dei circuiti di raffreddamento delle centrali a
carbone.
2.6 CRISI DEMOGRAFICA
La crescita della popolazione, come correttamente
calcolato dal MIT per il Club di Roma nel 1971, è uno dei due esponenziali
responsabili delle crisi e del collasso del sistema mondiale in cui viviamo.
Abbiamo passato da poco il livello dei 6 miliardi di persone. Secondo un recente studio del World Watch
Institute di Washington, se gli attuali abitanti del pianeta dovessero vivere
allo standard degli Stati Uniti, dovremmo avere altri tre pianeti come il
nostro, per poter fornire terre arabili, energia, cibo e materie prime a
sufficienza. Siamo ad un’altra dimostrazione dell’insostenibilità dell’attuale
regime economico dominante. Non di crescita abbiamo bisogno, che è
insostenibile già per i soli paesi industrializzati, ma di redistribuzione...[85] Il pianeta, le cui terre arabili sono tra
l’altro in erosione o addirittura soggette a invasione desertica, non può
alimentare più di circa 7-8 miliardi di persone, secondo le stime più
ottimistiche. Invece, secondo ogni valutazione, senza interventi da parte dei
paesi industrializzati di consistente aiuto alimentare, tecnologico, di
istruzione, ed economico ai PVS, in particolare all’Africa, all’India e al
resto del S-E asiatico, la popolazione continuerà a crescere, fino a piccare
intorno agli 8-10 miliardi di individui. Tale picco sarà purtroppo seguito da
un forte collasso. Il modello “standard”
del MIT prevedeva il picco a 8-8.5 miliardi di individui, verso il 2030-2035,
dopo il collasso del prodotto industriale (picco nel 2020) e del prodotto
agricolo (2020-2030). I demografi delle
Nazioni Unite prevedono un picco tra 8 e 10 miliardi intorno al 2040.
Molti analisti sostengono che la popolazione è una
“variabile secondaria”, nel senso che la crescita industriale, associata tra
l’altro con la crescita delle differenze di distribuzione, in presenza di un
pianeta non infinito, e cioè con risorse finite, è la vera causa - o per lo
meno il vero motore -della crescita demografica, per via della povertà e
dell’ignoranza indotte dal fatto che il residuo vitale per i PVS si restringe
sempre di più e sempre più velocemente.
Non ci sono convenzioni, trattati, o negoziati di sorta
sulla popolazione. Forse questi potranno
essere imposti dai futuri sviluppi delle trattative sulla crisi climatica,
se, come sembra, si dovrà passare ad uno
schema di convergenza ad uno share uguale pro capite di energia per annum.
Infatti, quest’ultima circostanza imporrebbe contestuali negoziati sull’arresto
della crescita demografica, per evitare che alcuni paesi possano tentare di
ottenere più share di energia semplicemente aumentando la popolazione.
2.7
DESERTIFICAZIONE
A causa della
concomitanza di diversi fattori, come la crisi climatica, la crisi idrica (di
natura industriale-metropolitana), la indisponibilità delle migliori tecnologie
ormai monopolio di multinazionali come la Monsanto Industries, la tendenza ad
abbandonare le zone rurali per convergere nelle metropoli, ed altri motivi, il
deserto sta guadagnando sempre più terreno. Più del 30% dei territori arabili esistenti
100 anni fa è stato conquistato dal deserto.
La desertificazione non riguarda soltanto i PVS: studi
della NASA, del GFDL del NOAA, e dell’UKMO prevedono per gli Stati Uniti una
progressiva desertificazione di vaste praterie del Mid-West e del Sud del
paese, includendo gran parte della California.
Un analogo studio condotto da una collaborazione - tuttora in corso -
tra la NASA, Columbia University, e il nostro Ministero dell’Ambiente mostra
che gran parte del Centro, del Sud e delle Isole italiane tenderà alla
desertificazione, con un tempo scala di dimezzamento dell’apporto idrico
intorno ai 25-40 anni.
Lo stesso vale per quasi
tutto il Sud europeo, ossia per i paesi
Mediterranei.
La Convenzione contro la Desertificazione (CCD[86])
è stata firmata a Roma nell’ottobre del 1997, ed è in fase di ratifica. Ancora non sono in atto trattati con forza di
legge tipo quello di Kyoto, e le negoziazioni sono ferme alle procedure. Anche nella CCD gli schieramenti sono gli
stessi: G77&China, USA con i paesi del JUSCANNZ e EU, che anche qui si distingue notevolmente
dagli USA.
Gli unici interventi concreti - anche se con mezzi
totalmente inadeguati - sono quelli della FAO e dell’IFAD, e consistono in
aiuti alimentari contro la fame. Ultimamente si è messo in atto il progetto di
creare oasi ai margini dei deserti, finanziato dall’IFAD, ma che ha finora
mostrato scarsi successi, come descritto dalla dirigente IFAD Dr. M. Fikri, spesso per mancanza di fondi
e/o di sufficienti flussi d’acqua.
2.8
PERDITA DELLA BIODIVERSITÀ
Esiste una Convenzione sulla Biodiversità, con la sua
COP, che si è appena riunita per stabilire i meccanismi di intervento. Ma di
trattati con forza di legge per ora non si parla.
La crisi in questione dipende principalmente da tre fattori: 1) la riduzione del manto forestale (v.
deforestazione) 2) l’uso sempre più massiccio di pesticidi, e gli scarichi
industriali tossici e 3) l’effetto serra, con la distruzione di
habitat necessari a molte specie, dovuto al riscaldamento e ai suoi effetti
collaterali, come la distruzione di moltissimi tipi di catene alimentari.
Esiste un problema di diversificazione genetica, con
conseguenze anche remote dalle zone in cui avviene.
2.9 CRISI AGRICOLA
ED EROSIONE DELLE TERRE ARABILI
La necessità di avere sempre più prodotto agricolo per
unità di superficie coltivata - dovuta insieme alla crescita demografica e alla
desertificazione progressiva di terre precedentemente fertili - ha imposto
l’uso di colture e pratiche sempre più intensive, e di prodotti che accelerino
ed ottimizzino la crescita, aumentando enormemente il prelievo dei sali
minerali dal terreno. Ciò sta depauperando sempre più i terreni agricoli, con
il risultato di ridurre sempre più lo strato di humus e di terra utilizzabile (erosione). Inoltre, la coltivazione intensiva, per
ragioni di rendimento, sta facendo sempre più uso di pesticidi, e sempre più
forti, per il fenomeno della comparsa di specie di parassiti sempre più
resistenti. Anche l’uso di pesticidi in quantità crescente è responsabile -
anche se in maniera minore - della progressiva erosione del terreno arabile.
Il dato più preoccupante, però, è il grado di dipendenza
dell’agricoltura dai combustibili fossili. Infatti, calcolando il
combustibile per le pompe, per le macchine per arare e fare il raccolto, per il
primo trattamento e per il trasporto, ad ogni joule di emergia[87]
(emjoule) corrispondono da 10 a 20 joule di energia in combustibili fossili
usati (benzina, nafta, etc.). Questo significa che spendendo 100 calorie in
combustibili fossili si ottiene solo dal 5% al 10% di potere nutritivo. e
questa percentuale scende sempre di più. Questo potrebbe sembrare una cosa
innocua, all’aumentare dell’uso di tecnologie moderne, ma nasconde un problema
in agguato: la dipendenza fortissima della nostra capacità di produrre alimenti
dalle crisi climatica e petrolifera. Ciò ovviamente è aggravato dall’erosione,
poiché l’indotto bisogno di aumentare l’efficienza agricola aumenta sempre di
più la dipendenza dell’agricoltura dal petrolio.
Non esistono a tutt’oggi negoziati internazionali per
combattere l’erosione dei terreni arabili, al di fuori dei pochi interventi per
combattere i terreni già in procinto di desertificarsi.
2.10
CALO PROGRESSIVO DELLE RISERVE ITTICHE.
Anche questo è un problema, segnalato autorevolmente
quasi 30 anni fa dal Club di Roma e dal rapporto del MIT, connesso alla
crescente industrializzazione ed intensificazione delle pratiche di pesca, e
all’uso di tecnologie sempre più efficienti nell’aumentare il pescato. Già
dalla metà di questo secolo, sono state abbandonate le pratiche “di
sufficienza” dei pescatori, per adottare pratiche industriali di massa, in cui
il pescato deve essere principalmente esportato in quantità massicce, molto
maggiori cioè del fabbisogno della zona limitrofa alla zona di pesca. E’
proprio questo che ha innescato il calo delle riserve ittiche. Oggi siamo giunti ad un livello drammatico:
le fisheries sono diminuite di
quantità dal 30% al 40%. E il problema aumenta, visto che stiamo pescando molto
al di sopra della velocità riproduttiva dei pesci.
Non si è ancora arrivati a negoziati globali, come servirebbe, mentre ci sono una serie di accordi regionali. Per esempio, l’Unione Europea ha recente imposto il fermo-pesca di Sabato e di Domenica, oltre che per un mese l’anno. Ma la misura è riportata essere largamente insufficiente.
3.
CONCLUSIONI
Lo scopo principale
di questo articolo è quello di fornire al tempo stesso una visione più profonda
delle motivazioni dei conflitti in atto e all’orizzonte e una valutazione
complessiva della più formidabile minaccia per l’umanità: la miscela esplosiva
delle grandi crisi ambientali globali e dei conflitti per garantirsi l’energia,
il cibo, la dominanza per imporre tale “garanzia”, e in definitiva, la
sopravvivenza. E’ ovvio che
l’aggiungere conflitti potenzialmente grandi a crisi ambientali già di per se
distruttive è folle e da arrestare, ma come fare? Sono necessarie l’informazione e la
partecipazione pubblica. Ma prima di questo, è necessario che nasca un
movimento di scienziati impegnati che dedichi le proprie competenze e la
propria autorevolezza scientifica all’obiettivo della corretta informazione
pubblica e alla pressione sui governi. Nel caso del clima, questa attività è persino
protetta per legge (L65/94, la UNFCCC ratificata dal Parlamento).
Posso ora concludere con l’esortazione a vedere più in là
- nei conflitti regionali - di quanto suggeriscano i soli eventi locali. Nel
caso della guerra dei Balcani –breve ma violenta e pericolosa perché stabilisce
il precedente che la decisione di cosa è
legittimo nei conflitti non lo stabilisce più l’ONU ma gli USA– i motivi del conflitto erano:
·
la dimostrazione della dominanza occidentale
(mostrata ora ma che venga intesa anche per il futuro; rivolta ai paesi slavi
che non intendono “omologarsi”, ma anche al mondo islamico mediorientale)
·
il controllo del petrolio del Caucaso
·
l’affermazione dell’unico modello economico
tollerato dall’occidente in Europa: quello del liberismo nell’economia di
mercato.
Il nemico-Satana pubblicamente indicato in
Milosevich stava a significare ogni altro governo che nel prossimo futuro
volesse opporsi a tutto ciò. L’aggressione NATO alla Jugoslavia è stata al
tempo stesso un avvertimento alla Cina,
alla Russia, all’India e una prova generale di conflitti prossimi futuri sulle
tematiche qui esposte.
La
gravità delle crisi ambientali globali, soprattutto quella energetica e quella
climatica - così intimamente connesse - e delle altre che comunque in molti
aspetti sono connesse alle prime due deve`far riflettere sugli scenari di
conflitto che diverranno via via più probabili e che potranno portare prima o
poi al confronto con il blocco asiatico e con l’Islam. E’ probabile che l’Europa non abbia in realtà questo obiettivo,
ma in tal caso il distacco dagli USA deve avvenire per tempo.
E’
dovere di noi ricercatori di rendere chiare al pubblico queste possibilità,
rendendo così più facile smascherarle e combatterle, visto che i governi
avranno via via bisogno di fornire motivazioni dei conflitti sempre diverse, ma
mai conformi a quelle reali, che sono davvero inconfessabili.
Avendo
dedicato da 25 anni una parte non trascurabile del mio tempo di lavoro allo studio
scientifico dell’effetto serra e di altre crisi ambientali, collaborando con le Nazioni Unite al processo
scientifico sul climate change, rendendomi conto che è vitale che almeno i
ricercatori abbiano il termometro esatto della situazione, che essi conoscano i
fatti e possibilmente diano la loro partecipazione attiva ognuno secondo le sue
competenze, ho sentito come scienziato
il dovere di scrivere questo contributo a una lettura del conflitto nei Balcani
diversa da quella vigente.
Concludo
con l’appello ai colleghi ad una azione concreta: concertiamo azioni per
rendere nota la convenzione Climatica - legge dello Stato n. 65 del 1994, la
problematica del climate change e i pericoli che ci aspettano, così come
prevede l’art.6 della legge stessa (public
awareness). Possiamo corredare
questa attività con conferenze stampa,
con proposte al governo sui temi
negoziali aperti, infine sull’attuazione della legge 65/94 nelle università e
nelle scuole.
[1] World Meteorological Organization
[2] United Nations Environment
Programme
[3] United Nations Population Fund
[4] Food and Agriculture Organization
of the United Nations
[5] World Health Organization
[6] International Fund for Agriculture
and Development
[7] International Council of Scientific Unions. Comprende e coordina tutte le Unioni Scientifiche di settore ( come ad esempio l’International Union of Pure and Applied Physics, l’International Astronomical Union, l’International Union of Biological Sciences, l’International Mathematical Union, l’International Union of Pure and Applied Chemistry, etc.). L’ICSU comprende 95 corpi multidisciplinari, 25 Unioni Scientifiche di singola disciplina, e 28 società scientifiche internazionali associate.
[8] United Nations Framework Convention
on Climate Change
[9] Infatti, l’altro - e famoso - trattato globale, quello di Montreal, che mette al bando la produzione di sostanze usate dall’industria (i CFC o chloro-fluoro-carbons) e che sono responsabili della distruzione dell’ozono stratosferico, tratta un problema in cui l’industria ha fatto grandi resistenze, ma poi ha ceduto perché era possibile svolgere le stesse attività usando altre sostanze (gli HFC o hydro-fluoro-carbons). Nel caso del trattato di Kyoto, invece, sostanzialmente non è possibile ridurre le emissioni di anidride carbonica nelle quantità scientificamente dimostrate necessarie senza in definitiva ridurre prima la crescita (la derivata del prodotto industriale) e in seguito il prodotto industriale mondiale stesso.
[10]Non fa parte del G77&China neanche Taiwan, ma qui non è conteggiata, perché non partecipa alle negoziazioni UNFCCC in quanto non riconosciuta dalle Nazioni Unite, e quindi - ovviamente - non rappresentata.
[11] Organization of Economic Cooperation and
Development
[12] Oil Producing and Exporting
Countries
[13]
[14] International Monetary Fund
[15]
[16] International Energy Agency
[17] United Nations (organization) for
Cooperation Trade and Development
[18] United Nations Industrial Development Organization
[19] si intende media su tutto l’anno e su tutte le latitudini, mediata su terre emerse ed oceani, e al livello del mare.
[20] Ci sono ovviamente molti altri termini nell’equazione differenziale per la temperatura: quello di cui si parla è ovviamente quello riguardante l’effetto serra.
[21] Global Dynamics Institute
[22] Carbon Dioxide Information and Analysis Center (Boulder, Colorado, USA)
[23]Intergovernmental Panel on Climate Change, l’organismo scientifico - coordinato a livello accademico dall’ICSU - e fondato dall’UNEP e dal WMO delle Nazioni Unite nel 1988 su mandato del Segretario Generale ONU e dell’Assemblea Generale delle Nazioni Unite. Coordina tutte le attività scientifiche sul climate change a livello mondiale.
[24]National Geophysical Data Center del NOAA (National Atmospheric and Oceanic Administration, organo scientifico del governo degli Stati Uniti).
[25]United Kingdom Meteorological Office, uno degli istituti scientifici leader nel climate change science process.
[26]accelerazione tecnologica ed economica che sta avvenendo proprio in questi anni.
[27]National Snow and
[28] Vostok: stazione scientifica dell’URSS prima e ora della Federazione Russa, nell’interno dell’Est Antartica, a circa 1200 Km dal mare e quasi altrettanti dal polo Sud, giacente su uno spessore di più di 3500 metri di ghiaccio.
[29]E’ attualmente disponibile il data set dell’intero carotaggio, recentemente mostrato su Nature, riguardante 420 mila anni, e riportante eltri 2 pseudo-cicli di circa 100 mila anni, in tutto simili ai due mostrati qui.
[30]business-as-usual significa mantenendo l’attuale trend, cioè senza prendere alcuna misura economico-politica atta a ridurre le emissioni e in definitiva ad arrestare la crescita economica o più ancora, cosicchè le variabili continuano ad evolvere sugli attuali esponenziali.
[31] enhanced greenhouse effect, da contrapporre al natural greenhouse effect. Spesso ci si riferisce all’effetto serra antropogenico.
[32]al tasso attuale (che però tra l’altro è anch’esso in crescita esponenziale) di deforestazione, non ci saranno più foreste tropicali tra 30 anni. Se, invece di estrapolare linearmente, si tiene conto del trend esponenziale di deforestazione, le foreste tropicali spariranno in poco meno di 20 anni. Ovviamente le foreste temperate contano molto meno, visto che la funzione di assorbitore di anidride carbonica è tale che il tasso di assorbimento è proporzionale allla massa di clorofilla, e che lo “spessore” della clorofilla (massa per unità di superficie) tropicale è diverse volte maggiore di quello delle foreste nelle zone temperate.
[33]Gli assorbitori di gas serra sono chiamati sinks (anche per la caratteristica funzione di sorgente negativa nelle equazioni differenziali di continuità per i gas serra).
[34] In realtà, una frazione non trascurabile - anche se minore di quella dovuta alle alghe e al phytoplankton - di CO2 viene assorbita per processi inorganici, essenzialmente per trasformazione in carbonato e precipitazione sul fondo.
[35] E che probabilmente è proprio a fondamento dell’attualmente vigente sistema economico.
[36] I record di dati sui sedimenti calcarei ci permettono di guardare indietro fino a circa 200-300 milioni di anni, a seconda del data set (fondo marino, sedimenti a terra, etc.) anche se con minor dettaglio del carotaggio di Vostok o di altri carotaggi di ghiaccio, come il GRIP (Greenland Ice Core Project).
[37]global warming, altro termine per indicare l’effetto serra.
[38]Goddard Institute for Space Studies, NASA, è autore di uno dei 4 modelli leader a livello mondiale. E’ spesso in collaborazione con la Columbia University.
[39] Jet Propulsion Laboratory, California.
[40]Atmosphere-Ocean General Circulation
Model
[41]Geophysical Fluid Dynamics
Laboratory
[42]Unified Model del prestigioso centro di Bracknell
[43]Goddard Institute for Space Studies,
in collaboraz.
[44]Bureau for Meteorological Research
[45]Univ.
[46]
[47]Per quanto riguarda le previsioni e il modello del Club di Roma in generale (copre quasi tutte le crisi elencate in questo paper, non solo la climatica) vi faremo riferimento più avanti.
[48]Second Assessment Report, l’assessment scientifico sul climate change e tutte le conseguenze dell’effetto serra, diviso in Working Group 1 (i fenomeni) Working Group 2 (gli impatti) e Working Group 3 (le risposte, le misure per mitigare l’effetto serra), approvato all’unanimità nella 11th Plenary di Roma dal 1 all’11 dic. 1995, e pubblicato da Canbridge University Press nel maggio 1996 (Climate Change 1996) sotto il patrocinio delle Nazioni Unite (WMO e UNEP) e il coordinamento dell’ICSU. Il SAR è basato su 10.000 pubblicazioni nei 2 anni precedenti, con la partecipazione di circa 30.000 ricercatori.
[49]da crescite che piccano e che poi scendono fino a diventare negative (crisi e collasso) fino a crescite che continuano esponenzialmente per tutto il secolo venturo.
[50]Atmosphere Model Intercomparison Programme, coordinato dall’ICSU e organizzato con l’IPCC. Vi fanno capo più di cento laboratori e università.
[51] CO2-equivalenti a 560 ppmv contro le attuali 363 ppmv e le preindustriali 280 ppmv. In massa, circa 1160 miliardi di tonnellate di CO2 in atmosfera contro le attuali 750.
[52]Ondate di calore, come per esempio quella di Chicago, 1997, che causò circa 1000 morti, e quella di quest’anno in Texas e Florida, con più di 700 morti.
[53] Come, per esempio, quelli dell’anno 1997 - durati fin nel 1998 - nel Borneo, nelle Amazzoni, in Siberia, in Florida, e in Cina, o di quest’anno in Florida e Texas, e nella Foresta Amazzonica. Gli incendi dello scorso anno hanno aggiunto 1.1 miliardi di tonnellate di anidride carbonica in atmosfera, a fronte delle emissioni totali industriali dello scorso anno, pari a 22.4 Gton di CO2 .
[54]World Health Organization (Organizzazione Mondiale della Sanità)
[55] I modelli del GFDL (NOAA) e dell’UKMO prevedono per la produzione agricola a stelo degli Stati Uniti una diminuzione fino a -65% (cioè per grano, granturco, altri cereali, fieno, etc) nei prossimi 20 anni nelle zone che adesso fanno il 95% della produzione agricola USA, e un aumento fino all’80% nelle zone desertiche, che cioè continuerebbero a produrre in effetti nulla. I modelli del GISS, dell’UKMO e del GFDL, usati dalla Columbia University in una collaborazione -tuttora in atto - col Ministero Italiano dell’Ambiente, prevedono altrettanto calo (-50%_ -55%) nella Pianura Padana, e desertificazione nel Tavoliere delle Puglie e nel Sud e Isole.
[56]Questa caratteristica della crisi climatica interagisce ed è concausa della crisi idrica, n. 4 nel nostro elenco all’inizio dell’articolo, della crisi agricola, n.8, e della desertificazione (n.6).
[57]Ciò non ha a che fare con gli ammanchi considerevoli come quello del Fiume Giallo in Cina, che lo scorso anno non è praticamente arrivato al mare per 220 giorni su 365, con foce quasi in secca, dovuto invece al prelievo (industriale, agricolo, e metropolitano) superiore alla portata. Tali eventi hanno invece a che fare con la crisi delle risorse a fronte di una crescita economica esponenziale.
[58]ovviamente, non tenendo conto di quanto costa in termini economici, agricoli, e di vite umane il lasciar andare tutto senza intervento alcuno. Naturalmente non tengono conto neanche della “qualità” della vita dei sopravvissuti in un mondo sotto effetto serra fuori controllo. L’effetto serra deve essere libero, come il Mercato.
[59]la “M” maiuscola non è un errore tipografico.
[60]United Nations Framework Convention on Climate Change, in Italia convertita in legge dello Stato nel 1994, con L.65/94.
[61]In italiano: “I Limiti dello Sviluppo” ed. EST Mondadori, 1972, di Meadows et al. In inglese: “The limits of Growth” Productivity Press. Il testo non-divulgativo, con tutte le equazioni differenziali e il programma, con i grafici dei comportamenti dei parametri, con la descrizione delle subroutines e con tutta l’analisi differenziale e numerica necessaria è stato anch’esso pubblicato nel 1972 (è ancora disponibile) con il titolo “Dynamics of Growth in a Finite World”, stessi autori, Productivity Press.
[62]Tale tempo di risposta o delay tecnologico, calcolato per diffondere in tutto il mondo le innovazioni tecnologiche con applicazione capillare è addirittura superiore ai 25 anni oggi nel 1999, l’ipotesi era pertanto veramente super-ottimistica.
[63]World3 è il nome dato al maxiprogramma dal Prof. Dennis Meadows. Meadows era allora leader del pool di scienziati del MIT e oggi decano nell’University of New Haven, a capo del programma GAIM (Global Analysis Interpretation and Modelling) dell’IGBP (International Geosphere Biosphere Program). L’IGBP è uno dei pilastri dei lavori dell’IPCC, ed è direttamente istituito e controllato dall’ICSU.
[64]quasi tutti scienziati occidentali e delle migliori università americane, e non già pericolosi politici rivoluzionari.
[65] “Modelli di Sventura”
[66]ancora oggi molti di coloro che hanno sentito parlare del rapporto del MIT credono che le crisi in esso previste venivano causate dallo scarseggiare delle risorse, cosa a cui i modelli invece non arrivavano, in quanto tutte le crisi avvenivano ben prima di quando il sistema si sarebbe accorto della diminuzione, e cioè le crisi avvenivano quando il livello di risorse disponibile era ancora alto. Il motivo delle crisi era invariabilmente la crescita esponenziale del prodotto industriale e della popolazione, in varie varianti ed interazioni con il prodotto agricolo e l’inquinamento.
[67]si tratta della progressiva diminuzione dello strato di humus ricco di sali minerali dovuto allo sfruttamento agricolo che sottrae i sali più rapidamente di quanto possano venire ripristinati.
[68]guidata dalla Signora Gro Bruntland, ex primo ministro norvegese, e recentemente candidata a Segretario Generale UN, nel 1997, quando venne poi nominato il Signor Kofi Annan.
[69]In italiano è uscito con il titolo “Il Futuro di Noi Tutti”, ed. Bompiani
[70]con l’ufficialità delle Nazioni Unite e redatto anche dai delegati governativi dei maggiori paesi, membri della commissione
[71]United States Global Change Research Program, istituito nientemeno che dalla presidenza Reagan con un budget iniziale di 2.5 miliardi di dollari all’anno.
[72]su 8500 ricercatori di tutto il mondo che in totale contribuirono al rapporto.
[73]In Italia è stato pubblicato dal Saggiatore (Mondadori) con il titolo “Oltre i Limiti dello Sviluppo”.
[74]Sia il FAR, First Assessment Report del 1990, che il Supplementary Report del 1992, possono essere ordinati da Cambridge University Press. Versioni in sommario si possono scaricare gratuitamente dal sito IPCC, in mirror sul sito del WMO (www.wmo.org) o sul sito proprietario (www.ipcc.ch). Altri siti e documenti, grafici e dati si possono ottenere cercando con motori di ricerca le parole chiave UNFCCC, UKMO, IPCC, UNEP, CLIMATE CHANGE.
[75]Alliance of Small Island States, una alleanza tra piccoli stati isola, come le Marshall Islands, le Maldive, le Comore, le Solomon, le Tonga, unite dalla caratteristica di essere paesi con elevazione sul livello del mare di poche decine di centimetri, e di essere perciò le prime vittime designate dell’innalzamento del livello del mare da effetto serra.
[76] Consiglio vivamente al lettore di procurarsi il testo della legge, fedele traduzione dell’originale inglese, e di leggerlo attentamente. Ho personalmente verificato che la maggior parte dei deputati e senatori che l’hanno ratificata...non la hanno neanche letta (“era roba delle Nazioni Unite”...)
[77]International Negotiating Committee
[78]per motivi connessi al tipo di legame chimico C-C, bruciare carbone per produrre una unità di energia produce il 33% circa in più di anidride carbonica che se la stessa energia venisse prodotta bruciando una miscela di idrocarburi liquidi (ad es. nafta o benzina, kerosene, etc.). Ciò è dovuto al fatto che un legame C-C possiede meno energia di uno C-H.
[79]Ad Hoc Group on the
[80]alla quale ho assistito personalmente, accreditato come scienziato osservatore.
[81] che per di più sono percentuali di riduzione calcolate e valide nel 1990: oggi, essendo le emissioni più alte che allora, mentre la capacità di assorbimento dei sinks è rimasta sostanzialmente la stessa, dette percentuali di riduzione necessarie sono ovviamente più alte. Più tardi si riduce, più bisogna ridurre.
[82]...ma come si interessano ai posti di lavoro, a volte, gli industriali!
[83]E’ proprio paradossale che gli HFC, che sono stati messi in produzione a seguito del Protocollo di Montreal - per salvare l’ozono stratosferico - che bandiva la produzione di CFC, si sono però rivelati come potentissimi gas di serra (più dei CFC). Meccanismi del Mercato...
[84]Global Commons Institute
[85]redistribuzione... dove avrò mai già sentito questo concetto?
[86]Convention to Combat Desertification
[87]emergy: da embodied energy. L’emergy, introdotta da Odum, nel caso dei vegetali è la quantità di energia solare immagazzinata in legami organici C-H, e quindi proporzionale alle calorie (tutto per unità di massa) immagazzinate per processo clorofilliano. Nel caso in cui il vegetale è un alimento, l’emergia per unità di massa è quindi proporzionale al potere nutritivo per unità di massa.