mardi 21 novembre 2017

Apprenons avec Benoit Rittaud comment manipuler des chiffres et truquer des graphiques

Benoit Rittaud est mathématicien, les chiffres, donc, il connaît (ou devrait connaître)

Par conséquent s'il nous fournit des informations biaisées il y a deux possibilités dont l'une est peu probable :
  1. il est incompétent et se trompe lourdement ;
  2. il est parfaitement compétent et trompe sciemment ses lecteurs et auditeurs.
Chacun aura compris que la première possibilité est à écarter, sauf à considérer que l'Université de Paris-13, où il officie d'après son CV, embaucherait des charlatans...

J'ai déjà évoqué dans un billet (François Gervais et Benoit Rittaud sont fâchés avec les mathématiques ! ) un cas d'école que je reprendrai ici, en ajoutant d'autres leçons aimablement fournies par l'intéressé dans un de ses billets récents intitulé Comment a évolué le monde depuis 1992.

Je propose à mes lecteurs de chercher, s'ils en ont le temps et l'envie, d'autres leçons que notre distingué mathématicien aurait pu prodiguer et qui m'auraient échappées.

Leçon numéro 1 : parler en pourcentages plutôt qu'en parties par millions


Dans l'émissions radio où il se produisait en compagnie de son compagnon de route François Gervais, ce dernier a notamment dit, sans que Benoit Rittaud n'y trouve à redire :
  • [...] le taux, la concentration de gaz carbonique dans l'air a augmenté, parce qu'on brûle du pétrole, du charbon, des gaz naturels, c'est vrai, mais elle a augmenté de combien ? De 0,03% à 0,04%, en un siècle... [...]
On voit bien ici l'astuce qui consiste à minimiser l'impact du CO2 dans l'atmosphère, en traduisant sa teneur non en parties par millions (ppm) comme il est coutume de faire, mais en pourcentage, ce qui a pour effet, du moins dans les têtes peu réfléchissantes, de réduire ce gaz à la portion congrue : comment un gaz qui est présent "seulement" à 0,04% peut-il avoir le moindre effet sur quoi que ce soit ? 

En fait si l'on raisonne correctement en ppm cela nous donne un passage de 280ppm avant l'ère industrielle à 404,47ppm au 4 novembre dernier comme je le mentionnais dans mon billet (au 18 novembre nous en sommes à 405,65ppm) ; évidemment pour les chimistes on comprend l'intérêt de raisonner en ppm et non en pourcentages, car même de faibles concentrations peuvent avoir des effets considérables.

Par exemple le site alloprof.qc.ca nous explique :
  • Lorsque l'on mesure des quantités très petites de soluté dans une grande quantité de solution, il est préférable d'utiliser la concentration en ppm afin que les valeurs obtenues ne soient ni trop petites, ni trop grandes.
Voilà, tout est dit, c'est bien pour cela que nos deux compères Rittaud et Gervais utilisent les pourcentages, afin que les valeurs obtenues apparaissent insignifiantes...

Il est instructif d'ailleurs d'étudier l'exemple fourni par le site canadien :
  • Au quai de Sept-îles, des inspecteurs veulent mesurer la quantité de polluants émis dans l'eau par un navire marchand. Dans un volume d'eau de 100 L prélevé près du navire, ils ont retrouvé 25 mg de polluants. Quelle est la concentration de polluants en ppm près du navire? [...] réponse : Il y a donc 0,25 ppm de polluant dans l'eau près du navire.
En pourcentage, d'après Rittaud/Gervais les 0,25ppm deviendraient 0,000025%, pas vraiment de quoi s'inquiéter n'est-ce pas ?

A titre d'information et pour le cas où vous ne seriez pas totalement convaincu de l'importance des ppm, voici un extrait du site Wikipédia concernant l'intoxication au cyanure :
  • Dans le cas d'une intoxication par du cyanure d'hydrogène (gazeux), les taux de concentration atmosphériques supérieurs à 50 ppm respirés pendant plus d'une demi-heure représentent un risque important, alors que des taux de 200 à 400 ppm ou plus sont considérés comme pouvant entraîner la mort après une exposition de quelques minutes. À titre indicatif, la dose létale pour le rat est de 484 ppm pour une exposition de 5 minutes.
« Des taux de 200 à 400 ppm » pour Rittaud/Gervais cela donne « des taux de 0,02% à 0,04% », pourquoi se faire du mouron, hein ?
 

Leçon numéro 2 : confondre augmentation en pourcentages et augmentation en points de pourcentage


François Gervais, adoubé par Benoit Rittaud, continuait son laïus par :
  • [...] Alors est-ce que cette augmentation de 0,01% [...]
Là on tombe de sa chaise, littéralement, à moins de lire debout, auquel cas le risque est de sauter au plafond...

Comme je l'avais expliqué « Le calcul est pourtant fort simple : (0,04 - 0,03) / 0,03 = +33,33%, ou +0,01 point de pourcentage. »

Et si vous avez un doute le site yetiblog.org vous fournit la réponse en une image non truquée :

Evolution de la concentration de CO2 dans l'atmosphère depuis l'an 1000.

Ce graphique est à rapprocher de celui que je vous avais gracieusement procuré dans mon billet précédent :

Source Graphic  NOAA Annual Greenhouse Gas Index (AGGI)

Pour information, si l'on voulait représenter une augmentation de 0,01% telle que décrite par le couple Rittaud/Gervais, alors la courbe serait quasiment plate, car entre 0,01% et 0% la différence ne se verrait pas sur un graphique tel que ceux mentionnés ci-dessus.

Pour se faire une idée, une pente à 40% représente une montée à vélo de 40 mètres pour chaque 100 mètres parcourus horizontalement ; et pour avoir une idée encore plus précise, veuillez consulter le site cycloblog.fr :
  • [l]e col [de Scanuppia] offre de redoutables pourcentages. La pente moyenne est de 17% SUR 7.8KM. C'est sans doute le col le plus dur d'europe avec un passage de 100m a plus de 28%. Le 2ème kilomètre de l'ascension est le plus dififcile avec un pourcentage moyen de 26.5%. Il ne sera jamais emprunté par le Giro, la route étant bien trop étroite et sinueuse.
Et voici le graphique représentant le col en question :

Col de Scanuppia.

Alors imaginez une pente à 40%...

Leçon numéro 3 : présenter un graphique dont l'axe des y commence par zéro


Ici nous tutoyons le Grand Art (oui, en majuscules s'il vous plait) avec le billet de Benoit Rittaud intitulé Comment a évolué le monde depuis 1992 dans lequel notre célèbre mathématicien reprend à son compte « quelques données de la Banque Mondiale qui ont été compilées par MD. » ; comme il ne fait aucun commentaire autre que « Merci à lui » nous en déduisons qu'il est à 100% (et non à 1000000ppm) d'accord avec ce MD que nous n'avons pas l'honneur de connaître (quelque chose me dit que nous n'y perdons rien)

Cela commence sur les chapeaux de roues avec le graphique suivant :

Surface des forêts selon la Banque mondiale.

Deux choses nous font immédiatement allumer le gyrophare et dresser le drapeau rouge signifiant « Attention, arnaque en approche ! »
  1. la source semble mentionnée (Banque mondiale) mais aucun lien ne nous permet de vérifier la validité des données ;
  2. l'axe des y, représentant les surfaces en millions de km2, commence par zéro, ce qui a pour effet immanquable d'écraser la courbe, surtout sur une aussi courte période de 24 ans...
Pour le point 1 comme le lien ne nous est pas fourni il faut se retrousser les manches et aller au charbon, ce qui ne s'avère pas de tout repos !

Sur le site de la Banque mondiale je tombe sur ce graphique :

Bénéfices tirés des forêts (% du PIB)

Evidemment il ne s'agit pas de surfaces mais de % de PIB, cependant on peut estimer, en première approche, qu'il peut y avoir un lien entre les deux, plus les forêts sont étendues et plus elles sont potentiellement exploitables et peuvent générer des parts de PIB plus importantes ; on remarque qu'effectivement depuis 1992, si l'on prend la même date de départ que sur le site de Rittaud, le PIB a stagné, avec un gros creux au début des années 2000, mais on remarque aisément que la part de PIB était bien plus importante dans le passé, dans les années 70, et qu'elle a fortement chuté dès le début des années 80, mais il faut rester prudent car il n'y a pas forcément de corrélation parfaite, ni même totalement évidente, entre % de PIB et surfaces des forêts, il s'agit seulement d'un indice à prendre en compte avec les précautions d'usage ; on notera quand même que ce graphique ne commence pas par la valeur zéro, ce qui aurait eu pour effet d'écraser notamment la partie 1992-2015 comme dans le graphique du dénommé MD (menteur diplômé ?)

Mais en cherchant mieux je trouve la source de MD :

Surface forestière (km carrés)

Et là on comprend mieux pourquoi le sieur MD a trafiqué, avec la bénédiction de Benoit Rittaud, le graphique de la Banque mondiale qui fait apparaître une nette tendance à la baisse qu'il fallait absolument cacher sous le tapis ; comparez ce graphique, qui présente une échelle correcte permettant de visualiser la pente descendante, avec l'électroencéphalogramme plat du sieur MD sur le site de l'honorable Benoit Rittaud.

Pour avoir un peu plus de détails on peut consulter le site consoglobe.com :
  • [S]elon [une] étude de la FAO, la réduction des terres boisées (15,5 millions d’hectares par an) du fait de la déforestation et des catastrophes naturelles entre 1990 et 2010 a été partiellement effacée par des gains de surfaces forestières obtenus grâce au boisement et à la croissance naturelle des forêts naturelles (10,2 millions d'hectares par an)  :
    • 1990-2010 : 155.000 km2 - 102.000 km2 = 53.000 km2 par an.
Mais...
  • Souvent composées d'une ou deux essences dédiées à l'industrie papetière, les forêts replantées sont d'une pauvreté écologique affligeante.
Ainsi, non seulement Benoit Rittaud tente d'enfumer ses lecteurs en leur montrant une courbe plate censée "démontrer" qu'il n'y aurait pas de problème de déforestation dans le monde, mais de plus il cache soigneusement le fait qu'une grande partie de la forêt "reconstituée" est de piètre qualité, un peu comme si on vous amputait de tous vos membres en les remplaçant par des bouts de bois et en vous disant « vous voyez, vous n'avez rien perdu ! »

Mais le sujet est extrêmement complexe, beaucoup plus en tout cas que le simple graphique pour les nuls montré par Benoit Rittaud qui ne s'est pas foulé pour donner trop d'explications à ses lecteurs, au cas où cela les aurait traumatisés (il est vrai qu'il n'en ont pas l'habitude) ; on peut se rendre compte de l'ampleur du problème en lisant des sites documentés comme greenfacts.org où l'on peut voir cependant une carte synthétique pour se faire une idée :

Figure 2.5: Forest Change Dynamics

Un autre tableau est lui-aussi très parlant et complète celui sur la diminution des surfaces forestières ci-dessus :

Table 2.10: Trends in carbon stocks in forest biomass 1990–2005

Region/subregionCarbon in living biomass
(Gt)
199020002005
1 Giga tonne (Gt) = 1 000 000 000 tonnes (t)
Eastern and Southern Africa15.914.814.4
Northern Africa3.83.53.4
Western and Central Africa46.043.943.1
Total Africa65.862.260.8
East Asia7.28.49.1
South and Southeast Asia32.325.521.8
Western and Central Asia1.61.71.7
Total Asia41.135.632.6
Total Europe42.043.143.9
Caribbean0.40.50.6
Central America3.42.92.7
North America37.238.539.2
Total North and Central America41.041.942.4
Total Oceania11.611.411.4
Total South America97.794.291.5
WORLD299.2288.6282.7

On y voit qu'en Europe les forêts ont tendance à se reconstituer (à quel prix ?) mais c'est bien la seule région dans le monde ; la perte nette en stock de carbone contenu dans la biomasse forestière est de plus de 6% en Amérique du sud et de 7,5% en Afrique (pour -5,5% pour l'ensemble de la planète) pour la période allant de 1990 à 2005 ; rajoutez la période allant de 2005 à 2015 et vous aurez la totalité de la période couverte par le soi-disant graphique exhibé par Benoit Rittaud, mais je ne suis pas sûr que la dernière décennie rattrape le retard accumulé...

D'autres graphiques plongent dans les profondeurs des détails, profondeurs dans lesquelles Benoit Rittaud n'irait jamais s'aventurer :

Tendances vers la gestion durable des forêts au niveau mondial.
Variation nette annuelle de la superficie forestière par région 1990-2005 (millions d'hectares par an)

Par ailleurs quand on regarde la carte mondiale des forêts, on s'aperçoit que les plus grandes surfaces, outre le bassin amazonien, se trouvent au Canada et en Russie, deux pays particulièrement touchés par de monstrueux incendies causés et/ou amplifiés...par le réchauffement climatique !

Figure 2.2: The world’s forests

On pourrait continuer longtemps à consulter de nombreux sites (planetoscope.com, crpf-limousin.com ou globalforestwatch.org par exemple ) et on aurait du mal à boucler un sujet que Benoit Rittaud a décidé de nous résumer de splendide manière avec un unique graphique manipulé, du Grand Art je vous disais au début !

Leçon numéro 4 : présenter un graphique dont l'axe des x comporte une courte période non représentative


Après un graphique plat, Benoit Rittaud nous en présente un maintenant, en deuxième position, qui montre des courbes joliment ascendantes, supposées nous "démontrer" une belle santé :

Production agricole dans le monde selon la Banque mondiale.

Ici aussi deux warnings s'allument instantanément :
  1. toujours pas de lien vers la source, il faut aller au charbon pour vérifier que les courbes représentent bien la réalité (ou bien on croit Benoit Rittaud sur parole, ce qui présente certains risques que quelques uns acceptent d'assumer) ;
  2. cette fois, comme c'est bizarre, l'axe des y ne commence pas par zéro, pour le cas où les courbes montrées auraient paru trop plates, ce qui est donc correct à première vue, cependant la question à se poser est de savoir quelle est la tendance à long terme, car une période de 24 ans est trop courte pour tirer des conclusions définitives.
Pour tout vous dire ce graphique me fait immédiatement penser à la courbe de croissance d'un adolescent de 15 ans qui mesurerait 170cm alors qu'il en faisait 130 à l'âge de 10 ans ; d'après Rittaud et son comparse MD il est simplissime de calculer combien cet individu mesurera à l'âge de 60 ans : il devrait faire plus de 5 mètres d'après eux !

Bon okay, je caricature grossièrement le graphique de Rittaud, en fait on voit même une légère pause à partir de 2013-2014, mais avouez quand même que la première chose qui vous a frappée en regardant son graphique c'est la plus grande partie des trois courbes représentées, à savoir la partie allant de 1992 à 2013 et montrant une croissance resplendissante, n'était-ce pas là ce que notre mathématicien de renommée internationale voulait que nous comprenions ?

Alors allons voir d'un peu plus près ce qu'il en est au juste.

Comme il fallait s'y attendre le sujet est incommensurablement plus complexe que les quelques traits colorés montrés par Rittaud sur son site, mais cela ne devrait pas (plus) vous étonner maintenant.

Un premier aperçu nous est donné par le site geotheque.org qui nous montre une carte intéressante, bien que trop complexe pour un lecteur habitué à la prose Rittaudienne :

La grande diversité des systèmes agricoles.

« La grande diversité » se traduit chez Rittaud par trois courbes tracées sur une période de 24 ans...

Un autre site, momagri.org, nous donne quelques détails, malheureusement sur une période là-aussi trop courte, mais on fait avec ce qu'on a pour le moment :

Production mondiale (en valeur) de 1999 à 2009.

Ce graphique a pour utilité de nous montrer que la Chine se démarque nettement des autres régions du monde, l'union Européenne étant en clair déclin ; mais attention, il s'agit de millions de dollars en prix courant (non corrigés de l'inflation), donc à prendre avec de grandes pincettes, et cela ne signifie pas forcément que la production agricole en termes de quantités suive les mêmes pentes...

Mais si on se concentre sur la France (cocorico) le tableau est guère reluisant :
  • Chaque jour, plus de 220 hectares de terres agricoles disparaissent en France, soit l’équivalent de 4 exploitations moyennes
  • Toute l’Europe est concernée par la disparition des terres agricoles, mais la France à un rythme plus élevé que les autres Etats européens.
Et plus intéressant encore :
  • Après un demi-siècle de croissance continue, les rendements du blé stagnent depuis les années 2000. En cause, des impasses sur la fertilisation et la protection des cultures, provoquées notamment par une augmentation des coûts et une dépréciation des revenus agricoles …6. Ce constat sur le blé, se vérifie également pour d’autres productions.
Ainsi on commence à entrevoir que les trois courbes de Rittaud cachent bien des situations différentes, avec des causes et des conséquences difficiles à imaginer quand on se limite à regarder un site de désinformation...

Il suffit d'ailleurs de consulter le site Wikipédia dédié à l'agriculture, et l'on prend la mesure de l'ampleur du problème en s'abstenant de tirer la moindre conclusion hâtive sur le sujet.

Mais laissons le mot de la fin (la faim ?) au site lafranceagricole.fr qui sait peut-être de quoi il parle (c'était en 2012, donc toujours plus ou moins valable en 2017) :
  • « La croissance annuelle moyenne de la production agricole [mondiale] ralentira d'ici à 2021 à 1,7 % par an, contre 2,6 % » sur la période 2000-2012, indique la FAO dans son rapport annuel sur la situation de l'alimentation et de l'agriculture présenté jeudi à son siège, à Rome.
  • La FAO insiste par ailleurs sur l'explosion de la production d'agrocarburants ces quinze dernières années en Amérique du Nord, au Brésil et dans l'Union européenne (UE). De 2000 à 2012, la production d'éthanol des Etats-Unis a été multipliée par près de 9, tandis que celle du Brésil bondissait de 140 %.
  • Or, à ce jour, « environ 25 % des terres agricoles de la planète sont fortement dégradées » : « Ces pressions ont atteint un niveau critique dans certaines régions et les changements climatiques devraient encore aggraver la situation », met en garde la FAO, alertant également sur « l'épuisement des ressources naturelles », notamment en eau.
  • Alors que « la plupart des meilleures terres du globe sont déjà utilisées à des fins agricoles », poursuit-elle, celles qu'on peut encore trouver, en Amérique du Sud et en Afrique subsaharienne surtout, sont situées dans des zones reculées, difficiles d'accès, éloignées des habitations et des infrastructures, ce qui nécessitera des investissements conséquents. Mais ceux-ci ont précisément « stagné, voire baissé, au cours des trente dernières années », là où les populations sont les plus exposées « à la pauvreté extrême, en Asie du Sud et en Afrique subsaharienne ».
Ainsi, en résumant la situation :
  • la croissance de la production agricole mondiale ralentit (quid de la croissance de la population ?) ;
  • les agrocarburants prélèvent leur dîme sur la production totale, c'est toujours ça qui n'ira pas dans la bouche des mal-nourris ; 
  • les terres se dégradent de plus en plus (exploitation intensive, utilisation excessive d'engrais, ravinement dû aux intempéries, etc.) ;
  • nous utilisons déjà les terres les plus accessibles au maximum de leurs possibilités, il ne reste plus qu'à migrer vers des régions reculées où existe un potentiel intéressant (Amérique du Sud et Afrique sub-saharienne, le rêve de tout agriculteur, surtout avec la hausse des températures...)

*****

Voilà, je vous ai exposé (i.e. j'ai révélé que le roi était nu) quatre leçons prodiguées par Benoit Rittaud, notre immense mathématicien qui passe son temps libre (et il doit en avoir un bon paquet) à se moquer de gens comme Jean Jouzel, Bruno Latour ou Mathieu Vidard dans son piteux Climathon (qui rime avec...) plutôt qu'à revoir ses cours de CM2 où on lui expliquait ce qu'était un pourcentage ; si vous en trouvez d'autres je me ferais un plaisir de les rajouter.

Il y a quand même quelques lecteurs qui apprécient les efforts de Benoit Rittaud pour les éduquer, par exemple :
  • Le , René33 a dit :
    • Ces chiffres font plaisir à voir ! Ils contredisent utilement le discours alarmiste des prêcheurs de l’Apocalypse habituels. Et ils sont encore plus optimistes quand on regarde l’évolution des pays les plus pauvres dont toutes les conditions se sont améliorées ces dernières décennies, comme jamais elles s’étaient améliorées depuis l’histoire de l’Humanité.




dimanche 19 novembre 2017

Quelques graphiques tirés du rapport fédéral Américain - septième et dernière partie


Suite

Chapitre 14: Perspectives sur l'atténuation du changement climatique

Principale conclusion 1
La réduction des émissions nettes de CO2 est nécessaire pour limiter les changements climatiques à court terme et le réchauffement à long terme. D'autres gaz à effet de serre (par exemple, le méthane) et des aérosols de carbone noir produisent des effets de réchauffement plus importants que le CO2 par tonne, mais ils ne persistent pas aussi longtemps dans l'atmosphère ; par conséquent, l'atténuation des espèces non-CO2 contribue considérablement aux avantages du refroidissement à court terme, mais ne peut être invoquée pour les objectifs de stabilisation ultimes. (Très haute confiance)

Principale conclusion 2
La stabilisation de la température moyenne mondiale à moins de 2°C (3,6°F) au-dessus des niveaux préindustriels nécessite des réductions substantielles des émissions mondiales nettes de CO2 avant 2040 par rapport aux valeurs actuelles et exige probablement que les émissions nettes deviennent nulles ou négatives au cours du siècle. Après avoir pris en compte les effets de la température sur les espèces non-CO2, les émissions cumulatives globales de CO2 doivent rester inférieures à 800 GtC pour permettre, avec une probabilité de deux sur trois, d'éviter un réchauffement de 2°C (3,6°F). Compte tenu des émissions cumulatives estimées depuis 1870, il ne sera pas possible d'émettre plus de 230 GtC à l'avenir pour rester sous ce seuil de température. En supposant que les émissions mondiales sont égales ou supérieures à celles qui sont compatibles avec le scénario RCP4.5, ce seuil cumulatif de carbone serait dépassé dans environ deux décennies. (Grande confiance)

Principale conclusion 3
Réaliser des réductions d'émissions de gaz à effet de serre d'ici 2030 conformément aux objectifs et actions annoncés par les gouvernements avant la conférence de Paris sur le climat de 2015 permettrait d'atteindre l'objectif de température à long terme de limiter le réchauffement climatique à 2°C (3,6°F) au-dessus des niveaux préindustriels, alors qu'il n'y aurait pratiquement aucune chance si les émissions mondiales nettes suivaient une trajectoire bien supérieure à celles qu'impliquent les annonces par pays. Les actions contenues dans les annonces sont, en elles-mêmes, insuffisantes pour atteindre un objectif de 3,6°F (2°C) ; la probabilité d'atteindre cet objectif dépend fortement de l'ampleur des réductions d'émissions mondiales après 2030. (Confiance élevée)

Principale conclusion 4
D'autres évaluations des faisabilités techniques, des coûts, des risques, des co-bénéfices et des défis de gouvernance des stratégies d'intervention climatique ou de géo-ingénierie, qui n'ont pas encore été prouvées, sont une étape nécessaire avant de pouvoir juger des avantages et des risques de ces approches. avec une grande confiance. (Grande confiance)

Changement de la température moyenne globale pour un certain nombre de scénarios en fonction des émissions cumulatives de CO2 provenant des conditions préindustrielles, avec le temps progressant le long de chaque ligne individuelle pour chaque scénario. (Source de l'illustration : GIEC 2013; © GIEC, utilisé avec permission).
Les émissions mondiales de CO2 et les résultats probabilistes en matière de température des annonces gouvernementales associées à la préparation de la conférence de Paris sur le climat. a) Émissions mondiales de CO2 provenant de l'énergie et de l'industrie (y compris les émissions de CO2 provenant de la production et de l'utilisation des combustibles fossiles et des procédés industriels tels que la production de ciment) pour des scénarios d'émissions sans aucune politique, avec la politique actuelle, satisfaisant les annonces avec des taux constants de décarbonisation des pays après 2030 et enfin les annonces des gouvernements avec des taux de décarbonisation plus élevés après 2030. Les INDC se réfèrent aux contributions prévues déterminées au niveau national, terme utilisé pour les actions annoncées par les gouvernements avant Paris. (b) Probabilités de différents niveaux d'augmentation de la température moyenne à la surface du globe au cours du 21ème siècle par rapport aux niveaux préindustriels pour les quatre scénarios. Bien que (a) ne montre que les émissions de CO2 provenant de l'énergie et de l'industrie, les résultats de température sont basés sur la gamme complète d'émissions de GES, d'aérosols et d'espèces à courte durée de vie. (Source de l'illustration : Fawcett et al., 2015).
Les scénarios d'émissions mondiales de GES, exprimées en émissions d'équivalent CO2, qui seraient compatibles avec différents objectifs de température (par rapport aux températures préindustrielles). Les INDC renvoient aux contributions prévues déterminées au niveau national, terme utilisé pour les actions annoncées par les gouvernements avant Paris. (a) montre un ensemble de scénarios où les températures moyennes globales ne dépasseraient probablement pas (66%) 2,7°F (1,5°C). Un certain nombre de scénarios sont compatibles avec l'objectif, allant de la courbe rouge (atténuation la plus lente à court terme avec des exigences d'émissions négatives importantes à l'avenir) à la courbe noire avec une atténuation rapide à court terme et moins d'émissions négatives futures. (b) montre des voies similaires avec 66% de chance de dépasser 1,5°C (2,7°F) pendant seulement 50 ans, où (c) et (d) montrent des scénarios d'émission similaires pour 2°C (3,6°F). (Source de l'illustration : Sanderson et al., 2016).

Chapitre 15: Surprises potentielles: Combinaisons extrêmes et éléments de basculement

Principale conclusion 1
Les rétroactions positives (cycles d'auto-renforcement) au sein du système climatique ont le potentiel d'accélérer le changement climatique anthropique et même de déplacer le système climatique de la Terre, en tout ou en partie, vers de nouveaux états très différents de ceux du passé récent (par exemple, ceux dont les calottes glaciaires sont très réduites ou différents types de circulation atmosphérique ou océanique à grande échelle). Certaines rétroactions et les changements d'état potentiels peuvent être modélisés et quantifiés ; d'autres peuvent être modélisés ou identifiés mais pas quantifiés ; et certains sont probablement encore inconnus. (Très grande confiance dans le potentiel des changements d'état et dans le caractère incomplet des connaissances sur les rétroactions et les changements d'état potentiels).

Principale conclusion 2
Les impacts physiques et socioéconomiques des événements extrêmes composés (tels que la chaleur et la sécheresse simultanées, les incendies associés à des conditions chaudes et sèches, ou les inondations associées à de fortes précipitations au-dessus de la neige ou du sol gorgé d'eau) peuvent être supérieurs à la somme des parties (très haute confiance). Peu d'analyses considèrent la corrélation spatiale ou temporelle entre les événements extrêmes.

Principale conclusion 3
Alors que les modèles climatiques intègrent des processus climatiques importants qui peuvent être bien quantifiés, ils n'incluent pas tous les processus qui peuvent contribuer aux rétroactions, aux événements extrêmes composés et aux changements brusques et/ou irréversibles. Pour cette raison, les changements futurs en dehors de la plage projetée par les modèles climatiques ne peuvent pas être exclus (très haut niveau de confiance). De plus, la tendance systématique des modèles climatiques à sous-estimer le changement de température durant les paléoclimats chauds suggère que les modèles climatiques sont plus susceptibles de sous-estimer que de surestimer les changements futurs à long terme (confiance moyenne).

(à gauche) Éléments de basculement climatique potentiels affectant les Amériques (Source de l'illustration : adapté de Lenton et al., 2008). (à droite) Les incendies de forêt et les épisodes de sécheresse de la liste NOAA Billion Dollar Weather Events (1980-2016), ainsi que les anomalies de température et de précipitations associées. La taille des points varie avec l'ampleur de l'impact, comme en témoigne le coût de l'événement. Ces événements à fort impact se produisent préférentiellement dans des conditions chaudes et sèches.
Pour information voici la carte mondiale d'où est issue l'illustration ci-dessus :
Fig. 1.
Carte des éléments de basculement potentiels pertinents pour les politiques dans le système climatique, mise à jour à partir de la réf. 5 et se superposant à la densité de la population mondiale. Les sous-systèmes indiqués pourraient présenter un comportement de type seuil en réponse au forçage climatique anthropique, où une petite perturbation à un point critique altère qualitativement le devenir futur du système. Ils pourraient être déclenchés au cours de ce siècle et subiraient un changement qualitatif au cours de ce millénaire. Nous excluons de la carte les systèmes dans lesquels tout seuil semble inaccessible ce siècle (par exemple, l'Antarctique de l'Est) ou quand le changement qualitatif apparaîtrait au-delà de ce millénaire (par exemple, les hydrates de méthane marins). Des points d'interrogation indiquent des systèmes dont le statut en tant qu'éléments de basculement est particulièrement incertain. (source pnas)

Annexe A: Jeux de données d'observation utilisés dans les études sur le climat

Séries chronologiques moyennes mondiales (80°S-80°N) de la température troposphérique pour cinq ensembles de données récentes (voir ci-dessous). Chaque série temporelle est ajustée de sorte que la valeur moyenne pour les trois premières années est zéro. Cela accentue les différences dans les changements à long terme entre les ensembles de données. (Source de l'illustration : RSS).
Tableau A.1: Tendances mondiales de la température troposphérique totale (TTT) depuis 1979 et 2000 (en °F par décennie).
Dataset            Trend (1979–2015) (°F/Decade)           Trend (2000–2015) (°F/Decade)
RSS V4.0                          0.301                     0.198
UAH V6Beta5                         0.196                      0.141
STAR V4.0                         0.316                     0.157
RSS V3.3                         0.208                     0.105
UAH V5.6                         0.176                     0.211
STAR V3.0                         0.286                     0.061


Annexe B: Stratégie de pondération du modèle

Une représentation graphique de la matrice de distance intermodèle pour CMIP5 et un ensemble de valeurs observées. Chaque ligne et colonne représente un seul modèle climatique (ou observation). Tous les scores sont agrégés au fil des saisons (les saisons individuelles ne sont pas montrées). Chaque boîte représente une distance par paire, où les couleurs chaudes (rouges) indiquent une plus grande distance. Les distances sont mesurées en tant que fraction de la distance intermodale moyenne dans l'ensemble CMIP5. (Source de l'illustration : Sanderson et al., 2017).
Pondération des compétences et de l'indépendance des modèles pour l'archive CMIP5 évaluée sur le domaine nord-américain. Les contours indiquent la pondération globale, qui est le produit des deux poids individuels. (Source de l'illustration : Sanderson et al., 2017).
Les projections de variation des précipitations sur l'Amérique du Nord en 2080-2100, par rapport à 1980-2000 selon le scénario supérieur (RCP8.5). (a) Affiche la moyenne simple multimodèle CMIP5 non pondérée, en utilisant la méthodologie de l'importance du GIEC ; (b) montre les résultats pondérés décrits à la section 3 pour les modèles pondérés par unicité seulement ; et (c) montre des résultats pondérés pour les modèles pondérés par l'unicité et la compétence. (Source de l'illustration : Sanderson et al., 2017).


Annexe C: Méthodologies de détection et d'attribution

Dans cette annexe, nous présentons un bref aperçu des méthodologies et des questions méthodologiques pour la détection et l'attribution du changement climatique. [...] (aucun graphique à montrer)

samedi 18 novembre 2017

Quelques graphiques tirés du rapport fédéral Américain - sixième partie

Suite


Chapitre 12: Hausse du niveau de la mer

Principale conclusion 1
Le niveau moyen mondial de la mer (GMSL) a augmenté d'environ 7-8 pouces (environ 16-21 cm) depuis 1900, avec environ 3 de ces pouces (environ 7 cm) se produisant depuis 1993 (très haut niveau de confiance). Le changement climatique causé par l'homme a apporté une contribution substantielle à la hausse du GMSL depuis 1900 (niveau de confiance élevé), contribuant à un taux de croissance supérieur à celui de n'importe quel siècle précédent en au moins 2 800 ans (niveau de confiance moyen).

Principale conclusion 2
Par rapport à l'an 2000, le GMSL devrait augmenter de 9 à 18 cm (0,3 à 0,6 pied) d'ici 2030, de 15 à 38 cm (0,5 à 1,2 pied) d'ici 2050 et de 30 à 130 cm (1,0 à 4,3 pieds) en 2100 (confiance très élevée dans les limites inférieures, confiance moyenne dans les limites supérieures pour 2030 et 2050, faible confiance dans les limites supérieures pour 2100). Les trajectoires futures ont peu d'effet sur l'augmentation projetée du GMSL dans la première moitié du siècle, mais affectent de manière significative les projections pour la seconde moitié du siècle (confiance élevée). Les données scientifiques émergentes concernant la stabilité de la calotte glaciaire antarctique suggèrent que, pour les scénarios d'émissions élevées, une augmentation du GMSL supérieure à 8 pieds (2,4 m) en 2100 est physiquement possible, bien que la probabilité d'un résultat aussi extrême ne puisse pas être évaluée. Indépendamment de la voie, il est très probable que la hausse du GMSL se poursuive au-delà de 2100 (niveau de confiance élevé).

Principale conclusion 3
L'élévation du niveau de la mer (RSL) au cours de ce siècle variera le long des côtes américaines en partie à cause des changements du champ gravitationnel terrestre et de la rotation de la glace, des changements dans la circulation océanique et du mouvement vertical des terres. Pour presque tous les futurs scénarios de hausse du GMSL, la hausse du RSL sera probablement supérieure à la moyenne mondiale dans le nord-est des États-Unis et l'ouest du golfe du Mexique. Dans les scénarios de hausse GMSL intermédiaire et faible, l'augmentation RSL est susceptible d'être inférieure à la moyenne mondiale dans une grande partie du Pacifique Nord-Ouest et en Alaska. Pour les scénarios de hausse du GMSL, la hausse du RSL est susceptible d'être supérieure à la moyenne mondiale sur toutes les côtes des États-Unis en dehors de l'Alaska. Presque toutes les côtes américaines connaissent une élévation moyenne du niveau de la mer en réponse à la perte de glace en Antarctique, et seraient donc particulièrement touchées par des scénarios de hausse extrême des GMSL impliquant une perte massive de masse antarctique (niveau de confiance élevé).

Principale conclusion 4
À mesure que le niveau de la mer augmente, le nombre d'inondations dues aux marées ayant des impacts mineurs (appelées « inondations ennuyeuses » [nuisance floods]) a augmenté de 5 à 10 fois depuis les années 1960 dans plusieurs villes côtières des États-Unis (niveau de confiance très élevé). Les taux d'augmentation s'accélèrent dans plus de 25 villes de l'Atlantique et de la côte du Golfe (degré de confiance très élevé). Les inondations dues aux marées continueront d'augmenter en profondeur, en fréquence et en étendue au cours de ce siècle (confiance très élevée).

Principale conclusion 5
En supposant que les caractéristiques des tempêtes ne changent pas, l'élévation du niveau de la mer augmentera la fréquence et l'ampleur des inondations extrêmes associées aux tempêtes côtières, telles que les ouragans et les "nor'easters" [cyclones avec vents de nord est] (très haut niveau de confiance). Une augmentation prévue de l'intensité des ouragans dans l'Atlantique Nord (niveau de confiance moyen) pourrait augmenter la probabilité d'inondations extrêmes le long de la plupart des États américains et de la côte du Golfe. Cependant, il y a peu de confiance dans l'augmentation prévue de la fréquence des ouragans intenses de l'Atlantique, et l'amplification du risque d'inondation et les effets d'inondation pourraient être compensés ou amplifiés par des facteurs tels que les changements dans la fréquence globale des orages.


(a-d) Empreintes d'équilibre statique de l'effet relatif du niveau de la mer, en unités de pieds de changement RSL par pied de changement du niveau moyen de la mer (GMSL), pour une perte de masse de (a) Groenland , (b) l'Antarctique de l'Ouest, (c) l'Antarctique de l'Est, et (d) la combinaison médiane projetée de la fonte des glaciers, d'après Kopp et al. (e) Projections du taux d'augmentation de la RSL due à l'ajustement glacio-isostatique (unités de pieds / siècle), d'après Kopp et al. (f) Estimations basées sur les marégraphes de la contribution non climatique et à long terme à l'augmentation de la RSL, y compris les effets de l'ajustement isostatique glaciaire, de la tectonique et du compactage des sédiments (unités de pieds / siècle). (Source de l'illustration : (a) - (d) Kopp et al., 2015, (e) adapté de Kopp et al., 2015 (f) adapté de Sweet et al., 2017).
(a) La relation entre la température moyenne mondiale maximale, le niveau moyen global de la mer (GMSL) et la source (ou les sources) d'eau de fonte pendant deux périodes passées avec une température moyenne mondiale comparable ou plus chaude qu'à présent. L'ombrage bleu clair indique l'incertitude du maximum GMSL. Les diagrammes en secteurs rouges sur le Groenland et l'Antarctique indiquent la fraction, et non l'emplacement, du recul des glaces. Les niveaux de CO2 atmosphérique en 2100 sont indiqués sous RCP8.5. (b) L'augmentation de GMSL de -500 à 1900 CE, de la reconstitution géologique et marégraphique de Kopp et al. (en bleu), de 1900 à 2010 de la reconstruction à base de marégraphes de Hay et al. (en noir), et de 1992 à 2015 de la reconstruction par satellite mise à jour de Nerem et al. (magenta). (Source de l'illustration : (a) adapté de Dutton et al., 2015 et (b) Sweet et al., 2017).
(a) Apports des changements de masse océanique des glaces terrestres et eaux terrestres (mesurés par gravimétrie satellitaire) et des changements de volume océanique (ou stérique, principalement dus à la dilatation thermique mesurés par les profileurs océaniques in situ) et leur comparaison avec le niveau mondial moyen (GMSL) ) (mesuré par altimétrie satellitaire) depuis 1993. (b) Une estimation de l'augmentation modélisée du GMSL en l'absence du réchauffement du XXe siècle (bleu), du même modèle avec réchauffement observé (rouge), et comparée au changement observé du GMSL (noir) ). L'ombrage lourd / léger indique les percentiles 17e-83e et 5e-95e. c) Taux de variation de la hauteur de la surface de la mer de 1993 à 2015 à partir des données altimétriques satellitaires ; mis à jour de Kopp et al. en utilisant les données mises à jour de Church and White. (Source de l'illustration : (a) adapté et mis à jour de Leuliette et Nerem 2016, (b) adapté de Kopp et al., 2016 et (c) adapté et mis à jour de Kopp et al., 2015).
(a) Le niveau moyen mondial de la mer (GMSL) de 1800 à 2100, selon la Figure 12.2b de 1800 à 2015, les six scénarios interinstitutions GMSL (bleu marine, bleu roi, cyan, vert, orange et rouge), le "très probable" éventail en 2100 pour différents RCP (cases colorées), et les lignes augmentant les fourchettes très probables en raison de la différence entre la contribution médiane antarctique de Kopp et al. et les diverses projections médianes antarctiques de DeConto et Pollard. (b) Hausse du niveau relatif de la mer (RSL) (pieds) en 2100 projetée pour le scénario intermédiaire inter-agences (augmentation de 1 mètre [3.3 pieds] GMSL d'ici 2100) (Source de l'illustration : Sweet et al., 2017).
Figure 12.5 : a) Crues de marée (jours par an) dépassant les seuils NOAA pour les impacts mineurs sur 28 marégraphes NOAA jusqu'en 2015. (b) Dépassements historiques (orange), projections futures jusqu'en 2100 basées sur la poursuite de la tendance historique (bleu ), et les projections futures dans les conditions médianes RCP2.6, 4.5 et 8.5, pour deux des emplacements - Charleston, SC et San Francisco, CA. (c) les hauteurs d'eau supérieures à la moyenne des marées les plus hautes associées à une probabilité locale de récurrence de cinq ans, et (d) la future décennie où l'événement quinquennal devient un événement de deux ans ou plus (5 fois ou plus par an) Scénario intermédiaire ; les points noirs impliquent qu'un changement de fréquence de 5 ans à 0,2 ans ne se déroule pas d'ici 2200 dans le scénario Intermédiaire. (Source de l'illustration : (a) adapté de Sweet et Marra 2016, (b) adapté de Sweet et Park 2014, (c) et (d) Sweet et al., 2017).


Chapitre 13: Acidification des océans et autres changements océaniques

Principale conclusion 1
Les océans du monde ont absorbé environ 93% de la chaleur excessive causée par le réchauffement des gaz à effet de serre depuis le milieu du XXe siècle, ce qui les rend plus chauds et modifie les rétroactions climatiques mondiales et régionales. La teneur en chaleur des océans a augmenté à toutes les profondeurs depuis les années 1960 et les eaux de surface se sont réchauffées d'environ 1,3° ± 0,1°F (0,7 ± 0,08°C) par siècle entre 1900 et 2016. Dans un scénario plus élevé, on prévoit une température de surface de la mer de 2,7° ± 0,7°C (4,9°F ± 1,3°F) d'ici à 2100, avec des changements encore plus importants dans certaines régions côtières américaines. (Très haute confiance)

Principale conclusion 2
Le ralentissement potentiel de la circulation méridienne atlantique (AMOC, dont le Gulf Stream est une composante), conséquence de l'augmentation de la chaleur océanique et des changements de flottabilité entraînés par l'eau douce, pourrait provoquer des rétroactions climatiques dramatiques comme l'océan absorbe moins de chaleur et de CO2 de l'atmosphère. Ce ralentissement affecterait également les climats de l'Amérique du Nord et de l'Europe. Tout ralentissement documenté à ce jour ne peut pas être directement lié au forçage anthropique principalement en raison du manque de données d'observation adéquates et des difficultés à modéliser les changements dans la circulation océanique. Dans un scénario supérieur (RCP8.5) dans les simulations CMIP5, l'AMOC s'affaiblit au cours du 21ème siècle de 12% à 54% (faible confiance).

Principale conclusion 3
Les océans du monde absorbent actuellement plus d'un quart du CO2 émis dans l'atmosphère chaque année par les activités humaines, ce qui les rend plus acides (très haute confiance), avec des impacts potentiellement nuisibles sur les écosystèmes marins. En particulier, les systèmes à plus haute latitude ont généralement une capacité d'amortissement plus faible contre le changement de pH, présentant des conditions corrosives saisonnières plus tôt que les systèmes à basse latitude. L'acidification augmente régionalement le long des côtes américaines à la suite de remontées d'eau (par exemple, dans le nord-ouest du Pacifique), de changements dans les apports d'eau douce (par exemple, dans le golfe du Maine) et de nutriments ( par exemple, dans les bassins versants agricoles et les estuaires urbanisés) (niveau de confiance élevé). Le taux d'acidification est inégalé depuis au moins 66 millions d'années (degré de confiance moyen). Selon le scénario supérieur (RCP8.5), l'acidité moyenne globale de l'océan de surface devrait augmenter de 100% à 150% (niveau de confiance élevé).

Principale conclusion 4
L'augmentation des températures de surface, l'élévation du niveau de la mer et l'évolution des précipitations, des vents, des éléments nutritifs et de la circulation océanique contribuent à la baisse des concentrations d'oxygène à des profondeurs intermédiaires dans divers endroits océaniques et dans de nombreuses zones côtières. Au cours du dernier demi-siècle, d'importantes pertes d'oxygène ont eu lieu dans les mers intérieures, les estuaires et dans les eaux côtières et ouvertes (degré de confiance élevé). Les niveaux d'oxygène dans les océans devraient diminuer de 3,5% selon le scénario supérieur (RCP8.5) d'ici 2100 par rapport aux valeurs préindustrielles (niveau de confiance élevé).

La série de changement dans le temps du contenu global de chaleur de l'océan. Teneur en chaleur océanique de 0 à 700 m (bleu), de 700 à 2 000 m (rouge) et de 0 à 2 000 m (gris foncé) de 1955 à 2015 avec un intervalle d'incertitude de ± 2 écarts types en ombrage. Toutes les séries chronologiques de l'analyse effectuée par Cheng et al. sont lissées par un filtre moyen sur 12 mois, par rapport à la période de base 1997-2005. (Source de l'illustration : Cheng et al., 2017).
Variations de la teneur en chaleur des océans de 1960 à 2015 pour différents bassins océaniques de 0 à 2 000 m de profondeur. Les séries temporelles sont relatives à la période de base 1997-1999 et lissées par un filtre de douze mois de fonctionnement de Cheng et al. Les courbes sont additives et les variations de la chaleur calorifique dans les différents bassins océaniques sont ombrées de différentes couleurs (Figure de l'illustration : Cheng et al., 2017).
Changements projetés de la température de la surface de la mer (°C) pour les États-Unis côtiers selon le scénario supérieur (RCP8.5). Les anomalies projetées pour la période 2050-2099 sont calculées en comparant les températures moyennes à la surface de la mer de 1956 à 2005. Les modifications projetées sont examinées à l'aide de la suite de simulations de modèles couplée du modèle d'intercomparaison de modèles de phase 5 (CMIP5). (Source de l'illustration : NOAA).

Tendances de la chimie des carbonates océaniques de surface (<50 m) calculées à partir des observations obtenues dans le cadre du programme Hawai'i Ocean Time-series (HOT) dans le Pacifique Nord entre 1988 et 2015. Le panneau supérieur montre l'augmentation liée des concentrations atmosphériques (points rouges) et de l'eau de mer (points bleus). Le panneau du bas montre une diminution du pH de l'eau de mer (points noirs, axe y primaire) et de la concentration en ions carbonate (points verts, axe y secondaire). Les données sur la chimie des océans ont été obtenues à partir du système d'organisation et de représentation graphique des données de la série chronologique Hawai'i Ocean (HOT-DOGS, hahana.soest.hawaii.edu). (Source de l'illustration : NOAA).
Changement prévu du pH de la surface de la mer entre 2090 et 2099 par rapport à 1990-1999 selon le scénario supérieur (RCP8.5), basé sur les modèles de systèmes terrestres communautaires - expériences d'ensembles de grande taille CMIP5 (Illustration : adaptée de Bopp et al., 2013).
Changement prévu de l'oxygène dissous sur la surface de densité potentielle σθ = 26,5 (profondeur moyenne d'environ 290 m), entre 1981-2000 et 2081-2100, sur la base des modèles de système terrestre communautaire - Expériences de grands ensembles (source : redessiné à partir de Long et al., 2016).



A suivre dans un prochain billet.



Chapitre 14: Perspectives sur l'atténuation du changement climatique


Chapitre 15: Surprises potentielles: Combinaisons extrêmes et éléments de basculement



Annexe A: Jeux de données d'observation utilisés dans les études sur le climat

Annexe B: Stratégie de pondération du modèle


Annexe C: Méthodologies de détection et d'attribution