logo argo large new

changement global

  • Réponses aux arguments de ceux qui doutent... 

    Michel Petit 

    Ce document a pour unique objet de répondre aux arguments invoqués par les "climato-sceptiques" qui militent contre l’existence d’un changement climatique lié aux activités humaines.

    Sommaire

    La compréhension de la machine climatique et sa modélisation

    Le rôle des activités humaines dans le changement climatique

    Les conséquences des changements climatiques

    L’existence du changement climatique récent

    La différence entre climatologie et météorologie

    Le GIEC

    Rapport de l'Académie des Sciences sur le Climat

    La compréhension de la machine climatique et sa modélisation

    • «La climatologie est une science neuve encore balbutiante».

      Non, la climatologie n’est pas une science neuve, contrairement à certaines affirmations. Elle fait appel à des phénomènes physiques et chimiques tout à fait classiques. Les facteurs déterminant la température de notre planète ont été étudiés, dès le XIXème siècle, par Joseph Fourier, John Tyndall et Svante Arrhenius Ils sont présentés dans le paragraphe suivant. Le Programme mondial de recherche sur le climat (en anglais WCRP a été créé conjointement par l’OMM et l’ICSU en 1980, à la suite du Programme mondial de recherche atmosphérique (en anglais GARP) entrepris en 1967. Fédérés par ces programmes, des milliers de chercheurs dans tous les pays travaillent depuis lors sur la compréhension des phénomènes météorologiques et climatiques et confrontent leurs résultats.

    • «Les facteurs qui influencent la température moyenne d'une planète restent largement inconnus».

      La température moyenne d’une planète s’ajuste à une valeur qui lui permet d’envoyer dans l’espace, sous forme de rayonnement infrarouge, une quantité d’énergie égale à l’énergie solaire qu’elle absorbe. Le rayonnement infrarouge rayonné dans l’espace dépend du rayonnement de la surface de la planète, donc de sa température, mais aussi de l’absorption par l’atmosphère dont la composition réagit donc sur la température moyenne de la surface. C’est ainsi que pour Vénus, la présence d’une atmosphère dense composée essentiellement de CO2 joue un rôle clé dans l’explication de la température d’environ 450°C qui y règne.

    • «Les modèles climatiques prédisent l’avenir à partir des observations du passé». 

      En fait, les modèles climatiques partent des processus physiques bien connus qui régissent la dynamique et la thermodynamique des fluides (océan et atmosphère) et les échanges d’énergie entre le rayonnement infrarouge et les molécules de certains gaz (des expériences en laboratoire et la mécanique quantique ont permis de déterminer avec précision les spectres d’absorption correspondants). Les ordinateurs sont des auxiliaires indispensables à la simulation de phénomènes complexes décrits par des équations non-linéaires dans un milieu inhomogène horizontalement et verticalement et à l’analyse des divers facteurs affectant le climat. L’utilisation d’ordinateurs est parfois considérée comme introduisant un doute sous l’argument fallacieux que certaines modélisations numériques, dans d’autres domaines, ont conduit à des résultats démentis par l’expérience. Or dans tous les cas, ce n’est pas l’ordinateur qui est responsable des succès et des échecs. Ce qui importe, c’est la bonne connaissance des phénomènes qu’on se propose de reproduire numériquement. Les résultats des modélisations du climat sont cependant affectées d’incertitudes, liées pour l’essentiel à l’impossibilité pratique de simuler, dans des temps de calcul réalistes, les phénomènes de faible échelle spatiale (inférieure à 100km). On est donc conduit à introduire des paramètres les décrivant de façon empirique. L’incertitude sur les résultats est évaluée en comparant la sortie des modèles pour les diverses paramétrisations envisageables. C’est ainsi que l’augmentation de la température moyenne mondiale provoquée par un doublement de la concentration des gaz à effet de serre est estimée comme étant dans la fourchette 1,5° à 4,5°. La validation des modèles climatiques repose sur leur capacité à reproduire les évolutions passées du climat et ses grandes structures actuelles, déduites des observations météorologiques,

    • «Le rôle de la vapeur d’eau est ignoré alors qu'il est essentiel». 

      Il est vrai que la vapeur d’eau est le plus efficace des gaz à effet de serre présents dans l’atmosphère. Son action est responsable de 60% de « l’effet de serre » naturel sans lequel la Terre connaîtrait une température d’une trentaine de degrés inférieure à ce qu’elle est. Par contre, l’injection de vapeur d’eau dans l’atmosphère est sans effet durable sur la concentration de la vapeur d’eau dans l’atmosphère, dans la mesure où sa durée de résidence dans l’atmosphère n’est que de une à deux semaines. Cette injection ne modifie donc pas le climat. Par contre, la durée de vie atmosphérique du CO2 est supérieure à un siècle et sa concentration dans l’atmosphère est modifiée durablement par les rejets humains qui peuvent donc induire une évolution du climat. Si la vapeur d’eau n’est pas directement responsable du changement climatique, elle y joue cependant un rôle : l’augmentation de la température provoque un accroissement de sa concentration dans l’atmosphère qui provoque un réchauffement complémentaire et crée une boucle de réaction amplificatrice que les modèles prennent en compte.

    Le rôle des activités humaines dans le changement climatique

    • «L’évolution observée du climat n’est que le prolongement des variations observées dans le passé et l’Homme n’y est pour rien». 

      L’évolution du climat dépend à l’évidence de phénomènes naturels comme l’énergie émise par le soleil ou la présence dans l’atmosphère de fines particules émises par les événements volcaniques majeurs. En outre, la façon dont la Terre reçoit le rayonnement du soleil, est affectée par les variations périodiques des paramètres qui décrivent son orbite et l’inclinaison de son axe de rotation. C’est à ce dernier phénomène qu’on attribue, de manière aujourd’hui incontestée, les grandes alternances de périodes glaciaires et de périodes d’optimum climatique qui ont affecté notre planète depuis un million d’années avec une périodicité principale de 100 000 ans et continueront de l’affecter, la prochaine glaciation étant prévue dans quelques dizaines de milliers d’années. Les modélisations des climatologues tiennent compte de ces phénomènes naturels tout comme des effets liés aux activités humaines. Ces dernières ont changé récemment la concentration dans l’atmosphère de gaz absorbant le rayonnement infrarouge, comme en attestent des mesures systématiques incontestées et aucun modèle ne permet de reproduire les observations de température observées depuis quelques décennies, si on ignore ce phénomène nouveau dans l’histoire de la Terre.

    • «Des changements de composition de l’ordre de quelques millièmes de % ne peuvent changer le climat de la planète». 

      Cette affirmation n’a aucun fondement scientifique : les gaz en question sont certes minoritaires, mais ils sont les seuls qui absorbent le rayonnement infrarouge émis par la Terre. Ce qui compte, c’est cet effet et ses variations. Rappelons que, sans cet effet, la Terre serait plus froide d’une trentaine de degrés.  

    • «Rien ne prouve que les changements de composition observés soient d’origine humaine». 

      Les arguments existent. La croissance de la concentration des gaz à, effet de serre a débuté avec l’ère industrielle. L’augmentation annuelle de la concentration de CO2 observée n’est que la moitié du rejet annuel dans l’atmosphère du CO2 produit par l’utilisation des combustibles fossiles. On observe effectivement une faible décroissance de l’oxygène dans l’atmosphère qui correspond à ce qui est nécessaire à la combustion du charbon, du pétrole et du gaz naturel utilisés. Enfin, l'évolution observée de la composition isotopique du carbone des molécules du CO2 atmosphérique reflète très précisément les origines naturelles et fossiles des sources de carbone atmosphérique.  

    • «Les variations du rayonnement solaire jouent un rôle plus important que celui de la composition atmosphérique». 

      Les variations observées par satellite du rayonnement solaire total sont insuffisantes pour expliquer le réchauffement observé et les tenants de cette thèse sont contraints de postuler des phénomènes d’amplification qui restent à évaluer. Pour l’instant, les objections à cette thèse sont triples. Premièrement, l’effet de serre lié au changement de la composition de l’atmosphère suffit à expliquer quantitativement les observations climatiques et un effet plus important du soleil devrait conduire à un réchauffement plus important que celui qui prévaut. Deuxièmement, le cycle de 11 ans du soleil est beaucoup plus important que ses variations à l’échelle de quelques décennies et devrait donc se traduire par une périodicité marquée de 11ans dans les variations du climat. Enfin, l’accroissement de la température observé diminue avec l’altitude et fait même place à une diminution au niveau de la stratosphère. Cette variation avec l’altitude ne peut être expliquée par une variation du rayonnement solaire, alors qu’elle est prédite par les modèles qui simulent la modification du transfert de rayonnement provoquée par l’augmentation de la concentration des gaz absorbant le rayonnement infrarouge. En particulier, dans la basse stratosphère, la température croît avec l’altitude à cause de l’absorption par l’ozone du rayonnement ultraviolet du soleil et le rayonnement du CO2 devient essentiellement une perte locale d'énergie. Il est donc normal que l'accroissement de la teneur en gaz à effet de serre se traduise par une diminution de la température dans la stratosphère, puisque les pertes d'énergie qu'y provoque cet accroissement augmentent sans que l'apport d'énergie soit modifié de façon significative.

    Les conséquences des changements climatiques

      • «La montée du niveau de la mer n’a rien de dramatique». 

        La valeur actuelle observée de 3 mm par an est présentée comme insignifiante, ne se traduisant que par 30 cm en un siècle. Le dernier rapport du GIEC mentionnait l’importance récemment mise en évidence d’une fonte des calottes continentales polaires plus rapide que prévu, sans que l’évolution future du phénomène puisse être évaluée précisément. Le phénomène qui était précédemment sous-estimé est la fonte des contreforts de glace continentale en bordure de la mer et le glissement plus rapide vers la mer des glaciers qu’entraîne la disparition de ces contreforts. Des travaux récemment publiés à ce sujet conduisent à redouter que l’augmentation du niveau de la mer atteigne un mètre à la fin du siècle. En tout état de cause, toute élévation du niveau de la mer est lourde de conséquences en de nombreuses régions du globe, en particulier les petites îles et les deltas très peuplés du Nil et d’Asie.  

      • «La fonte des glaces ne fait pas monter le niveau de la mer» ? 

        La fonte des glaces de mer ne contribue effectivement pas à l’élévation du niveau de la mer en vertu du principe d’Archimède : la partie immergée correspond exactement au volume de l’eau résultant de la fonte de la glace moins dense dont une partie sort de l’eau. La montée du niveau de la mer est par contre affectée par la fonte des glaces situées sur la terre ferme : glaciers de montagne et calottes continentales polaires.  

      • «La Terre a connu dans le passé des températures beaucoup plus élevées, sans dommages majeurs».

        L’existence de changements climatiques au cours des âges géologiques n’est en rien incompatible avec celle d’un réchauffement actuel provoqué par les activités humaines et susceptible d’affecter sérieusement l’humanité du XXIème siècle. Certes, la planète Terre a connu des climats plus chauds et son existence n’est pas menacée par le changement climatique anthropique. Par contre, les 7 à 9 milliards d’individus qui l’habitent en verront leur existence perturbée. L’analyse des cycles climatiques du dernier million d’années confirme qu’une augmentation de température provoque une augmentation de la concentration atmosphérique en CO2, notamment par suite du dégazage d’un océan plus chaud. Ce phénomène coexiste avec l’effet de serre, ce qui provoque une boucle de réaction amplificatrice et les phénomènes naturels ont tendance à amplifier le changement climatique et non à l’atténuer, comme certains optimismes infondés pourraient le laisser espérer.

    L’existence du changement climatique récent

    • «La notion de température moyenne n’a aucun sens». 

      La température moyenne mondiale (en anglais "global temperature") ne peut être obtenue qu’en composant l’ensemble des observations ponctuelles de la température locale, disponibles sur l’ensemble du globe terrestre. Elle n’est pas directement mesurable et ne doit être considérée que comme une moyenne de valeurs locales ; comme toute moyenne, elle ne présente qu’un aspect de la réalité. La difficulté principale rencontrée dans sa détermination est l’absence de mesures de température dans certaines régions du maillage mondial mis en place. Les divers auteurs traitent ce problème de façon différente, ce qui explique de petites variations dans les résultats obtenus. Certains ne tiennent pas compte de ces régions, ce qui revient à leur attribuer une valeur égale à la moyenne mondiale. D’autres pensent plus représentatif de la réalité d’attribuer à ces régions la moyenne des régions adjacentes, en faisant remarquer qu’il existe généralement une corrélation forte entre les variations de régions voisines. Les résultats obtenus sont peu différents, mais peuvent conduire à des modifications de détail du classement des années par ordre de température croissante. C'est ainsi qu'au début de la décennie 2010, le record absolu pouvait être attribué soit à 1998 soit à 2005. Par contre, à condition de conserver la même méthode de traitement des observations, chacune de ces approximations d’une vraie moyenne mondiale est un paramètre dont l’évolution traduit l’ensemble des observations mondiales de façon synthétique. Elle constitue cependant une sous-estimation de l’augmentation de température observée en moyenne sur les continents qui se réchauffent plus vite que les océans.
      Bien d’autres indicateurs que la température globale confirment le réchauffement mondial : mesures locales de la température faisant toutes apparaître une augmentation, fonte des glaciers sur tous les continents et à toutes les latitudes, diminution de l’enneigement dans l’hémisphère nord, mesure de l’élévation du niveau de la mer (3mm par an) due pour partie à la dilatation de l’eau dont la température augmente et pour partie à la fonte des glaces continentales, changements observés de systèmes physiques et biologiques cohérents avec les augmentations locales de température.  

    • «La température a cessé de croître depuis le début du siècle»

      Comme on vient de le voir, au début de la décennie 2010, certains classements indiquaient que le record absolu avait été atteint en 1998, et que les températures moyennes annuelles ont été moins élevées depuis lors. Outre le fait que d’autres méthodes de calcul de la température moyenne attribuaient le record à 2005, les variations aléatoires d’une année à la suivante interdisent toute conclusion fondée sur une année seulement et seules les moyennes sur plusieurs années ont un sens. Les deux dernières années, 2014 puis 2105, ont battu tous les records précédents confirmant la hausse des températures moyennes illustrées par la figure ci-dessous qui donne les résultats des analyses faites par deux agences nationales américaines l'agence spatiale (NASA) et celle de l'atmosphère (NOAA) et de l'océan et l'office météorologique britannique (UKMO).

    • «Certaines reconstitutions des températures du passé montrent des valeurs plus fortes que celles d’aujourd’hui et les climatologues distordent ces données à leur convenance».

      Nous ne possédons évidemment pas d’archives sur des mesures fiables de la température au-delà d’une centaine d’années. Une méthode célèbre et unanimement prisée consiste à analyser la composition de bulles d’air emprisonnées jadis dans les calottes polaires et que l’on récupère grâce à des carottages d’autant plus profonds qu’on veut remonter loin dans le temps. On fait également appel à l’analyse de l’extension des glaciers et à un certain nombre d’indicateurs reliés à la température : cernes des troncs d’arbre, plancton des sédiments lacustres et océaniques, analyse des pollens. Ces indicateurs sont sensibles à d’autres paramètres que la température et leur interprétation fait donc l’objet de discussions entre spécialistes et est nécessairement entachée d’incertitudes. La cohérence entre les résultats obtenus par les diverses méthodes est le principal facteur de crédibilité de la reconstitution. En aucun cas, une mesure locale isolée ne peut être considérée comme représentative d’une évolution mondiale.

    La différence entre climatologie et météorologie

    • «Il est illusoire de prévoir le climat dans un siècle, alors qu’on est incapable de faire des prévisions météorologiques pour le mois suivant».

      La météorologie est l’étude du temps caractérisé par un ensemble de paramètres : température, pression atmosphérique, humidité, précipitations, vent, nébulosité. Les prévisions météorologiques ne sont possibles avec une fiabilité raisonnable quant aux tendances générales qu’à une échéance d’une semaine. La climatologie est l’étude du temps météorologique moyen sur une période suffisamment longue pour éliminer les fluctuations aléatoires et dégager des tendances significatives. Une trentaine d’années est généralement considérée comme un bon ordre de grandeur. Si des écarts de température de quelques degrés sont monnaie courante en météorologie, de tels écarts sont importants en climatologie. Par exemple, 5 à 6° seulement séparent la température moyenne mondiale que nous connaissons actuellement de celle de la dernière période glaciaire au cours de laquelle l’Europe du nord était recouverte d’une couche de glace épaisse de 3 km. Il est impossible de prévoir avec précision le temps qu’il fera à long terme parce que des variations infimes des conditions initiales engendrent des évolutions très différentes à longue échéance dans la réalité comme dans les modèles numériques. Par contre, il est possible de modéliser l’évolution du climat et on peut constater, en répétant plusieurs fois cette modélisation, que les résultats obtenus sont cohérents en ce qui concerne les moyennes, bien que les valeurs pour une année donnée varient de façon aléatoire.  

    • «Comment peut-on croire au réchauffement climatique, alors que quelque part dans le monde, l’hiver a été rigoureux et long ?». 

      Interpréter un événement météorologique limité dans le temps et dans l’espace comme une preuve de l’existence ou au contraire de l’inexistence du changement climatique n’a aucun sens. Une vague de froid quelque part dans le monde (par exemple, le mois de décembre 2010 en France plus rigoureux que les précédents, mais bien loin des records historiques) ne prouve pas que le réchauffement anthropique n’existe pas, pas plus que la douceur qui a perturbé le début des jeux olympiques d’hiver à Vancouver n’est la conséquence de ce dernier. La variation du climat est un changement de la moyenne sur une longue période des paramètres décrivant le temps : température, précipitations, vent, les variations aléatoires du temps qu’il fait interdisant toute interprétation causale d’un événement isolé. Cette variabilité a toujours existé et continuera à exister : la vue simpliste d’une canicule perpétuelle n’est évidemment pas celle des spécialistes.

    Le GIEC

    • «Le consensus scientifique des rapports du GIEC n’a aucun sens».

      Les rapports du GIEC ont pour unique objet de faire l’état des connaissances scientifiques, en exposant les points de vue contradictoires, à chaque fois qu’ils existent. Le consensus dont ils font l’objet ne porte donc pas sur une sorte de vérité scientifique moyenne qui effectivement n’a aucun sens, mais sur une présentation de la totalité des résultats obtenus et de leurs divergences éventuelles. En ce sens, ils présentent une certaine similitude avec les communications de synthèse (review papers) qui sont couramment au programme de colloques scientifiques. Ils en diffèrent sur un point : ils sont destinés à des non-spécialistes, décideurs et grand public. Le règlement intérieur du GIEC interdit formellement que ces rapports contiennent des recommandations d’action politique, quelles qu’elles soient. Cette règle est scrupuleusement respectée, ce qui n’empêche pas que les partisans comme les adversaires des mesures de lutte contre le changement climatique de parler à tort des recommandations du GIEC.  

    • «Le GIEC est un repère de fonctionnaires internationaux grassement payés». 

      La structure permanente du GIEC ne comprend qu’une dizaine de personnes remplissant des fonctions administratives. Les rapports sont rédigés bénévolement par des scientifiques qui acceptent de consacrer une partie de leur activité à cet exercice. Ils restent impliqués dans la recherche et mettent en jeu leur crédibilité de chercheur, en étant nommément désignés comme auteurs de leur chapitre. Il existe un renouvellement important dans la liste des auteurs d’un rapport au rapport suivant.  

    • «Le GIEC est un lobby fermé». 

      Les rapports font l’objet de deux versions préliminaires successives, chacune étant soumise à une expertise impliquant tous les scientifiques qui le souhaitent et se font désigner soit par un gouvernement soit par une organisation non gouvernementale ayant un statut d’observateur (il en existe de toute tendance). Les auteurs sont tenus de répondre à toutes les remarques reçues. Le succès du GIEC repose essentiellement sur le fait que la communauté scientifique concernée reconnaît dans son immense majorité que ses rapports constituent une bonne synthèse des travaux connus et que les politiques suivent tout le processus et reçoivent tous les éclaircissements qu’ils souhaitent sur les interprétations possibles des résultats obtenus par les scientifiques.  

    • «Comment croire à la crédibilité scientifique de rapports adoptés par des politiques ?» 

      L’assemblée générale du GIEC est composée de représentants des états membres, elle approuve mot à mot le sommaire à l’attention des décideurs qui résume en une quinzaine de pages le contenu de chaque rapport. Néanmoins, les scientifiques conservent un rôle essentiel : lorsqu’une proposition d’amendement rencontre l’opposition des auteurs concernés qui estiment qu’elle n’est pas conforme aux résultats scientifiques, elle est considérée comme non recevable. Les différents chapitres du rapport ne font pas l’objet d’un examen en séance et sont approuvés globalement, avec quelques modifications éventuelles à la marge pour les rendre cohérents avec le résumé. Le processus d’approbation ne conduit donc pas à altérer le message des auteurs. Il est remarquable que les deux derniers rapports aient été approuvés à l’unanimité et aient donc reçu l’aval de pays notoirement opposés à la réduction de l’utilisation des combustibles fossiles.


      Rapport de l'Académie des Sciences

    En avril 2010,  suite à l'Appel signé par plus de 600 chercheurs appartenant à  de la communauté scientifique, la ministre de la Recherche demandait à l'Académie des sciences d'organiser un débat sur sur le sujet. Il s'est tenu le 20 septembre 2010 et à donné lieu à la publication d'un rapport le 26 octobre : Le changement climatique

    Ce texte est une synthèse des interventions et discussions qui ont eu lieu lors du débat, des contributions écrites qui l'ont précédé ainsi que des commentaires qui l'ont suivi.

    Voici les conclusions de ce rapport :

    • Plusieurs indicateurs indépendants montrent une augmentation du réchauffement climatique de 1975 à 2003.

    • Cette augmentation est principalement due à l'augmentation de la concentration du CO2 dans l'atmosphère.

    • L'augmentation de CO2 et, à un moindre degré, des autres gaz à effet de serre, est incontestablement due à l'activité humaine.

    • Elle constitue une menace pour le climat et, de surcroît, pour les océans en raison du processus d'acidification qu'elle provoque.

    • Cette augmentation entraîne des rétroactions du système climatique global, dont la complexité implique le recours aux modèles et aux tests permettant de les valider.

    • Les mécanismes pouvant jouer un rôle dans la transmission et l’amplification du forçage solaire et, en particulier, de l’activité solaire ne sont pas encore bien compris. L’activité solaire, qui a légèrement décru en moyenne depuis 1975, ne peut être dominante dans le réchauffement observé sur cette période.

    • Des incertitudes importantes demeurent sur la modélisation des nuages, l’évolution des glaces marines et des calottes polaires, le couplage océan- atmosphère, l’évolution de la biosphère et la dynamique du cycle du carbone.

    • Les projections de l’évolution climatique sur 30 à 50 ans sont peu affectées par les incertitudes sur la modélisation des procesus à évolution lente. Ces projections sont particulièrement utiles pour répondr aux préoccupations sociétales actuelles, aggravées par l’accroissement prévisible des populations.

    • L’évolution du climat ne peut être analysée que par de longues séries de données, à grande échelle, homogènes et continues. Les grands programmes d’observations internationaux, terrestres et spatiaux, doivent être maintenus et développés, et leurs résultats mis à la libre disposition de la communauté scientifique internationale.

    • Le caractère interdisciplinaire des problèmes rencontrés impose d’impliquer davantage encore les diverses communautés scientifiques pour poursuivre les avancées déjà réalisées dans le domaine de la climatologie et pour ouvrir de nouvelles pistes aux recherches futures.

    Voir aussi l'article :
    Pour amener le climat à un état stable après la perturbation anthropique, il faudra retirer du gaz carbonique de l'atmosphère. Le coût en sera très élevé si nous ne réduisons pas rapidement nos émissions.Mis à jour Novembre 2017

  • Quels sont les moyens de mesures actuels?

    François Barlier

    Nous sommes tous familiers de l'effet de l'attraction gravitationnelle de la Terre : quand un objet tombe, c'est sous l'effet de la pesanteur, et la force à laquelle il est soumis est d'autant plus forte que sa masse est importante.

    C'est une des forces de la nature observée déjà par Aristote,puis modélisée successivement par Galilée, Newton, Lagrange, Hamilton, Einstein.

    Toute masse à la surface de la Terre, et en rotation avec elle, est soumise à l’attraction gravitationnelle de la planète et des autres corps célestes (Lune, Soleil, planètes) ainsi qu'à la force centrifuge due à la rotation de la Terre. La résultante de ces forces est la pesanteur ou gravité. La pesanteur est une force communiquant à une unité de masse une accélération g, laquelle est variable dans l'espace et dans le temps. Dans un repère euclidien, la masse est invariable.

    Dans le système International d’Unités (SI), l’unité de d'accélération est le m/s2 (ms-2).

    L'accélération de la pesanteur au niveau de la mer est en moyenne g = 9,81 ms-2. Les variations de pesanteur liées à l'aplatissement aux pôles, à l'altitude, aux marées... se situent dans des ordres de grandeur allant de 10-3 à 10-9 ms-2. C'est ainsi qu'une personne ayant une masse de 80 kg correspondant à un poids de 784,8 Newton au niveau de la mer, pèse seulement 782,4 Newton dans un avion volant à 10 000 m.

    Pour exprimer ces anomalies de pesanteur qui sont très faibles, les scientifiques ont coutume d'utiliser une unité auxiliaire, le gal = 1 cm/s2 ou 1cms-2 et surtout le milligal = 10-5 ms-2, mais aussi le microgal = 10-8 ms-2 ou le nanogal =.10-11 ms-2 Cette unité est plus pratique pour les mesures gravimétriques. Son nom, le gal, a été choisi en l'honneur de Galilée.

    La Terre est hétérogène et non uniforme : elle est formée d'éléments très différents : l'atmosphère, les continents, les océans, les glaciers, les eaux continentales, les glaces polaires....

    Tous ces éléments ont des masses différentes, donc leur contribution au champ de pesanteur (champ de gravité) est différente. La résultante constitue le champ de gravité terrestre. De plus certains éléments ont des masses qui évoluent au cours du temps : par exemple, des variations du contenu en eau de l'atmosphère ou la fonte des glaces ont des effets sur la masse de l'océan... Ces variations peuvent être saisonnières, mais aussi correspondre à la perte de masse ou gain de masse d'une région du globe. Le champ de gravité terrestre peut donc varier en fonction du temps, à court terme et à plus long terme.

    Il est d'un grand intérêt de connaitre en permanence et de façon précise l'évolution du champ de gravité sur des périodes de plusieurs années. On peut ainsi observer les redistributions de masses d'air dans l'atmosphère et d'eau, liquide ou solide, dans les océans ou les calottes glaciaires.

    Il y a bien longtemps que l'on mesure l'accélération de la pesanteur en différents points de la Terre à l'aide d'accéléromètres.

    Les premiers satellites, dont l'objet n'était pas la gravimétrie, ont cependant permis de recueillir des informations précises sur le champ de gravité grâce à l'étude de leur orbite. En effet, ces satellites sont soumis au champ de gravité de la Terre et des corps célestes dont l'action déforme au cours du temps leurs trajectoires. L’analyse de ces déformations pour un grand nombre de satellites, sur une longue période de temps, d'abord par télémétrie laser, puis à l'aide du système d'orbitographie DORIS, a permis de mieux connaître le champ de gravité terrestre avec une précision de quelques milligal.

    Depuis 2000, des satellites dédiés à la mesure du champ de gravité, avec des sensibilités bien plus grandes, ont enfin été mis en service.

    Le premier, CHAMP, lancé en 2000, était dédié à la mesure du champ de pesanteur et du champ magnétique. Les deux suivants, GRACE, lancé en 2002, puis GOCE  lancée en 2009, sont uniquement dédiés à la mesure du champ de gravité et figurent parmi les moyens de mesure les plus précis dont on dispose.

    Ces gains considérables de sensibilité permettent d'accéder aux redistributions de masse liées aux variations climatiques, saisonnières ou non.

    La décennie pour l’étude du champ de gravité avec trois satellites CHAMP, GRACE, GOCE, revue, impact climatique de GRACE, plaidoyer pour son renouvellement.

    Le satellite allemand CHAMP est retombé le 19 septembre 2010 après 10 ans, deux mois et quatre de jours de vie orbitale et de très bon fonctionnement. Il était initialement prévu pour une durée d’environ cinq ans.

    Une activité solaire relativement plus faible qu’attendue a conduit à ralentir la chute du satellite et a rallongé sa vie orbitale.

    Ce satellite était dédié à une meilleure détermination du champ de gravité terrestre, à celle de son champ magnétique et de certains paramètres de son atmosphère. Son nom (exprimé en français involontairement) était particulièrement bien choisi pour l’étude des champs magnétique et gravitationnel.

    Le lancement avait eu lieu le 15 juillet 2000 sur une orbite inclinée de 87° sur l’équateur et à une altitude moyenne initiale de 450 km.

    Le satellite CHAMP

    Crédit CNES

    Il était équipé d’un récepteur GPS pour assurer une couverture permanente et continue de la poursuite du satellite.

    À sa surface étaient installés des rétro-réflecteurs laser pour permettre de valider et d’améliorer la précision de la trajectographie.

    Il y avait aussi à bord un accéléromètre de l’ONERA financé par le CNES dans le cadre d’une coopération franco-allemande avec le GFZ à Potsdam.

    Cet accéléromètre appelé «Star» aux performances remarquables suivantes :

    • Résolution : 3•10-9 ms-2 /Hz1/2

    • Étendue de mesure : 10-4 ms-2

    • Bande passante : 0.2*10-3 à 10-1 Hz

    avait pour but de déterminer aussi bien que possible les forces non-gravitationnelles agissant sur le satellite.

    On a pu ainsi estimer la densité totale de l’atmosphère supérieure de la terre de quelque 200-300 km d’altitude jusqu’à 450 km avec ses variations temporelles et spatiales.

    CHAMP était le premier satellite d’une série de trois satellites dédiés spécifiquement à l’étude du champ de gravité terrestre et à ses variations temporelles et spatiales.

    La mission GRACE

    On a pu écrire que la période 2000-2010 a été la décennie du champ de gravité.

    Deux autres missions spatiales sur ce thème avec des performances uniques qui bouleverseront nos connaissances ont été en effet lancés après CHAMP :

    • GRACE lancé le 17 mars 2002 pour une durée de 5 ans, et

    • GOCE lancé plus récemment le 17 mars 2009 pour une durée de 2 ans et plus espère-t-on comme pour GRACE.

    Comme on peut le décrypter dans le sigle en anglais, GRACE joue un rôle très nouveau en climatologie.

    Il rend possible l’étude des transferts de masses relativement importants en météorologie et en climatologie dans la cryosphère, l’atmosphère, l’hydrosphère ; il est aussi en mesure de quantifier des transferts de masse non négligeables dans la terre solide lors de certains tremblements de terre et aussi en liaison avec le rebond post-glaciaire à une échelle de temps séculaire.

    Aujourd’hui un article excellent d’Anny Cazenave (LEGOS/Toulouse) et de Jianli Chen (Université du Texas) vient d’être publié par Elsevier dans "Earth and Planetary Science Letters", et confirme ce rôle attendu de GRACE et en fait la synthèse sous forme d’une série de planches illustratives, après 8 années de recueil de données sur une durée sensiblement plus grande que prévue, ce dont la communauté se réjouit beaucoup.

    La décision d’en assurer financièrement le fonctionnement jusqu’au bout de sa vie a d’ailleurs été prise en juin 2010.

    Crédit CNES

    On peut rappeler que cette mission américano- allemande GRACE se compose de deux satellites orbitant dans le même plan à 490 km d’altitude moyenne et séparés l’un de l’autre par environ 220 km ; l’inclinaison de leur trajectoire sur l’équateur est de 89°9, ce qui en fait un satellite quasi-polaire de manière presque parfaite.

    Comme on peut le montrer, l’information originale et unique pour la connaissance du champ de gravité avec ses variations temporelles est fondée sur la connaissance ultra-précise de la distance inter-satellite avec une précision de l’ordre du micromètre.

    On utilise pour cela une liaison micro-onde dans la bande de fréquence K (18 à 26 GHZ) qui permet d'évaluer leur distance et leur vitesse relatives.

    Ces satellites ont chacun à leur bord un accéléromètre «SuperStar» de l'Onera, qui possède une résolution 30 fois supérieure à celle de l’accéléromètre «Star» de CHAMP :

    • Résolution : 1.0*10-10 ms-2 /Hz1/2,

    • Étendue de mesure : 5*10-5 ms-2,

    • Bande passante : 0.1*10-3 à 10-1 Hz.

    Cela permet de distinguer la part des effets non gravitationnels dans l’origine des variations de distance des effets gravitationnels proprement dits. Comme pour CHAMP ces satellites ont aussi à bord un récepteur GPS et des réflecteurs laser pour compléter l’instrumentation et s’assurer de la meilleure trajectographie possible, ainsi que des viseurs d’étoiles pour déterminer l’assiette ou l’attitude des satellites.


    Quelques résultats très importants de GRACE :
    Depuis 2002, la mission GRACE a permis d’obtenir une détermination du champ de gravité et des ses variations spatiales et temporelles avec une précision sans équivalent jusqu’alors. C’est ce qui a rendu possible l'évaluation des transferts de masse entre les différentes composantes du système Terre (atmosphère, cryosphère, hydrologie continentale, océans). Cela a permis aussi d’approcher quantitativement des questions fondamentales comme le cycle de l’eau en liaison avec l’hydrologie continentale, l’atmosphère, les océans ou comme la question de la masse des calottes glaciaires et des glaciers continentaux, en liaison avec l’élévation du niveau moyen des mers et la masse globale des océans. Certains problèmes géophysiques de la terre solide et de la croûte terrestre peuvent aussi être abordés en liaison avec les régions sismiques, le rebond postglaciaire.
    Voici quelques illustrations tirées de l’article de A.Cazenave et de J.Chen.

    Le diagramme ci-contre donne la somme des différentes composantes de l’eau stockée dans les différentes composantes du système Terre et que peut mesurer GRACE.

    Dans ce diagramme, on voit que GRACE mesure la somme de transfert de masse de l’eau ayant plusieurs origines :

    - eau dans l’humidité des sols (soil moisture),  

    - eau dans la biosphère (biosphere),  

    - eau de surface (surface water),  

    - neige et glace (ice and snow) , 

    - eau en profondeur (ground water).  

    Sur la figure ci-dessous, on voit la décroissance des quantités d’eau disponible dans le nord-ouest de l’Inde pour la période 2002-2009 déduite de GRACE (TWS ou Terrestrial Water Storage : la courbe bleue). On sait aussi estimer l’eau stockée sous forme d’humidité du sol à partir de données in situ (GLDAS ou Global Land Data Assimilating System, courbe rouge). La différence entre les deux courbes est représentée par la courbe verte. Des auteurs pensent que cette différence représente principalement ici l’eau stockée plus en profondeur dans le sol.

    C’est un premier exemple de ce qui peut être déduit des données de GRACE dans le domaine de l’hydrologie en combinaison avec les autres données sol.

    La tendance de la décroissance de l’eau dans cette partie de l’Inde pourrait être essentiellement d’origine anthropogénique : utilisation domestique excessive d’eau induite par une population trop nombreuse, nécessité d’irrigation des cultures nécessaires à la nourriture.

    Sur la carte donnée à droite, la couleur bleue indique une perte de masse, la couleur jaune ou rouge une accumulation de masse. 

    La figure suivante donne les variations de masse dans la cryosphère avec leur étendue spatiale. La couleur bleue indique une perte de masse, la couleur jaune ou rouge une accumulation plus ou moins grande de masse.

    La figure ci-contre donne la décroissance de la masse de glace du Groenland exprimée en gigatonnes, entre 2002 et 2009.

    Finalement la dernière figure donne, les changements observés et mesurés par GRACE dans le champ de gravité après le terrible tremblement de terre de Sumatra le 26 décembre 2004 celui qui a généré un tsunami dévastateur faisant de très nombreuses victimes. Ce changement est exprimé en micro Gal (10-8 ms-2). La couleur bleue correspond à une décroissance de masse et la couleur rouge à une augmentation. L’origine est liée à un déplacement des masses associé à ce tremblement de terre. La deuxième carte donne la modélisation de ces phénomènes qui est satisfaisante.

    Conclusion sur GRACE

    GRACE apparaît comme un outil unique et incontournable pour la surveillance et l’observation des changements de l’environnement terrestre dont il faudrait impérativement décider le renouvellement.

    Le satellite GOCE

    Le satellite GOCE dédié encore au champ de gravité terrestre est le 3ème de la décennie 2000-2010 ; il a été lancé avec succès par l’ESA le 17 mars 2009 à partir du cosmodrome de Plesetsk avec une fusée russe Rockot (voir la «news» de mars 2009). Sa trajectoire est inclinée sur l’équateur de 96°7 lui permettant de recevoir la quantité d’énergie électrique dont il a besoin.

    Comme son nom l’indique GOCE a pour objet principal de contribuer à l’étude de la circulation océanique en déterminant un géoïde à haute résolution. Le géoïde est un surface équipotentielle du champ de pesanteur représenté en première approximation par le niveau moyen des mers. La direction du fil à plomb est perpendiculaire à cette surface.

    Les applications de ce satellite sont en fait très nombreuses et concernent notamment l’étude de la Terre solide d’une manière assez générale à partir de la connaissance du champ de gravité.

    Le satellite a été conçu pour tourner à environ 250 km seulement au-dessus de la surface de la Terre. Il faut souligner que ce satellite en orbite à basse altitude est la première mission spatiale à employer la gradiométrie spatiale. La gradiométrie spatiale consiste en la mesure des différences d’accélération sur de courtes distances d’un ensemble de masses de référence à l’intérieur du satellite. Elles sont liées aux variations de la gravité dans les différentes directions spatiales que l’on peut ainsi déterminer. Ces mesures se font à l’aide de six accéléromètres (trois paires dans chaque direction perpendiculaire) qui ont une sensibilité 100 fois plus grande (10-12 ms-2) qu’aucun satellite ayant jamais volé n’a eu à bord et en premier lieu «Superstar» à bord de GRACE.

    GOCE grâce à une altitude moyenne de 250 km peut ainsi se concentrer sur une description très fine des détails du champ gravitationnel terrestre, ce qui est sa spécificité.

    En fait pour les interprétations géophysiques, il est aussi maintenant très important d’associer à ses trois missions sur le champ de gravité d’autres missions spatiales dédiés à l’environnement.

    On doit citer :

    • les missions d’altimétrie spatiale (satellites Jason 1 et 2, satellite Envisat)

    • et d’autres comme le satellite SMOS lancé en novembre 2009 pour la mesure de l’humidité des sols et la salinité de la mer (voir "news" de novembre 2009),

    • Cryosat -2 lancé en avril 2010 dédié notamment à la mesure de l’épaisseur des glaces (voir la "news" d’avril 2010).

    D’autres missions d’exploration de la Terre aborderont des thèmes spécifiques :

    • Swarm, conçue pour observer l’évolution du champ magnétique (lancement prévu en 2012),

    • ADM-Aeolus, pour étudier la dynamique atmosphérique (2011),

    • EarthCARE, pour explorer le bilan radiatif terrestre (2013).

    Il faut souligner que des missions plus anciennes comme celles des satellites Lageos et Starlette continuent à jouer un rôle. Avec le recueil de données gravimétriques faîtes au niveau du sol, elles forment un tout extrêmement riche plein d’information sur notre environnement.

    Concernant GOCE, les premiers résultats obtenus avec des données validées sont tout à fait positifs et un premier modèle de champ de gravité a été déterminé en utilisant des données de GOCE. Pour bien mesurer l’impact de ces données pour établir une référence essentielle pour l’océanographie, le géoïde, il faut encore cumuler d’autres données. On espère pouvoir utiliser ce satellite pendant plusieurs années permettant d’obtenir les précisions espérées et d’atteindre ainsi les objectifs visés. On peut espérer avoir une exactitude de l’ordre de 1 à 2 cm sur le géoïde avec une résolution spatiale de l’ordre de 100 km. Pour GRACE, le progrès ne se situe pas seulement en termes de résolution spatiale mais aussi en en termes de résolution temporelle. Tandis qu’au début on devait cumuler des données pendant de nombreuses années, aujourd’hui on peut déterminer ce champ complet en seulement un mois voire moins et de suivre ainsi son évolution temporelle.

    Références :

    Figure sur la décroissance de l'eau en fonction du temps :

    a) Averaged groundwater depletion in northwest India during the period April 2002 to August 2009. Groundwater variations are estimated from GRACEobserved total TWS (terrestrial water storage), minus GLDAS (Global Land Data Assimilating System) estimates of soil water. A two-step filter (P4M6 decorrelation+ 300 km Gaussian) is applied.

    b) A significant mass decrease in northwest India (region circled bywhite lines) is captured by GRACE, and is attributed to groundwater depletion in the region (Rodell et al., 2009; Tiwari et al., 2009). GRACE mass rate (Figure sur les variations de massesd 'eau) is based on CSR RL04 for the period September 2002 to August 2009.
    Rodell, M., Velicogna, I., Famiglietti, J.S., 2009. Satellite-based estimates of groundwater depletion in India. Nature vol. 460, 20. doi:10.1038/nature08238 August 2009.
    Tiwari, V.M., Wahr, J., Swenson, S., 2009. Dwindling groundwater resources in northern India, from satellite gravity observations. Geophys. Res. Lett. 36, L18401. doi:10.1029/2009GL039401.

    Figure sur la variation de masse dans la cryosphère :

    Global mass rate (units: cm/yr of equivalent water height rate) estimated from GRACE time-variable gravity data (CSR RL04) for the period September 2002–August 2009,
    with a two-step filter (P4M6 decorrelation+300 km Gaussian) applied (see Chen et al., 2008 for details). As atmospheric and oceanic mass changes have been removed during
    GRACE dealiasing data processing (Bettadpur, 2007), signals over the oceans represent residual error, unmodeled atmospheric and oceanic signal and leakage from land.
    Bettadpur, S., 2007. CSR Level-2 Processing Standards Document for Product Release 04, GRACE. The GRACE Project. Center for Space Research, University of Texas at Austin, pp. 327–742.
    Chen, J.L., Wilson, C.R., Tapley, B.D., Blankenship, D., Young, D., 2008. Antarctic regional ice loss rates from GRACE. Earth Planet. Sci. Lett. 266, 140–148. doi:10.1016/j. epsl.2007.10.057

    Figure surla décroissance de la masse de glace du Groenland :

    Temporal evolution of Greenland ice mass from GRACE between 2002 and 2009(from Velicogna, 2009).
    Velicogna, I., 2009. Increasing rates of ice mass loss from the Greenland and Antarctic
    ice sheets revealed by GRACE. Geophys. Res. Lett. 36, L19503. doi:10.1029/2009GL040222
    Figure sur les changements observés et mesurés par GRACE dans le champ de gravité après le tremblement de terre de Sumatra de 2004 :  

    a) Coseismic gravity changes (in μGal) due to the Sumatra–Andaman earthquake, computed from gravity changes between two different time periods before and after the earthquake;

    b) Predicted coseismic gravity changes (in μGal) from seismic model, inferred by combining vertical displacement and dilatation (from Han et al., 2006).
    Han, S.-C., Shum, C.K., Bevis, M., Ji, C., Kuo, C.-Y., 2006. Crustal dilatation observed by GRACE after the 2004 Sumatra–Andaman earthquake. Science 313, 658–662. doi:10.1126/science.1128661

  • Jean Labrousse 

    En l’absence de mesures instrumentales, on est réduit à des estimations obtenues par la méthode des proxies (mot anglais fréquemment employé qu’on pourrait traduire par «indicateurs»). Cela consiste à établir une relation entre le paramètre à mesurer, ici la température, et une autre grandeur que l’on peut mesurer. On essaie bien sûr d’établir plusieurs proxies qui se recoupent entre eux, accroissant la précision de l’évaluation.

    Il existe par exemple une relation solide entre la date des vendanges et la température qu’il faisait – du moins pendant la période végétative de la vigne. Grâce au dépouillement des archives, E. Le Roy Ladurie et son école ont pu, pour la période où de telles archives existent, établir la courbe de variation de la température du dernier millénaire en divers point où la vigne était cultivée.

    Un autre proxy est la relation entre la température et la croissance des arbres. Une coupe transversale d’un tronc fait apparaître des zones concentriques plus ou moins épaisses, leur épaisseur respective étant d’autant plus grande que la croissance a été plus forte. Pour un type d’arbre donné, l’établissement de la relation entre température, humidité et croissance permet donc, ici encore pour chaque région, de savoir quelle en a été la température. Grâce à des arbres comme les séquoias (qui vivent très longtemps), par exemple, on peut remonter quelques millénaires. C’est la méthode de la dendrochronologie.

    Lorsque l’on veut remonter plus loin dans le passé, on va s’intéresser à d’autres relations.

    L’étude des carottes glaciaires permet de connaître la composition chimique de l’air grâce à l’analyse des bulles prisonnières de la glace. On peut en outre estimer la température de l’air au moment du dépôt neigeux en mesurant la composition isotopique de l’oxygène de la molécule d’eau de la glace. La profondeur atteinte actuellement par les sondages en Antarctique ramène 800 000 ans en arrière, et on espère atteindre 1,5 million d’années.

    En milieu continental, l’analyse des pollens des sédiments lacustres et des tourbières permet de connaître la végétation qui existait dans le passé et d’évaluer ainsi la température de l’air.


    Pour remonter encore plus loin dans le passé on effectue des carottages dans les sédiments marins. Leur analyse isotopique permet d’évaluer la température qu’il faisait il y a une centaine de millions d’années.

    Bien entendu, on essaie toujours de confronter plusieurs proxies, ce qui permet de recouper les estimations et d’accroître
    leur fiabilité.

    Extrait de l'ouvrage "Climat - une planète et des hommes" édité par le cherche midi éditeur en 2011. Toute reprise totale ou partielle de ce texte doit obligatoirement mentionner le titre et l'éditeur de l'ouvrage.

  • Michel Petit

    Dans diverses hypothèses, les chercheurs ont fait "tourner leurs modèles". 

    Températures:

    L'image ci-dessous montre que l'air se réchauffe plus sur les continents  que sur les océans, et que le réchauffement serait plus fort aux hautes latitudes, surtout Nord ( 2 à 3 fois la valeur moyenne du Réchauffement Global).

    Des signaux précurseurs de ce réchauffement planétaire peuvent d'ailleurs être constatés en Sibérie et au Canada, où la température "moyenne" s'est déjà élevée de plusieurs degrés, ce qui n'empêche pas les hivers de battre des records de froid, comme c'est la cas au Canada en 2003-2004.

    Figure 15 : Répartition mondiale de l’augmentation de température pour 3 scénarios (en lignes) et trois périodes (en colonnes)

    Pluviosités

    Les profils annuels de température et de pluviosité déterminent les climats des diverses régions du globe.

    Face à une demande accrue due à la croissance de la population,les changements de ces climats auraient évidemment des conséquences importantes sur l'agriculture, les ressources en eau, la santé, et finalement sur le développement des sociétés humaines et la biodiversité. 

    Les chercheurs travaillent sur ces effets du changement climatique

    La moyenne mondiale des précipitations devrait croître. La figure ci-dessous montre que certaines régions comme le nord de l’Europe seront plus arrosées tandis que le Bassin méditerranéen sera confronté à une sécheresse accrue. On observera davantage de phénomènes pluvieux intenses, même dans les régions plus sèches. 

    Certaines régions devraient devenir plus humides, d’autres plus sèches avec des précipitations accrues en moyenne mondiale.

    Figure 16 : Changements des précipitations en pourcentage pour la période 2090–2099, par rapport à 1980–1999. Ces valeurs correspondent à la moyenne des modélisations pour le scénario moyen d’émissions A1B pour les mois de décembre à févier (à gauche) aux mois de juin à août (à droite) . Les zones blanches sont celles où moins des deux tiers des modèles donnent un changement de même signe et les zones pointillées sont celles où plus de 90% des modèles donnent des changements de même signe.

    Voir les FAQs

    Comment mesure-t-on la température?

    Comment peut-on évaluer les températures pour la période antérieure à 1860?

    Peut-on parler de température moyenne mondiale?

    Quelles observations pour estimer la température à la surface de la Terre?

    Dernière mise à jour Février 2012

  • Et quelles sont les menaces?

    Yves Dandonneau 

    1 - Le carbone, puits et source d’énergie

    2 - Les isotopes du carbone

    3 - L’absorption du rayonnement infra rouge par le gaz carbonique et les autres gaz à effet de serre

    4 - Concentration et pression partielle de gaz carbonique et quelques raccourcis de calcul

    5 - Le cycle naturel du carbone : puits et sources de gaz carbonique

    6 - La perturbation anthropique et le cycle du carbone

    7 - Questions et menaces

    Le carbone est un élément très abondant dans les roches terrestres, l’eau et l’atmosphère. Il a tendance à se combiner à l’oxygène pour donner du gaz carbonique (CO2) en dégageant de la chaleur, et cette réaction fournit l’essentiel de l’énergie utilisée par l’homme. Le CO2 absorbe le rayonnement infra rouge et cette propriété contribue à déterminer la température à la surface de la Terre, là où nous vivons. Du fait des activités humaines, la teneur en CO2 de l’atmosphère augmente donc (figure 1), et cette augmentation entraîne un réchauffement du climat.

     

    Soluble dans l’eau, intervenant dans les réactions géochimiques ainsi que dans celles de la vie, le carbone suit des cycles complexes qu’il faut connaître pour prévoir comment évoluera le climat en réponse à la perturbation anthropique.

    1 - Le carbone, puits et source d’énergie

    En brulant du carbone (c'est-à-dire en le combinant à l’oxygène), on obtient de l’énergie. L’état d’oxydation le plus abouti est le gaz carbonique. Entre le carbone et le gaz carbonique, il existe une multitude de formes plus ou moins oxydées, la plupart d’entre elles résultant de réactions du monde vivant.

    Le tableau I donne la chaleur produite par quelques formes du carbone. On remarque que la combustion d’une mole de méthane (CH4) produit environ deux fois plus de chaleur que celle d’un atome de carbone graphite : la raison est que pour le méthane, l’oxydation du carbone s’accompagne de celle de 4 atomes d’hydrogène. Celle d’une mole d’éthanol (C2H5OH) en produit plus de trois fois plus : en plus de l’hydrogène qu’elle contient, elle comprend deux atomes de carbone. Si on décompose la combustion du carbone en 

    1. production de monoxyde de carbone (CO),
      puis

    2. production de gaz carbonique, cette seconde combustion dégage à elle seule près des trois quarts de l’énergie produite par la combustion de carbone en gaz carbonique.

     

    MégaJoule/kg

    kWh/kg

    kiloJoule/mole

    Graphite

    33

    9

    394

    Méthane

    50

    14

    802

    Ethanol

    29

    8

    1 330

    Monoxyde de carbone

    10

    3

    283

    Tableau I : Chaleur spécifique de combustion de quelques formes de carbone

    Les réactions chimiques qui produisent du gaz carbonique dégagent de la chaleur.
    Inversement, pour réduire du gaz carbonique, il faut fournir de l’énergie. Ainsi, l’oxygène étant abondant à la surface de la terre, la totalité du carbone devrait à terme se trouver sous forme de gaz carbonique. Ce n’est pas le cas, à cause de la photosynthèse opérée par les végétaux terrestres, les algues et les cyanobactéries, par laquelle le gaz carbonique est réduit en hydrates de carbone selon la réaction simplifiée suivante :

    6 CO2 + 6 H2←→ C6H1206 + 6 O2 (1)

    C’est l’énergie lumineuse, par l’intermédiaire de la chlorophylle, qui permet cette réaction. La respiration, la mort des cellules et leur décomposition, ramènent le carbone de sa forme réduite à la forme stable gaz carbonique. Toutefois, localement, dans certaines niches où l’oxygène manque, une petite fraction de ces hydrates de carbone reste préservée de l’oxydation : c’est ainsi que se sont lentement formés les gisements de charbon et de pétrole au cours des ères géologiques, gisements que l’activité humaine exploite à une vitesse folle, réinjectant dans l’atmosphère le gaz carbonique des ères géologiques passées.

    2 - Les isotopes du carbone

    Le carbone comporte six électrons et six protons, et, sous sa forme la plus abondante (98,89 %), six neutrons, ce qui lui confère une masse atomique de 12. Environ 1,1 % des atomes de carbone contiennent sept neutrons : c’est le carbone 13. Ces deux isotopes sont stables, au contraire du troisième isotope, le carbone 14, radioactif, de période 5 730 ans, formé dans la haute atmosphère par substitution d’un proton par un neutron dans un atome d’azote. Lors de sa décomposition par radioactivité, le noyau du carbone 14 émet un électron, revenant ainsi à l’état du noyau d’azote.

    La plus ou moins grande abondance de ces isotopes n’a aucun effet sur le climat, mais témoigne de certains processus :

    • Les molécules de gaz carbonique qui ont un atome de carbone 13 sont plus lourdes et ont davantage d’inertie que celles, beaucoup plus nombreuses, qui ont l’isotope 12, et ont donc une probabilité moindre d’être captées par la réaction de photosynthèse. La matière vivante est donc de ce fait appauvrie en isotope 13 par rapport au milieu environnant, et cette particularité est préservée dans les gisements de charbon et de pétrole. De ce fait, lorsqu’on brûle du pétrole, les masses d’air contaminées par le gaz carbonique émis portent la signature de ce fractionnement isotopique ancien. Les mesures de concentration en 13CO2 dans l’atmosphère permettent de calibrer les modèles d’émission de gaz carbonique et de circulation atmosphérique.
       

    • Dans les années 60 ont eu lieu des expérimentations nucléaires dans l’atmosphère, qui ont émis de grandes quantités de carbone 14. Une part de ce carbone 14 a été oxydée en gaz carbonique 14CO2, qui s’est comporté comme 12CO2 ou 13CO2 et a pénétré les océans. La mesure de la concentration en carbone 14 en de nombreux points de l’océan, représentatifs de sa totalité, a permis d’estimer à 2,2 GT de carbone la part des émissions humaines absorbée chaque année par les océans.

    3 - L’absorption du rayonnement infra rouge par le gaz carbonique et les autres gaz à effet de serre

    Composées de deux atomes, les molécules d’azote et d’oxygène, qui composent la quasi-totalité de l’atmosphère, sont transparentes pour le rayonnement infra rouge, de longueur d’onde comprise entre 4 et 70 microns environ émis par la Terre. Mais l’atmosphère contient aussi, en quantité moindre, des gaz dont les molécules sont composées de trois atomes ou plus, qui absorbent ce rayonnement. Au premier rang d’entre eux, la vapeur d’eau, relativement abondante, mais en quantité variable. Elle correspond à un stade du cycle naturel de l’eau sur terre, et en première approche, on peut considérer que son rôle dans le transfert du rayonnement infra rouge n’est pas affecté par le changement climatique en cours. Il n’en va pas de même pour le gaz carbonique dont la concentration dans l’atmosphère augmente régulièrement du fait des activités humaines. Le spectre d’absorption du gaz carbonique présente des bandes dans lesquelles ce rayonnement est fortement absorbé, vers 4 et 15 microns notamment. Lorsqu’un photon infra rouge émis par la Terre est intercepté par une molécule de gaz carbonique, il est aussitôt réémis sous la forme d’un autre photon infra rouge, mais celui-ci, au lieu de s’échapper vers l’espace, a 50 % de chances d’être renvoyé vers la surface de la Terre qu’il contribue alors à chauffer. La chaleur additionnelle acquise par la surface de la Terre se propage dans l’atmosphère par conduction thermique et convection : c’est ce processus qui constitue l’effet de serre.
    Le gaz carbonique n’est pas le seul gaz à effet de serre dont l’activité humaine fait croître la concentration dans l’atmosphère. Le plus puissant est le protoxyde d’azote N2O, appelé aussi «gaz hilarant» émis principalement par l’usage d’engrais azotés en agriculture, mais aussi par certains procédés industriels : à concentration égale, le protoxyde d’azote absorbe environ 300 fois plus d’énergie infra rouge que le gaz carbonique. Le méthane, CH4, en augmentation lui aussi du fait des pratiques agricoles (l’élevage et les rizières) est lui aussi un gaz à effet de serre beaucoup plus puissant que le gaz carbonique (environ 90 fois). Enfin, les lourdes molécules d'halocarbures, certains utilisés autrefois, mais maintenant interdits, comme gaz réfrigérants, ont un énorme pouvoir absorbant et leur durée de vie dans l’atmosphère dépasse le millier d’années. Heureusement, ils sont en concentration très faible. L’effet de la présence de tous ces gaz dans l’atmosphère sur le climat dépend bien sûr de leurs concentrations respectives, mais aussi de leur durée de vie : une même quantité de gaz introduite dans l’atmosphère n’aura évidemment pas le même effet sur le climat selon qu’elle y persiste 100 ans ou 1 000 ans. Afin de pouvoir évaluer cet effet, on a donc introduit la notion d’équivalent carbone (tableau II). 1 kg de méthane, 90 fois plus puissant que le gaz carbonique en termes d’effet de serre, mais dont le temps de résidence dans l’atmosphère est très inférieur, aura le même effet que 25 kg de gaz carbonique où que 6,8 kg de carbone (1 kg de gaz carbonique contient 0,27 kg de carbone) ; on dit alors que 1 kg de méthane vaut 6,8 équivalents carbone.

     

    Temps de résidence approximatif dans l’atmosphère

    Équivalent carbone

    Gaz carbonique

    100 ans

    0,27

    Méthane

    12 ans

    6,8

    Protoxyde d’azote

    120 ans

    81,3

    Halocarbures

    Jusqu'à 50 000 ans pour certains

    34 à 6 220

    Tableau II : Propriétés des principaux gaz à effet de serre d’origine humaine

    Bien que le gaz carbonique soit beaucoup moins efficace en termes d'effet de serre que d’autres gaz, il est beaucoup plus abondant, et est responsable des trois quarts de l’effet de serre (voir figure 2).


     4 - Concentration et pression partielle de gaz carbonique et quelques raccourcis de calcul

    Dans l’atmosphère, la concentration en gaz carbonique s’exprime simplement en moles (ou parties) par million (ppm). Rapportée à tous les gaz de l’atmosphère cette concentration peut varier selon les ajouts ou la condensation de vapeur d’eau dont le temps de résidence dans l’atmosphère est assez bref. Aussi exprime-t-on cette concentration par rapport à de l’air sec. C’est ainsi qu’elle est représentée sur la figure 1.

    Une autre notion est importante car c’est elle qui détermine les échanges de gaz entre l’atmosphère et les océans : la pression partielle (pCO2). Dans l’atmosphère, si la pression atmosphérique est «normale» (760 mm de mercure, ou 1,01325 bar) et s’il n’y a pas de vapeur d’eau, la pression partielle s’exprime en microatmosphère (µatm) par le même nombre que la concentration en ppm. Dans les conditions usuelles, la pression partielle de gaz carbonique est égale au produit de la pression atmosphérique par la concentration de ce gaz dans l’atmosphère, vapeur d’eau comprise.
    Dans l’océan, la pression partielle de gaz carbonique est égale à celle mesurée dans un volume d’air équilibré avec l’eau de mer. Cette mesure n’a d’intérêt qu’à l’interface océan-atmosphère à travers laquelle se produisent les échanges gazeux, et où l’atmosphère est à la même température que la surface de l’océan et saturée en vapeur d’eau. Le flux de gaz carbonique se fait du milieu dans lequel la pression partielle est la plus élevée vers celui où elle est la plus faible, et est proportionnel à la différence de pression partielle, et à un coefficient d’échange qui dépend de la vitesse du vent.
    L’océan et l’atmosphère se côtoyant depuis «belle lurette», ces deux milieux se sont équilibrés, avec, toutefois, des écarts de pression partielle qui peuvent localement et saisonnièrement excéder 100 µatm selon la circulation océanique et les variations de température (cet équilibre, avant l’ère industrielle, se situait aux environs de 280 µatm). La pression partielle de gaz carbonique dans l’eau de mer varie en effet avec la solubilité de ce gaz, laquelle est surtout fonction de la température. Elle varie aussi selon l’état du H2O + CO2 ←→ H+ = HCO3- ←→ 2 H+ + CO32- (2)

    Un retrait de gaz carbonique (par photosynthèse par exemple, voir réaction (1) où un retrait de carbonate (CO32-, par fabrication de calcaire) déplaceront cet équilibre dans le sens d’une atténuation de la perturbation. Une écriture simplifiée de l’équilibre (2) met en évidence le comportement dominant des carbonates et permet de comprendre les variations de la pression partielle de gaz carbonique face aux perturbations ;

    2 HCO3- ←→ H2O + CO32- + CO2 (3)

    Ainsi, un déséquilibre dû à un apport de gaz carbonique dans l’eau, c'est-à-dire un ajout à la partie de droite de l’équilibre, actionnera cette réaction vers la gauche : le déséquilibre sera corrigé par la fabrication d’ions bicarbonate HCO3-, accompagnée d’une acidification de l’eau. Un retrait de carbonate CO32-, c'est-à-dire un retrait à la partie gauche, qui se produit lorsque des organismes fabriquent du calcaire entraînera par compensation une diminution des ions bicarbonate, et une augmentation du gaz carbonique dissous et par conséquent, de sa pression partielle. On appelle «carbone inorganique total» la somme gaz carbonique + carbonate + bicarbonate.

    Le calcul de ces équilibres est assez complexe, mais il existe des relations empiriques simples qui répondent aux questions qu’on se pose le plus fréquemment.

    La première permet de calculer la réponse de la pression partielle de gaz carbonique dans l’eau à une variation de température Δt :

    pCO2 (t + Δt) = pCO2 (t) (1+ 0,023 Δt) (4)

    Dit plus simplement, la pression partielle de gaz carbonique augmente de 2,3 % par degré.

    La seconde définit le «facteur de Revelle» comme le rapport de la variation relative de la pression partielle de gaz carbonique à la variation de la concentration en gaz carbonique + carbonates (TCO2) :

    F = (ΔpCO2 / pCO2) (ΔTCO2 / TCO2)-1 (5)

    Roger Revelle a cartographié ce rapport qui varie de manière très cohérente, dans l’océan (voir figure 3). On voit que la pression partielle de gaz carbonique se comporte comme un amplificateur des variations du contenu en carbone inorganique total de l’eau de mer (entre 1,8 et 2,5 mM/kg), variations qu’elle multiplie par 8 à 16 selon les zones de l’océan.


    Figure 3 : variation du facteur de Revelle dans l’océan mondial

    5 - Le cycle naturel du carbone : puits et sources de gaz carbonique

    Les principaux flux de gaz carbonique entre l’atmosphère d’une part, et les océans et les terres émergées d’autre part, résultent de processus physiques (dissolution, transport et diffusion) et chimiques (transformations, équilibre avec les carbonates), ainsi que de l’activité biologique (photosynthèserespiration). Le cycle dit « naturel » est celui, supposé stable, qui régnait avant l’ère industrielle, et mettait en jeu des sources de gaz carbonique égales aux puits.

    • Processus physiques et chimiques

      Aux échelles de temps qui nous préoccupent, les processus physiques et chimiques d’échange de carbone entre les terres émergées d’une part, et l’atmosphère et les océans d’autre part, sont très faibles (voir figure 4) : il s’agit essentiellement d’altération des roches (0,2 Gt/an), et d’apport de gaz carbonique dissous dans l’eau de pluie (0,2 Gt/an), ces deux termes étant rejoints par 0,4 Gt/an de gaz carbonique issu de la décomposition des litières végétales, le tout étant entrainé vers l’océan par les fleuves.
      Il n’en va pas de même entre l’atmosphère et l’océan dans lequel la dissolution du gaz carbonique, et son évasion sont à l’origine de flux importants (environ 70 Gt/an dans chaque sens). Pour l’essentiel, le flux d’évasion vers l’atmosphère est dû à des remontées d’eaux froides en surface, ce qui se produit surtout dans les zones d’upwelling tropicales ; ces eaux profondes qui sont riches en carbone inorganique total ont une pression partielle de gaz carbonique qui peut être bien plus élevée que celle de l’atmosphère, et cette différence est amplifiée par le réchauffement qu’elles subissent à ces basses latitudes où le rayonnement solaire est intense. L’absorption de gaz carbonique par l’océan s’effectue surtout aux hautes latitudes, lorsque les eaux qui dérivent vers les pôles, transportées par le Gulf Stream dans l’Atlantique nord ou par ses équivalents des autres bassins océaniques, se refroidit et voit donc sa pression partielle de gaz carbonique baisser et devenir inférieure à celle de l’atmosphère.
      D’autre part, les mouvements au sein de l’océan sont à l’origine de flux de carbone inorganique total du même ordre de grandeur (90 Gt/an de l’océan superficiel vers l’océan profond, 100 Gt/an dans le sens inverse). Ces flux sont dus au mélange turbulent entre l’océan superficiel peu concentré en carbone inorganique total et l’océan profond plus concentré, et aussi à des transports massifs, vers le bas dans les hautes latitudes où se forment les eaux froides profondes, et vers le haut aux basses latitudes.

    Figure 4 : Cycle global du carbone.

    Les principaux flux annuels de l’époque pré-industrielle sont indiqués par les flèches noires, en GtC an–1, et les flux ‘anthropogéniques’ par les rouges. Les contenus en carbone des différents compartiments sont indiqués en GtC dans les rectangles blancs, en noir pour les stocks naturels, en rouge pour les changements intervenus depuis le début de l’ère industrielle (établi pour les années 90, 4ème rapport du GIEC).

    • Processus biologiques

      Ces processus occasionnent des flux de gaz carbonique importants, que ce soit sur les terres émergées ou dans les océans, et leur bilan est à peu près nul, les flux de photosynthèse étant équilibrés par ceux de respiration et de dégradation de la matière organique : environ 120 Gt/an pour la vie terrestre (à l’origine des variations saisonnières dans l’atmosphère visibles sur la figure 1), et 50 Gt/an pour la vie océanique. La différence importante entre ces deux domaines est que sur les terres émergées, la matière organique qui résulte de la photosynthèse reste piégée dans les premières dizaines de cm du sol et au contact de l’atmosphère, tandis que dans l’océan, une partie des débris issus de la matière vivante sédimente vers l’océan profond et s’y décompose en libérant du gaz carbonique. C’est ce processus de sédimentation  de la matière vivante qui est à l’origine de la différence entre un océan de surface pauvre en carbone inorganique total et un océan profond riche.
      A noter dans l’océan un processus très lent et dont les résultats ne sont sensibles qu’aux échelles de temps géologiques : la biocalcification. Il s’agit de fabrication de pièces calcaires (CO32-, carbonate de calcium), coquilles de mollusques chez les Ptéropodes, ou coccolithes chez les algues microscopiques dites coccolithophoridés. Ces pièces calcaires sédimentent à travers la colonne d’eau, et celles qui parviennent à la surface du sédiment sans être totalement dissoutes retirent ainsi, peu à peu, du carbone au système océan – atmosphère – terres émergées. Paradoxalement, la biocalcification fait augmenter la pression partielle de gaz carbonique : on voit en effet qu’un retrait de carbonate de l’eau de mer actionne l’équilibre chimique (3) vers la droite, dégageant ainsi du gaz carbonique.

    6 - La perturbation anthropique et le cycle du carbone

    Depuis le début de l’ère industrielle, soit depuis 1860 environ, l’activité humaine utilise du carbone, sous forme de charbon, de pétrole ou de gaz, pour ses besoins en énergie. On a ainsi transformé en gaz carbonique, c'est-à-dire «brûlé» 244 Gt de carbone (voir figure 4), à raison de 6,4 GtC/an dans les années 90. Ce chiffre est maintenant largement dépassé : en 2012, ces émissions ont atteint 9,7 Gt, auxquelles s’ajoutent 0,4 Gt dues à la production de gaz carbonique lors de la calcination du calcaire dans la fabrication du ciment. S’y ajoutent également 1,6 Gt/an provenant d’un changement d’affectation des sols : lorsqu’une forêt est défrichée pour être transformée en champs, la biomasse constitutive de la forêt est brûlée et l’humus du sol est rapidement oxydé. Tous ces rejets de gaz carbonique dans l’atmosphère y font augmenter l’effet de serre naturel sont à l’origine du réchauffement global du climat. Cependant, une partie de ce gaz carbonique anthropique ne perdure pas dans l’atmosphère et est au contraire absorbée, selon deux processus principaux :
    D’une part, une atmosphère riche en gaz carbonique stimule la photosynthèse et est favorable à la croissance des végétaux terrestre. Ainsi, la biomasse des végétaux sur les terres émergées tend à augmenter, au taux estimé de 2,6 GtC/an.
    D’autre part, l’injection permanente de gaz carbonique dans l’atmosphère fait que la pression partielle de ce gaz est maintenue à une valeur supérieure à sa valeur moyenne dans l’océan, ce qui entraîne un flux additionnel de 2,2 GtC/an de l’atmosphère vers l’océan.
    Les émissions anthropiques excèdent donc largement les capacités d’absorption (2,6 + 2,2 = 4,8 GtC/an) des systèmes naturels, et la concentration en gaz carbonique de l’atmosphère ne cesse d’augmenter (figure 1).

    L’évolution de cette perturbation dépendra du rythme de nos émissions de gaz carbonique. Mais quel que soit ce rythme, la résorption de l’excès anthropique de gaz carbonique se fera surtout par l’océan et prendra beaucoup de temps : l’équilibre entre l’océan de surface (les 50 à 150 premiers mètres) et l’atmosphère s’établit assez rapidement, en six mois environ, puis est remis en question au fur à mesure que cet océan superficiel se mélange avec un océan profond dont le contenu en carbone inorganique total résulte d’un équilibre antérieur, préindustriel même en ce qui concerne l’océan très profond. On estime que si on stoppait totalement les émissions, il faudrait 30 ans pour en résorber la moitié, et que 50 ans plus tard, il en resterait encore 20 %.

    7 - Questions et menaces

    Un arrêt brutal des émissions de gaz carbonique n’est évidemment pas envisageable, et la concentration de ce gaz dans l’atmosphère continuera de croître. Les puits de carbone risquent alors de perdre en efficacité.

    L’entrée de gaz carbonique, un gaz acide, dans l’océan y augmente l’acidité et y réduit donc la solubilité de ce gaz. Cet effet apparaît dans les variations du facteur de Revelle (figure 3) qui est plus élevé aux hautes latitudes qu’aux basses. La raison en est que le gaz carbonique est plus soluble dans les eaux froides des latitudes élevées qui en contiennent donc davantage et sont (on constate déjà une acidification des océans) plus acides. Dans ces eaux, l’ajout d’une même quantité de gaz carbonique y entraînera une augmentation plus grande de la pression partielle de gaz carbonique. Au final, un océan qui a absorbé tout ou partie du gaz carbonique anthropique sera plus acide et aura une pression partielle de gaz carbonique plus élevée : ce sera à l’atmosphère de s’y ajuster.

    Un climat plus chaud peut s’avérer néfaste pour la végétation terrestre qui pourrait en souffrir. La capacité des écosystèmes terrestres à absorber une partie du gaz carbonique anthropique devrait alors diminuer, voire même s’annuler.

    Sous un climat plus chaud, la matière organique des sols sera oxydée plus rapidement, occasionnant un dégagement de gaz carbonique dans l’atmosphère. Ceci est spécialement préoccupant aux latitudes élevées où d’importantes quantités de carbone organique sont piégées dans les sols gelés (pergélisols) ou dans les tourbières, principalement sous forme de méthane.

    Enfin, jusqu’à preuve du contraire, les écosystèmes marins n’ont pas été affectés par le réchauffement climatique et ne jouent donc aucun rôle dans l’absorption du gaz carbonique anthropique (figure 4). Sous l’influence du réchauffement global, l’écart de température (et donc de densité) entre l’océan superficiel et l’océan profond devrait s’accroître, freinant les échanges turbulents entre ces deux couches, ou les remontées d’eaux profondes. Or, ce sont ces mélanges ou ces remontées qui fournissent les sels nutritifs nécessaires à la croissance des algues. Si la photosynthèse par ces algues diminue, ce n’est pas 11 GtC/an que cet écosystème émettra vers l’océan profond (figure 4), mais une quantité moindre, ce qui y ralentira l’exportation du carbone anthropique. On pourrait aussi assister à des modifications de cet écosystème marin sous ces nouvelles conditions, sans qu’il soit possible d’en prévoir dès maintenant les conséquences en termes de puits de carbone.

    Si les grands traits du cycle du carbone sont relativement bien connus, les flux indiqués sur la figure 4 sont des estimations et souffrent souvent d’une forte imprécision. Les éléments les mieux connus sont les stocks de carbone dans les milieux fluides : atmosphère et océan, au sein desquels les mélanges conduisent à une certaine homogénéité. Les émissions anthropiques de carbone sont elles aussi connues avec précision via les données sur la consommation de pétrole, de charbon et de gaz. Mais les flux entre les compartiments atmosphère, océans, et terres émergées sont très difficiles à estimer à cause de leur très forte variabilité dans l’espace et le temps. Mieux connaître ces flux et leurs variations est indispensable pour comprendre et prévoir l’évolution du système climatique. Ceci passe par des mesures sur le terrain bien plus nombreuses que ce qu’on a pu réaliser jusqu’à présent, et qui ne pourront être réalisées que dans le cadre d’une action internationale coordonnée.


    Voir aussi :

    FAQ :

    Quel est le rôle du gaz carbonique sur l'évolution du climat?

    Y a-t-il saturation de l'effet de serre?

    Dossier Climat :

    VII bis - Le cycle du carbone et le climat

  • Guy Jacques 

    La nomenclature des ères géologiques, définies sur des critères paléoenvironnementaux, paléontologiques ou sédimentaires, est revue tous les quatre ans par l’Union internationale des sciences géologiques. Aucune ambiguïté donc. Nous vivons bien aujourd’hui, et ce depuis un peu plus de 10 000 ans, à l’époque Holocène, qui a succédé au Pléistocène, commencé il y a 2,6 millions d’années, ces deux époques étant les plus récentes de l’ère Cénozoïque commencée il y a 65 millions d’années, moment connu de tous en raison de la disparition, entre autres, des Dinosaures.

    «Officieusement», certains scientifiques estiment qu’il serait opportun de créer, sur d’autres critères, une ère géologique nouvelle, l’Anthropocène (du grec anthropos, « être humain »). Ce concept apparaît dans un ouvrage sur le réchauffement global du journaliste Andrew Revkin en 1992 où il définit ce qu’il nomme Anthrocène ! C’est donc Paul Crutzen, prix Nobel de chimie en 1995, et le biologiste Eugène Stoermer qui ont créé le terme Anthropocène en proposant, symboliquement, comme « date de naissance », 1784, année de dépôt du brevet de la machine à vapeur par James Watt, prémices de la révolution industrielle.

    L’homme a certes modifié son environnement dès qu’il a occupé une place prépondérante dans l’écosphère voici quarante mille ans, au moment où Homo sapiens arrive en Europe sur le territoire occupé par les Néanderthaliens. La population compte environ cinq mille habitants durant trente mille ans avant de s’élever à trente mille âmes grâce au réchauffement climatique post glaciaire, entre -11 000 et –7 000 ans. Mais depuis deux cents ans, en raison de l’accroissement de la population, de 1 à 7 milliards d’habitants sur la planète, du développement de l’agriculture et de l’industrie et, récemment, de la mondialisation qui a multiplié les échanges, le rapport de l’homme à la biosphère a radicalement changé. L’exemple du changement climatique, dû en grande partie aux activités humaines, apporte de l’eau au moulin de ceux qui estiment légitime la création de cette ère géologique, quelle que soit la date de naissance qu’on lui donne. Le glaciologue Claude Lorius est de ceux-ci puisqu’il a intitulé son ouvrage publié en 2011 avec Laurent Carpentier à Actes Sud « Voyage dans l’Anthropocène : cette nouvelle ère dont nous sommes les héros ». Que l’on soit favorable ou non à cette appellation d’Anthropocène, il est incontestable que la pression exercée par l’homme sur son environnement a évolué exponentiellement au XXe siècle, quel que soit le critère considéré : consommation de papier, utilisation de l’eau, endiguement des rivières, déforestation tropicale, teneur en dioxyde de carbone ou en oxyde nitreux de l’atmosphère, apports d’engrais ou érosion de la biodiversité.

    Cette ère n’a toutefois pas été reconnue ni ajoutée à l'Échelle des temps géologiques à l’occasion du 34e congrès international de géologie qui s’est réuni à Brisbane, en Australie, en août 2012, malgré une première tentative.

  • Michel Petit

    Chacun de nous s’intéresse à la température qui règne autour de lui, à ses variations diurnes et saisonnières.

    La moyenne dans le temps des températures observées en un lieu donné constitue un indicateur qui permet par exemple de caractériser la différence de température entre Abidjan et Paris.
    Il existe certes des variations de température locale dont ne rend pas compte la moyenne et que subissent les habitants, mais ce sont précisément ces variations aléatoires que la moyenne permet de lisser, de façon à avoir une valeur significative.

    La température moyenne mondiale est obtenue en faisant une nouvelle moyenne sur tous les points du globe. C’est un indicateur de la tendance générale des températures partout dans le monde, et cet indicateur est largement utilisé pour caractériser le réchauffement global de la planète, même si on ne peut le mesurer directement nulle part.

    Les modèles numériques simulent la température en tous les points du globe, et en faire la moyenne ne présente aucune difficulté.

    Mesurer la température moyenne mondiale est plus délicat, parce que la répartition des stations d’observation n’est pas homogène et surtout parce qu’il n’en existe pas dans certaines zones peu accessibles.
    Les auteurs n’utilisent pas tous la même méthodologie pour pallier cette absence, ce qui explique de petites variations dans les résultats obtenus.
    Certains ne tiennent pas compte de ces zones, ce qui revient à leur attribuer une valeur égale à la moyenne mondiale. D’autres pensent plus représentatif de la réalité d’attribuer à ces zones la moyenne des régions adjacentes, en faisant remarquer qu’il existe généralement une corrélation forte entre les températures de régions voisines. Les résultats obtenus diffèrent peu mais peuvent conduire à des modifications de détail du classement des années par ordre de température croissante.

    Le record absolu de chaleur peut ainsi être attribué soit à 1998 soit à 2005. L’évolution dans le temps de la température moyenne est peu affectée selon que l’on prend telle ou telle option, à condition de conserver la même pour toutes les époques.

    Le mérite essentiel de la température moyenne mondiale est d’être un indicateur des tendances mondiales, lissant les fluctuations naturelles dans le temps et dans l’espace. Néanmoins, cette moyenne fluctue elle-même d’une année à l’autre et seul son comportement moyen sur plus de 10 ans est significatif.

    La réalité n’est décrite que partiellement par une moyenne quelconque et il ne faut pas perdre de vue que les mesures de température montrent que les continents se réchauffent plus que les océans. Le réchauffement des continents, où vivent généralement les humains, est environ le double de la moyenne mondiale, et celui des régions les plus septentrionales le triple.
    De même, les modèles simulent que, pour un réchauffement en moyenne mondiale de 2°C, le réchauffement des continents sera de 4°C et celui des régions septentrionales de 6°C. L’intérêt et les limites des moyennes sont transposables à tous les paramètres caractérisant le climat, et en particulier à l’importante question des précipitations.

    Extrait de l'ouvrage "Climat - une planète et des hommes" édité par le cherche midi éditeur en 2011. Toute reprise totale ou partielle de ce texte doit obligatoirement mentionner le titre et l'éditeur de l'ouvrage.

  • Yves Dandonneau 

    Les activités humaines en brulant les combustibles fossiles consomment de l'oxygène et produisent du CO2. Parallèlement à l'accroissement du CO2 dans l'atmosphère se pourrait-il que l'on vienne à manquer d'oxygène?

    L'air que nous respirons est composé majoritairement d'oxygène pour 1/5ème et d'azote pour 4/5ème environ. L'oxygène est donc présent en grande quantité dans l'atmosphère, et cela où que nous allions, sauf à des altitudes très élevées, où l'atmosphère elle même est trop peu dense, ou bien dans l'océan où, présente sous forme de gaz dissous, sa concentration dépend de son cycle au sein de l'océan. Le risque que nous venions à manquer d'oxygène ne s'est jamais présenté dans l'histoire des hommes et paraît donc lointain. Pourtant, on entend parfois dire que «l'océan fournit la moitié de l'oxygène que nous respirons», ou bien encore on va jusqu'à désigner l'Amazonie comme «le poumon de la planète». Des plantes vertes dans les appartements sont réputées assainir l'air en fournissant de l'oxygène. Sachant que l'origine de tout cet oxygène libre, respirable, est la photosynthèse des ères géologiques passées, que la vie océanique est menacée, et que la forêt amazonienne disparaît peu à peu pour laisser place à des champs cultivés, on pourrait pourtant se laisser gagner par une certaine inquiétude.
    Une description des processus qui constituent des sources d'oxygène, ou au contraire en consomment (on les appelle alors des puits), ainsi qu'un examen des stocks terrestres, montre que la concentration en oxygène de l'atmosphère est à l'abri d'une évolution catastrophique pour encore bien longtemps. Ces processus sont très variés, mais peuvent être regroupés en trois catégories :

    • la photosynthèse, qui produit de l'oxygène, et son contraire, la respiration

    • la solubilité dans les océans

    • les réactions d’oxydoréduction avec les roches.

    Quelques principes de base de la chimie de l'oxygène

    La molécule d'oxygène, O2, comprend deux atomes d'oxygène. L'isotope de masse atomique 16 est de loin le plus abondant, mais l'isotope 18O représente environ 0,2 % de la totalité, tandis que l'isotope 17O est beaucoup plus rare. Ces isotopes peuvent se comporter différemment dans certains processus et réactions (lors de l'évaporation de l'eau, par exemple) ce qui leur confère des propriétés intéressantes pour l'étude du climat ancien.
    Mais ce qui donne à l'oxygène son rôle si important dans la biosphère, c'est sa très forte tendance à s'associer à d'autres molécules : à les «oxyder». Cette propriété vient de ce qu'il n'y a sur la couche externe de l'atome d'oxygène que six d'électrons, alors qu'il en faudrait huit pour qu'il devienne stable. Ainsi, l'oxygène tend à s'associer à d'autres éléments chimiques qui, eux, ne comportent que quelques électrons sur cette couche externe et peuvent les partager avec l'oxygène : parmi ces éléments, l'hydrogène qui combiné à l'oxygène donne l'eau H20, le carbone qui donne le gaz carbonique CO2, l'azote qui donne les oxydes d'azote et l'ion nitrate NO3-, etc.
    Ces réactions de l'oxygène avec d'autres éléments s'accompagnent d'un fort dégagement de chaleur : la combinaison d'un atome de carbone et d'une mole d'oxygène dégage 394 kilojoules.
    Inversement, si on voulait récupérer l'oxygène à partir du gaz carbonique, il faudrait apporter cette énergie : viendrions nous à manquer d'oxygène, qu'il nous serait très coûteux d'en produire.

    Photosynthèse et respiration

    Lors de la formation de la Terre, l'atmosphère était dépourvue d'oxygène libre, et ne permettait donc pas le développement de la vie tel que nous la connaissons maintenant. Ce n'est qu'à partir de l'apparition d'un assemblage de molécules, capable d'enlever un atome d'oxygène à la molécule de gaz carbonique en utilisant l'énergie lumineuse émise par le soleil, que ce gaz, très abondant dans l'atmosphère primitive, a peu à peu décru au profit de l'oxygène, aboutissant à l'atmosphère telle que nous la connaissons et qui a assez peu changé depuis des millions d'années. Cet assemblage de molécules a permis aux végétaux d'effectuer la photosynthèse de la matière organique dont l'équation simplifiée peut s'écrire comme suit :

    6 CO2 + 6 H2O → C6H12O6 + 6 O2

    Le composé symbolisé par la formule C6H12O6 représente les hydrates de carbone qui sont un composant essentiel de la matière vivante, et aussi son carburant. L'élaboration d'une matière vivante, plus diversifiée et plus complexe, requiert de l'énergie et celle ci est fournie par l'oxydation d'une partie de ces hydrates de carbone ou autre composé issu de la vie, via la respiration, qui s'opère par la réaction inverse :

    C6H12O6 + 6 O2 → 6 CO2 + 6 H2O

    La respiration fournit l'énergie nécessaire à la croissance et à l'activité des organismes, et aussi à l'activité des micro-organismes responsables de la dégradation de la matière organique excrétée par les organismes ou de celle des cadavres de ces derniers. Au terme de ces processus, lorsque toute la matière vivante aura été dégradée, autant d'oxygène aura été consommé par la respiration qu'il en a été produit par photosynthèse.

    Océan et terres émergées se comportent différemment

    Sur les terres émergées comme dans les océans, photosynthèse et respiration ont lieu simultanément, mais certaines périodes ou situations peuvent favoriser l'un ou l'autre de ces processus, et la séparation entre les deux se fait de façon très différente selon qu'on considère les terres émergées ou les océans.
    Sur les terres émergées, aux hautes latitudes, au printemps et en été c'est la photosynthèse qui domine, et s'exerce dans les feuilles, tandis qu'en automne et en hiver, ces feuilles sont décomposées au niveau du sol par des micro organismes dont la respiration fait décroître la teneur en oxygène de l'atmosphère (figure 1). Dans les régions tropicales soumises à une alternance saison sèche – saison des pluies, la croissance des végétaux, très ralentie faute d'eau en saison sèche, a lieu en saison des pluies, et alors la production d'oxygène l'emporte sur la respiration. Au contraire, en saison sèche, le manque d'eau conduit à un dépérissement des feuillages et, la chaleur aidant, les processus de dégradation de la matière organique dominent. Photosynthèse et respiration tendent donc à être séparées dans le temps (sauf en région équatoriale où le rythme saisonnier est moins marqué).

    Figure 1 : schéma simplifié du cycle du carbone sur les terres émergées. L'oxygène y suit un cycle inverse : une absorption de gaz carbonique au niveau des feuilles (par photosynthèse) correspond à une émission d'oxygène, tandis que la respiration consomme de l'oxygène et produit du gaz carbonique

    La même séparation dans le temps s'observe aussi en mer, mais là, on a surtout une séparation dans l'espace : la photosynthèse a lieu exclusivement dans la couche éclairée de l'océan – approximativement : les 100 premiers mètres, tandis qu'une grande partie de la respiration est le fait de l'activité bactérienne qui s'exerce aux dépends des débris issus de l'écosystème superficiel lors de leur lente chute vers la profondeur. Or, l'océan superficiel ne se mélange que très lentement avec les eaux profondes. Le fond des océans est occupé par des eaux qui ont été en contact avec l'atmosphère 1000 ans auparavant environ, qui se sont alors saturées en oxygène, mais qui ont ensuite plongé et n'ont plus connu que la respiration : leur contenu en oxygène y a diminué peu à peu (figure 2).
    D'autre part, la surface des océans, qui reçoit un flux d'énergie solaire qui varie en fonction des saisons, est plus chaude en été qu'en hiver. Indépendamment de toute vie, ces variations de température mettent en jeu des flux d'oxygène de la mer vers l'atmosphère ou inversement, car la solubilité de l'oxygène dans l'eau dépend de la température. La formule empirique simple est :

    O2 (mg/litre) = (475 - 2,65 S) / (33,5 + T)

    où S est la salinité en g/l et T est la température en °C (Gameson et Robertson, 1955). Le phénomène dominant est causé par l'oscillation été / hiver de la température. En hiver, les océans qui se refroidissent absorbent de l'oxygène, et ils en émettent en été lorsqu'ils se réchauffent. Ce schéma simple est modifié par les courants marins lorsque ceux ci portent des eaux chaudes vers les pôles où inversement des eaux froides vers l'équateur, ou bien encore lorsque la formation de glace de mer fait barrière aux échanges de gaz entre l'océan et l'atmosphère.

    Figure 2 : quelques profils caractéristiques d'oxygène dissous dans les océans. Près de la surface, on observe toujours des concentrations élevées, dues à la dissolution jusqu'à saturation de l'oxygène atmosphérique ainsi qu'à la photosynthèse. Sous ce maximum, les concentrations décroissent du fait de la consommation d'oxygène par les bactéries qui dégradent les détritus issus de la surface. Plus profond, les concentrations remontent, d'une part parce que peu de détritus y parvienne sans être dégradés auparavant, et d'autre part parce que ces eaux profondes se sont formées aux hautes latitudes, dans des zones froides, et que la solubilité de l'oxygène s'accroît lorsque la température baisse.

    L'action combinée des terres émergées et des océans sur l'oxygène atmosphérique

    Photosynthèse, respiration et dissolution dans l'eau de mer agissent simultanément et font varier la concentration de l'atmosphère en oxygène. Ces variations ont été mesurées par Keeling et Shertz (1992) en trois endroits de la planète : en Alaska, en Californie et en Tasmanie. Dans les deux premiers, tous deux situés dans l'hémisphère nord, on observe un maximum d'oxygène atmosphérique en été et un minimum en hiver. Le maximum d'été est principalement dû à la photosynthèse sur les terres émergées qui caractérisent cet hémisphère. En hiver, respiration et dissolution dans l'eau de mer plus froide se combinent pour donner lieu à un minimum. Entre le maximum et le minimum, l'écart est d'environ 26 ppm (parties par million) en Alaska, et de 20 ppm en Californie. Cet écart est moindre en Tasmanie (18 ppm), l'hémisphère sud étant essentiellement occupé par les océans et la photosynthèse terrestre n'y jouant qu'un faible rôle. Ces variations saisonnières sont très petites comparées à la concentration en oxygène qui est environ 200 000 ppm. La plus forte, celle observée en Alaska, n'en représente que 0,013 %. Un changement des océans, ou de la photosynthèse globale (même s'agissant de l'Amazonie, ce pseudo - « poumon de la planète »), ne semble donc pas pouvoir menacer la qualité de l'atmosphère à moyen terme.

    La perturbation anthropique

    Depuis plus d'un siècle, l'homme satisfait ses besoins en énergie en brûlant du charbon et des hydrocarbures issus de la photosynthèse des ères géologiques passées. Cette combustion consomme de l'oxygène. De même, l'accroissement de la population mondiale a conduit à défricher les forêts pour les remplacer par des cultures. Cette pratique a aussi pour résultat une consommation d'oxygène. D'une part la biomasse que constitue la forêt, très élevée, est pour une bonne part transformée en gaz carbonique. D'autre part les pratiques agricoles génèrent un appauvrissement des sols par dégradation de la matière organique qu'ils contiennent (l'humus). Cette dégradation est le fait d'organismes qui respirent et qui consomment donc de l'oxygène. Les diminutions correspondantes se font au total au taux d'environ 4 ppm/an soit environ 0,002 % du contenu en oxygène de l'atmosphère.
    Là encore, il n'y a donc pas lieu de craindre un manque dans les décennies à venir, à moins que les émissions de gaz carbonique par l'homme aillent croissant pendant longtemps, ce qui paraît exclu par le simple fait que le bouleversement climatique serait alors tel que nous serions en terrain inconnu, dangereux, et hors de portée de notre imagination. À des horizons moins catastrophiques, atteindre 1000 ppm de gaz carbonique dans l'atmosphère (soit une augmentation de 600 ppm) correspondrait à une baisse de l'oxygène atmosphérique d'approximativement 1200 ppm, soit 0,6 % du stock actuel.

    Des scénarios catastrophe ?

    L'oxygène a tendance à s'associer à d'autres substances chimiques pour les oxyder (les brûler). Ainsi, des stocks de carbone ou de matière organique qui ne participent pas actuellement au cycle de la matière vivante pourraient «partir en fumée» en incorporant de l'oxygène. La matière organique des sols en est un exemple comme on l'a vu plus haut lorsque des forêts sont mises en culture. Les stocks de carbone oxydable sont disponibles dans le 5ème rapport du GIECC. Sachant qu'un atome de carbone oxydé en une molécule de gaz carbonique consomme une molécule d'oxygène, un calcul rapide donne, en cas d'une oxydation globale rapide de ces stocks, les ordres de grandeur suivants (pourcentages de diminution de l'oxygène atmosphérique) :

    • oxydation des hydrocarbures (gaz) - 0,19 %

    • oxydation des hydrocarbures (pétrole) - 0,07 %

    • oxydation du charbon - 0,16 %

    • oxydation de la matière organique des sols - 0,64 %

    • oxydation du permafrost - 0,55 %

    Pétrole, gaz et hydrocarbures, s'ils font peser une menace sur le climat, ne peuvent donc causer, dans le cas improbable d'une exploitation totale, qu'une décroissance modérée de la concentration en oxygène de l'atmosphère. Sols et permafrost, incluant les tourbières, ont un pouvoir de nuisance plus élevé. Surtout, la stabilité de ces derniers est menacée par le réchauffement global, et si, en termes d'oxygène, les conséquences seraient supportables, elles seraient catastrophiques en termes de gaz carbonique et d'effet de serre.
    Un autre domaine qui présente un fort potentiel pour réduire la concentration en oxygène de l'atmosphère est l'océan profond, au dessous de 300 m : là se trouvent en quantités gigantesques des eaux très sous-saturées en oxygène. Si elles remontaient en surface, ces eaux auraient la capacité d'absorber l'oxygène de l'atmosphère jusqu'à leur saturation. Ce scénario n'est toutefois pas réaliste dans le contexte du réchauffement du climat, car ce dernier rend les eaux de surface plus chaudes et plus stables, renforçant ainsi l'effet de couvercle par lequel elles empêchent les eaux froides profondes d'entrer en contact avec l'atmosphère.
    Non, ni un dysfonctionnement de l'océan après lequel il cesserait de fournir de l'oxygène à l'atmosphère, ni une oxydation massive des stocks de carbone terrestres, ne sont de taille à réduire sensiblement la concentration en oxygène de l'atmosphère.

    Réferences :
    Gameson, A. L. H., etRobertson, K. G. (1955) The solubility of oxygen in pure water and sea-water. Journal of Applied Chemistry, 5 (9) : 502.
    Keeling, Ralph F. et Shertz, Stephen . (1992) Seasonal and interannual variations in atmospheric oxygen and implications for the global carbon cycle. Nature, 358 : 723-727.

  • Isabelle et Pierre Bauer 

    Dans son remarquable ouvrage intitulé «Histoire du climat depuis l’an mil» publié en 1967, Emmanuel Le Roy Ladurie retrace l’évolution du climat (français, voire européen, pour l’essentiel). Il s’appuie largement sur des données de dendrochronologie et sur les dates des vendanges. Sachant que les dates des vendanges, depuis des temps immémoriaux, sont fixées administrativement pour faciliter l’organisation des équipes de vendangeurs mais aussi la collecte de l’impôt, on peut s’interroger sur la pertinence en termes de climat d’un tel indicateur. En fait la détermination de ces dates, les bans des vendanges, a toujours pris en compte la date de floraison de la vigne et une période de 100 jours pour atteindre la maturation du raisin. Des réseaux de suivi de la maturation du raisin sont désormais en place afin d’optimiser la date des vendanges pertinente pour un vignoble donné.

    L’idée du lien entre le développement végétal de la vigne au cours du printemps et de l’été avec la température moyenne d’une année donnée est confortée par des études menées pour le compte de l’Observatoire national d’étude du réchauffement climatique (ONERC) comme l’indique la courbe ci-dessous qui donne pour le Saint Émilion la relation entre la date de début des vendanges et la somme des températures moyennes journalières (degrés jours) excédant le seuil de 10°C. En effet le développement végétal de la vigne ne se produit qu’au-dessus de ce seuil avec un taux de croissance qui augmente avec la température. La date des vendanges est d’autant plus précoce que cette somme des températures est élevée. Elle suit une loi de variation remarquablement linéaire.

    C’est ce que confirme également une autre étude menée conjointement par L’Institut Pierre-Simon Laplace, Météo France et l’INRA avec Emmanuel Le Roy Ladurie (Daux et al , 2007) qui donne les dates des vendanges pour différentes régions viticoles en fonction de la moyenne des températures journalières maximales entre avril et août. On retrouve bien une loi de variation linéaire, spécifique pour chacune des régions viticoles, entre la date des vendanges et la moyenne des températures maximales.

    Moyenne des températures maximales journalières

    Il est intéressant à ce stade de replacer l’évolution récente de la date des vendanges dans son contexte historique. On dispose pour cela des données de dates des vendanges en Bourgogne D’Emmanuel Le Roy Ladurie sur cinq siècles complétées jusqu’au début des années 2000 par Rochard et al (2005). La figure ci-dessous donne la moyenne mobile décadaire de la date des vendanges de1490 à 2003 ainsi que les dates extrêmes de vendanges. Sur plus de cinq siècles le record absolu de précocité est fourni par l’année 2003 (dépassant de peu l’année 1556). 2003 est l’année de la fameuse canicule dont il sera question spécifiquement un peu plus loin. Un autre phénomène remarquable correspond àl’avancement d’une quinzaine de jours en moyenne mobile de la date des vendanges depuis la fin des années 80.

    Qu’en est-il spécifiquement pour Le Beaujolais ?

    Le mémoire de Master de Yohan Lafragette (2013), dont a été tiré une grande partie des éléments de cette FAQ, s’intéresse précisément au Beaujolais et plus généralement aux vignobles du Nord-Est de la France. Yohan Lafragette présente en premier lieu, dans la figure ci-dessous, l’évolution de la température moyenne annuelle de 1960 à 2012 captée par un réseau de 7 stations météorologiques du Beaujolais. En séparant en 2 les données (de 1960 à 1987 et de 1988 à 2012), il fait apparaître une augmentation moyenne de la température entre ces 2 périodes de 0,4°C. On peut retenir également qu’en dépit d’une forte variabilité d’une année à l’autre, la tendance moyenne de l’augmentation entre 1960 et 2012 est de l’ordre de 1°C, ce qui est considérable ! 

    En fait l’essentiel pour la vigne est la valeur de la température au cours de son développement végétatif, soit en première approximation d’avril à août. Les données présentées ci-dessous mettent en évidence des évolutions distinctes des moyennes, en Beaujolais, de températures maximales diurnes, moyennes diurnes et minimales diurnes entre 1993 et 2012. La croissance de la moyenne des températures maximales diurnes pendant la période végétative atteint un niveau de 1,9°C par décennie, alors que celle des températures minimales est du même ordre de grandeur que celle des températures moyennes annuelles (0,2°C par décennie).Il s’ensuit que la vigne est particulièrement sensible à la hausse des températures maximales.

    Les conséquences sur la phénologie du vignoble du Beaujolais de l’évolution récente de la température sont, comme l’indiquent les 3 figures ci-dessous, multiples :

    • Apparition plus précoce des bourgeons (débourrement)

    • Apparition plus précoce de la floraison

    • Avancée de la date des vendange

    • Réduction de la durée de développement végétatif

    Quelles sont les conséquences du changement climatique récent sur la viticulture du Beaujolais ?

    • La précocité de la période de floraison accroît le risque lié aux gelées tardives. En effet, l’augmentation observée de la température n’entraîne pas la disparition de phénomènes de gels tardifs.

    • Les températures plus élevées ont pour effet d’accroître le degré potentiel d’alcool du vin, ce qui permet de moins  chaptaliser. Elles augmentent, par contre, le recours à l'acidification.

    • L’avancée de la période de maturation du vignoble du Beaujolais de septembre à août augmente la température du raisin au moment de la récolte, ce qui a un effet sur la vinification. Il faut alors décaler les vendanges vers l’aube et posséder une bonne capacité frigorifique pour refroidir les cuves de vinification.

    Le cas de la canicule de 2003

    Le cas de la canicule d’août 2003, elle-même précédée par un événement de très fortes chaleurs en juillet, a soumis les vignobles à des températures excessives grillant littéralement les baies alors que la maturation n’était pas achevée. Afin de sauver ce qui pouvait l’être, la date des vendanges a été avancée et des mesures d’acidification ont été appliquées afin d’aboutir à une vinification acceptable…ce ne fut ni une grande année sur le plan quantitatif ni une bonne année sur le plan qualitatif.

    Conclusion

    Le vignoble du Beaujolais a subi des changements très sensibles en réponse au changement climatique (phénologie, date des vendanges, degré d’alcool…), certaines pratiques vinicoles ont évolué (refroidissement de la vendange, diminution de la chaptalisation, besoin accru d'acidification).

    Faudra-t-il bientôt procéder à des modifications plus radicales comme par exemple le choix de nouveaux cépages mieux adaptés que le gamay aux fortes températures ?

    Références

    Daux Valérie, Pascal Yiou, Le Roy Ladurie Emmanuel, Mestre Olivier, Chevet Jean-Michel et l’équipe d’OPHELIE, Température et dates de vendanges en France, 2007.

    Lafragette Yohan, Le changement climatique dans le Beaujolais et les vignobles du Nord-Est de la France :Etude de l’évolution des stades phénologiques en Beaujolais, Alsace, Bourgogne,Champagne et Jura, 2013, Mémoire de M2 EDMR Paris VII

    Le Roy Ladurie Emmanuel, Histoire du climat depuis l’An mil, 1967, Ed. Flammarion

    Ministère de la Transition écologique et Solidaire Dates des vendanges à Saint Émilion

    Rochard Joël, Clément Jean-Rémy, Srhiyeri Abdelhaq, Zonage et modification du climat : évolution des dates de vendange, création d’un observatoire phénologique de la vigne, 2005. 

  • Nous présentons quelques résultats des recherches sur le Changement Climatique, en vue de faire comprendre la problématique qui s'en déduit nécessairement, celle du Développement Durable.

    Nombreux sont ceux qui sont sceptiques ou indifférents à la problématique du Changement Climatique; ils expriment même souvent l'idée que la solution appartient aux scientifiques eux-mêmes. Or, si ceux-ci peuvent jouer un rôle d'avertissement, la solution des problèmes écologiques posés par le développement de nos sociétés (dont le changement climatique est l'archétype) est, du moins dans nos pays démocratiques, entre les mains des consommateurs-citoyens : 

    • consommer mieux, 

    • peser sur les décideurs pour imposer le développement des énergies renouvelables alternatives aux énergies fossiles, 

    • conforter la recherche. 

    C'est comme anciens acteurs de la recherche que nous intervenons, mais aussi comme grand-parents conscients que les générations de nos petits enfants et de leurs descendants devront vivre avec les conséquences des décisions que nous aurons, ou non, réussi à prendre.... 

    Dans cette présentation, nous nous appuyons essentiellement sur les résultats présentés par le GIEC (Groupe Intergouvernemental d'experts sur l'Évolution du climat) dans ses rapports successifs, dont l'avant dernier date de 2001. 

    Les trois derniers rapports publiés : le quatrième en janvier 2007 et le cinquième publié en 2013 et 2014, le sixième en 2021 et 2022,  confirment et précisent les éléments de ce dossier et il en est tenu compte.

    Nous avons organisé l'ensemble en planches qui reprennent successivement: 

    • les observations

    • l'analyse et la synthèse des processus 

    • la modélisation des phénomènes 

    • les situations prévisibles si... 

    • les stratégies possibles 

    • la nécessité du développement durable.

    Mise à jour Mars 2022

  • Michel Petit

    Dans diverses hypothèses, les chercheurs ont fait "tourner leurs modèles".

    Comme les rapports du Giec l’ont bien établi, l’évolution du climat de la Terre dépendra de celle de la concentration dans l’atmosphère des gaz absorbant le rayonnement infrarouge, dits gaz à effet de serre.
    Cette concentration sera fonction des émissions nettes résultant des activités humaines, que les lois physiques ne permettent pas de prévoir.

    Les concentrations de CO2 attendues à la fin du XXI° siècle sont deux à quatre fois plus élevées que celles de l'ère préindustrielle. Elles dépendent essentiellement des développements démographiques et des politiques énergétiques.

    Il s'agit de l'un des principaux facteurs d'incertitude sur la sévérité du Réchauffement Global  qui va se produire. Les scientifiques qui cherchent à simuler par des modèles numériques le comportement futur du climat doivent faire des hypothèses sur cette évolution de la composition de l’atmosphère.

    Les scénarios du "Rapport spécial" sur les scénarios d’émission, formellement approuvé en 2000, ont servi de base aux modélisations dont ont rendu compte les troisième (2001) et quatrième (2007) rapports du Giec. Les émissions supposées étaient déduites de scénarios de développement socio-économique, élaborés par les prospectivistes. Les concentrations de gaz à effet de serre, calculées à partir de ces émissions servaient de base à l'évaluation du changement climatique.

    Quatre grandes familles de scénarios ont été définies : A1, A2, B1 et B2, lesquelles se déclinent en variantes selon des hypothèses retenues.

    Le scénarios A1 décrit un monde futur dans lequel la croissance économique sera très rapide, la population mondiale atteindra un maximum au milieu du siècle pour décliner ensuite et de nouvelles technologies plus efficaces seront introduites rapidement. Elle se scinde en trois groupes qui décrivent des directions possibles de l’évolution technologique dans le système énergétique. 

    Les trois groupes A1 se distinguent ainsi: forte intensité de combustibles fossiles (A1FI), sources d’énergie autres que fossiles (A1T) et équilibre entre les sources (A1B) («équilibre» signifiant que l’on ne s’appuie pas excessivement sur une source d’énergie particulière, en supposant que des taux d’amélioration similaires s’appliquent à toutes les technologies de l’approvisionnement énergétique et des utilisations finales).

    Le scénario A2 prévoit un monde très hétérogène. Le thème sous-jacent est l’autosuffisance et la préservation des identités locales. Les schémas de fécondité entre régions convergent très lentement, avec pour résultat un accroissement continu de la population mondiale. Le développement économique a une orientation principalement régionale, et la croissance économique par habitant et l’évolution technologique sont plus fragmentées et plus lentes que dans les autres canevas.

    Le scénario B1 correspond à un monde convergent avec la même population mondiale culminant au milieu du siècle et déclinant ensuite, comme dans le canevas A1, mais avec des changements rapides dans les structures économiques vers une économie de services et d’information, avec des réductions dans l’intensité des matériaux et l’introduction de technologies propres et utilisant les ressources de manière efficiente. L’accent est placé sur des solutions mondiales orientées vers une viabilité économique, sociale et environnementale, y compris une meilleure équité, mais sans initiatives supplémentaires pour gérer le climat.

    Le scénario B2 décrit un monde où l’accent est placé sur des solutions locales dans le sens de la viabilité économique, sociale et environnementale. La population mondiale s’accroît de manière continue mais à un rythme plus faible que dans A2, il y a des niveaux intermédiaires de développement économique et l’évolution technologique est moins rapide et plus diverse que dans les canevas et les familles de scénarios B1 et A1.

    À titre d'exemple, la figure ci-dessous montre les prévisions d'augmentation de la température moyenne de surface du globe par rapport à la période 1980-1999. Les courbes colorées montrent, en continuité avec les simulations relatives au 20ème siècle les variations pour les scénarios A2, A1B et B1, ainsi que pour un scénario irréaliste où les concentrations seraient restées constantes à leur valeur de 2000 et qui présente l’intérêt de montrer le réchauffement auquel nous condamnent les émissions passées. Les zones colorées donnent une indication de la dispersion des simulations. Dans les barres de droite, le trait horizontal indique la valeur la plus probable pour le scénario d’émissions considéré et l’étendue des barres indique la gamme des valeurs vraisemblables.

     fig12

    Figure 12a

    Les modèles ne sont pas parfaits, ils sont en particulier incapables de simuler en des temps de calcul raisonnables des phénomènes de taille inférieure à 300 km. Il en résulte que les températures prévues par rapport au présent sont entachées d’une incertitude. Les barres à droite de la figure sont relatives à la température prévue en 2100. 

    On voit que si un mélange d'actions volontaristes et... de chance permet d'associer la concentration la plus faible et la partie basse de la barre correspondante, l’augmentation de température prévue peut se limiter à 1°, et que si, à l’opposé, la concentration la plus forte est associée à l'extrémité haute de la barre, on peut avoir 6,4° de plus en moyenne (sachant que d'après les observations, l'augmentation de température dans l'hémisphère nord est toujours supérieure à la moyenne Terre entière). C’est donc dans cette fourchette que l’on peut s’attendre à trouver l’augmentation de la température moyenne mondiale à la fin du siècle. 

    Les conséquences de telles variations de la température moyenne mondiale ne sont pas négligeables puisque c'est un écart de 5° qui sépare une ère glaciaire et un optimum interglaciaire, c’est-à-dire les périodes les plus froides et les périodes les plus chaudes des grands cycles climatiques naturels.

    Les quatre grandes familles de scénarios d'émission, A1, A2, B1 et B2 décrits dans cette page qui ont servi de base aux modélisations des 3ème et 4ème  rapport du Giec ont été remplacées, pour l'élaboration du cinquième rapport, par une approche différente.

    Pour prendre en compte des scénarios d’émission correspondant à des mesures volontaristes de réduction des émissions envisagées, cette nouvelle approche est fondée sur le choix d’un nombre limité d’évolutions des concentrations, prises parmi celles utilisées par des scénarios existants qui intègrent de façon cohérente une évolution socio-économique, les émissions, les concentrations, les évolutions du climat et leurs conséquences.
    Un travail important de chercheurs de toutes disciplines concernées a permis de choisir quatre d’entre eux dont les concentrations seront utilisées par les modèles pour permettre des comparaisons. Ces quatre scénarios, référencés conventionnellement par la valeur du forçage radiatif en 2100 calculés par le modèle de référence (2,6 ; 4,5 ; 6 et 8,5 W/m²), sont appelés en anglais «Representative Concentration Pathways (RCPs)» qu’on peut traduire par «Évolutions représentatives des concentrations».

    L’évolution la plus modérée des concentrations correspond aux politiques les plus volontaristes des réductions d’émission et la plus forte correspond au contraire au maximum des émissions envisagées dans la littérature. Les deux autres RCP correspondent à des hypothèses intermédiaires.

    Les quatre « Évolutions représentatives des concentrations » incluent tous les facteurs susceptibles d’influencer le climat. Elles ne sont ni des prévisions ni des recommandations politiques. Leur seule ambition est d’être un outil de travail permettant d’explorer la gamme des évolutions possibles du climat.
    Elles sont utilisées en parallèle comme point de départ par les modélisateurs du climat et comme objectif par les chercheurs qui cherchent à déterminer l’influence des évolutions socio-économiques sur les émissions. Les résultats de ces modélisations du climat sont présentés dans la figure ci-dessous, tirées du 5ème rapport du Giec. On voit que seul le scénario RCP 2,6 permet d'espérer un accroissement de température de 1° qui correspond aux 2° par rapport à l'ère préindustrielle, valeur retenue par la COP 21.

    Figure 12b :Evolution dans le temps de la différence entre la température moyenne mondiale de la surface et sa valeur au début du XXIe siècle.
    Les simulations pour le futur sont traduites pour chaque RCP par la moyenne des modèles considérés (lignes continues), ainsi que par la dispersion entre ces modèles (zones colorées correspondant à une dispersion entre modèles allant de 5 à 95 %). La discontinuité des courbes en 2100 n'a aucune signification physique, elle est due au fait qu’un certain nombre de modèles n'ont pas fait de projection au-delà de 2100. Les nombres au milieu de la figure sont ceux du nombre de modèles pris en compte.

    Voir la FAQ :

    Les modèles climatiques ont-ils une valeur prédictive?

    Voir News :

    Janvier 2012 :  Representative Concentration Pathways » : La nouvelle approche du Giec.   

    Avril 2013 :  Le protocole de Kyoto : de belles paroles ne suffisent pas à éviter un bouleversement du climat de notre planète  

    Février 2015 :   La COP 21 Paris - décembre 2015. Le seuil de 2°C : un artifice ?

    Dernière mise à jour Mars 2016

  • Jacques Merle 

    La température moyenne de la surface de la Terre est, avec l’élévation du niveau moyen des océans, l’indicateur le plus pertinent du réchauffement climatique observé depuis le début de l’ère industrielle (aux environ de 1850), période où les premières mesures physiques de température ont été réalisées en routine par les services météorologiques pour les besoins de la prévision du temps.

    La communauté scientifique et le GIEC estiment que, depuis cette époque, le réchauffement est d’environ 0,8 °C. Cependant cet accroissement n’est pas uniforme, il présente une variabilité interannuelle importante et, surtout, il est marqué à long terme par des périodes prolongées où la température se stabilise ou même décroît pendant plusieurs décennies comme ce fut le cas entre 1940 et 1970. Plus récemment, depuis 1998, on observe une évolution semblable de la température de surface qui semble se stabiliser et marquer une pause, appelée généralement par les scientifiques et les media le «Hiatus» ou encore «La pause».

    Ce ralentissement thermique est déconnecté de l’accroissement des émissions anthropiques de Gaz à Effet de Serre (GES), tels que le dioxyde de carbone et le méthane. Les taux d’émissions de ces GES se maintiennent et même s’accroissent régulièrement pour atteindre maintenant (en 2015) dans l’atmosphère les valeurs les plus élevés que l’on ait pu observer depuis un million d’années, dépassant 400 ppm (parties par million). Comment alors expliquer cette absence momentanée de réponse thermique au forçage des GES, s’ils sont bien la cause du changement climatique ? Cette question est surtout brandie par des sceptiques qui voient là une occasion de semer le doute sur la réalité de la cause humaine du réchauffement actuel, mais elle touche presque tous les domaines de l’océanographie physique étant au cœur de l’interaction des deux enveloppes fluides qui entourent la Terre et dans laquelle nous vivons.

    Bien que les années 2014 et 2015 aient vu la reprise de la hausse de la température moyenne globale, ce hiatus thermique a suscité, et suscite encore en 2016, beaucoup de questions et de débats et alimente des controverses pouvant atteindre les milieux gouvernementaux de certains pays, comme récemment aux États Unis. Les «Climato-sceptiques», certes de plus en plus minoritaires, se sont jetés sur cet apparent événement qui démontrait, à leurs yeux, l’origine incomprise et donc naturelle plutôt qu'anthropique du réchauffement climatique. La vigueur de ces débats a suscité plusieurs centaines d’études qui se sont exprimées par des publications de qualité inégale mais touchant à de multiples domaines de la question climatique et impliquant principalement l’océan et l’atmosphère. Presque tous les sujets de recherche touchant aux relations entre ces deux milieux ont été abordés. Ils peuvent se résumer par la question : Comment l’océan absorbe et redistribue la chaleur générée dans l’atmosphère par les GES anthropiques ?
    Pour répondre à cette question générale un large éventail de questions secondaires se pose et détermine autant de chapitres :

    • Le hiatus existe-t-il vraiment ?

    • Quel est le rôle des forçages naturels comme le soleil ?

    • Quel est le rôle de la redistribution horizontale de chaleur par l’océan ?

    • Que sait-on du rôle de l’océan profond et du bilan énergétique de la Terre ?

    • Pourquoi cette question du hiatus a-t-elle pris une dimension politique ?

    • Que conclure ?

    Cette étude n’est pas une synthèse exhaustive de tous les points de vue scientifiques particuliers exprimés sur le sujet. On rassemble seulement les articles les plus significatifs exprimant un aspect de ce phénomène. Plus qu’un «review paper», c’est une invitation à la lecture à partir de références classées dont il s’agit. Dans chaque chapitre les articles sont classés dans l’ordre de leur citation dans le texte.

    1. Le hiatus existe-t-il vraiment?

    Le hiatus a commencé à être détecté et à intriguer la communauté scientifique autour des années 2010 où il devint visuellement apparent sur les courbes d’évolution de la température moyenne à la surface de la Terre (Fig 1). C’est probablement un article de Kevin Trenberth ( 1 - Trenberth 2009), dans lequel il évoquait la possibilité d’un refroidissement temporaire de la température de surface de l’océan et mettait en cause la méconnaissance que l’on avait du bilan énergétique de la Terre, qui alerta la communauté scientifique et prit rapidement une dimension polémique . Le graphique semblait montrer, depuis le pic thermique de 1998 consécutif à un puissant «El Niño», qualifié parfois de l’El Niño du siècle, un ralentissement du réchauffement, toujours en cours au moment de sa mise en évidence. Rapidement, autour de l’année 2010, deux camps s’opposèrent :

    1. Ceux qui s’interrogeaient sur des biais possibles introduits par des changements dans les instruments d’observation et avaient tendance à nier l’existence du hiatus.
    2. Ceux pour qui, au contraire, l’absence de corrélation apparente entre les concentrations de GES et la température était la preuve que le réchauffement n’était pas d’origine anthropique et s’acharnaient à clamer auprès des media la réalité de l’origine naturelle de ce hiatus.

    Parmi la première catégorie, la réaction de certains auteurs fut donc de mettre en doute et de corriger l’existence même de ce ralentissement du réchauffement en prenant en compte des biais possibles qui auraient été introduits par des changements d’instruments d’observation au cours du temps (2 -Lijing and Zhu 2014) ( 3 - Lyman and johnson 2014), ( 4 - Karl et al 2015). Ce dernier article de Karl et al est à l’origine d’une polémique entre des membres du sénat américain et la NOAA, évoqué plus en détail chapitre 5. D’autres auteurs ont tenté par des analyses statistiques poussées de mettre en évidence une éventuelle rupture dans la série temporelle qui matérialiserait le hiatus. Toutes ont échoué ( 5 - Foster and Abraham 2015) ( 6 - Rajaratnam et al 2015). C’est ce qui amena T. Mann ( 7 - Mann 2015) a évoquer : « le fantasme» de la pause climatique et à demander de bannir les termes de hiatus et de pause !

    D'autre part, les changements dans l’instrumentation ont été particulièrement marqués par le déploiement du réseau d’observations autonomes ARGO qui rend accessible à l’observation, à partir de 1998 justement, des régions jusqu’ici mal échantillonnées comme une partie de l’hémisphère sud et les régions polaires ( 8 - Wendel 2015). Avant ARGO la température de surface des océans était principalement estimée in situ à partir des observations des équipages des navires de commerce, avant que les observations spatiales, à partir des années 1970, apportent des données plus homogènes. Cependant cette connaissance de la température de surface de l’océan souffrit longtemps de son sous échantillonnage dans les mers du Sud et au voisinage des pôles que ARGO combla.
    ARGO délivre aussi une précieuse information sur l’océan profond (jusqu'à 2 000 mètres de profondeur) permettant d’estimer l’évolution du contenu thermique de l’océan par couches. ARGO a ainsi permis de comparer la répartition de la chaleur dans différentes couches sur la verticale avec la température de surface et de les confronter à des simulations de modèles. C’est ce que fit (9 – Meehl et al 2011) dans un des premiers articles à l’origine du questionnement sur le hiatus. À l’aide d’un modèle et de données Meehl montra que durant les périodes de ralentissement de l’accroissement de la température en surface (hiatus), la couche océanique des 300 premiers mètres absorbait moins de chaleur que les couches plus profondes, ce qui indiquait que le déficit thermique en surface était dû à une plongée rapide de la chaleur dans les profondeurs. Mais Durack (10 – Durack et al 2014) au contraire, montra, à partir d’observations satellites, que le réchauffement des 700 premiers mètres de l’océan est considérablement sous-estimé depuis 1970. En conséquence, d’après cet auteur, le hiatus apparent n’est qu’une conséquence de cette sous-estimation dû à un faible échantillonnage de l’hémisphère sud et à des méthodes d’extrapolation trop simplistes.
    Les observations profondes d’ARGO ont permis de mieux estimer l’évolution du contenu thermique de l’océan par tranches d’eau, (11- Roemmich et al 2006) et ainsi de corriger des biais dus aux profondeur maximales atteintes par les instruments de mesure antérieurs, qui ont évolué au cours du temps et sont à l’origine d’erreurs importantes dans le contenu thermique. De plus les méthodes d’interpolation trop sommaires des régions sous échantillonnées, affectent aussi considérablement l’estimation du contenu thermique et sa variabilité.
    Dans la deuxième catégorie on trouve des auteurs niant le ralentissement du réchauffement. Certains, prenant en compte le contenu thermique, cherchent à mettre en évidence une rupture statistique dans la série temporelle marquant l’évolution de la température. Peu de publications cependant montrent un hiatus marqué qui serait en désaccord avec les taux d’émissions de carbone fossile. Ce sont principalement des articles de presse, non répertoriés ici, qui rapportent les propos de scientifiques sceptiques quant à l’origine humaine du réchauffement. Ces opposants se manifestent principalement en tentant de montrer la prévalence des forçages naturels, notamment celle du Soleil, pour expliquer l’évolution de la température, incluant le réchauffement et sa pause.

    1 - Trenberth K. «An imperative for climate change planning : tracking Earth global energy», Current Opinion in Environmental Sustainability, 2009
    2 - Lijing Cheng and Jiang Zhu : «Artifacts in variations of ocean heat content induced by the observation system changes», JRL, 2014.
    3 - Lyman JM. And GC. Johnson : «Estimating Global Ocean Heat Content changes in the Upper 1800 m since 1950 and the influence of Climatology Choise», Journal of Climatology, 2014.
    4 - Karl T. et al : «Possible artifacts of data biases in the recent global surface warming hiatus», Science Express Reports, 2015.
    5 - Foster G. and J. Abraham : «Lack of evidence for a slowdown in global temperature», US CLIVAR Variations, 2015.
    6 – Rajaratman B. et al : «Debunking the climate hiatus«, Climatic Change, 2015.
    7 - Mann T. : «Le fantasme de la pause climatique», Revue Pour la Science, 2015.
    8 - Wendel J. : «Global Warming « hiatus » Never Happened Study says», Eos, 2015.
    9 - Meehl G A : «Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus period», Nature Climate Change, 2011.
    10 - Durack P. J. et al : «Quantifying underestimates of long term upper-ocean warming», Nature Climate Change, 2014.
    11 - Roemmich D. : «Unabated planetary warming and its ocean structure since 2006», Nature climate change, 2015.

    2. Quel est le rôle des forçages naturels, tel que le soleil, pour expliquer le réchauffement et le hiatus?

    La question du rôle du Soleil dans le changement climatique actuel a été posée depuis le début de la prise de conscience de l’instabilité climatique, il y a plus de 40 ans. Une frange importante de scientifiques des sciences de l’environnement n’était pas convaincue de la responsabilité de l’homme dans le changement climatique. Ils partaient du principe que le Soleil a joué un rôle dans les variations climatiques à l’échelle des siècles, tels que l’optimum médiéval chaud (900 – 1 400 AD) du moyen-âge et le petit âge glaciaire qui a suivi (1 500 – 1 800 AD), et ils mettaient en avant des causes externes naturelles susceptibles de l’expliquer, comme surtout, le Soleil, et aussi l’activité volcanique, et les aérosols. En France les plus ardents propagandistes du rôle du Soleil dans le réchauffement climatique sont Vincent Courtillot et Jean Louis Le Moël. D’autres auteurs admettent l’influence du Soleil mais l’estiment mineure. Le débat est toujours en cours.
    Après un article initial (1 - Bard et Frank 2006) alertant la communauté scientifique sur le rôle possible du Soleil sur la variabilité du climat, on peut distinguer deux catégories d’articles :

    1. Les tenants d’une influence déterminante du Soleil sur la variabilité du climat ;
    2. Les tenants d’une faible influence du Soleil sur le réchauffement climatique.

    Parmi les tenants d’une influence déterminante du Soleil dans la variabilité du climat, une frange importante de scientifiques opérant dans les sciences de l’environnement n’est pas convaincue de la responsabilité de l’homme dans le changement climatique. Ils mettent en avant des causes externes naturelles susceptibles d’expliquer cette variabilité. Il est vrai que l’activité volcanique, les aérosols et surtout le Soleil ont une influence sur cette variabilité climatique. Ces partisans du tout Soleil sur la variabilité du climat (2 - Courtillot et al 2007), ( 3 - J-L Le Moël et al 2009), ( 4 - Scafetta et B. West 2008), ( 5 - A. Shapiro et al 2011) expliquent le hiatus actuel par le déclin de l'activité solaire, qui est à son plus bas niveau. En particulier V. Courtillot et ses coauteurs, dont Jean-Louis Le Moël, invoquent des corrélations entre des paramètres climatiques et les variations du magnétisme terrestre. Ils distinguent plusieurs échelles temporelles de variations, depuis l'échelle historique (10 - 100 ans), jusqu'à des échelles archéologiques (100 - 5000 ans) et (10 000 – 1 million d’années). Ils constatent aussi que les variations d'amplitude du géomagnétisme à l'échelle décennale sont fortement corrélées avec les évolutions du rayonnement solaire global et la température moyenne de la terre. Ils en concluent que le rayonnement solaire a été le forçage principal du climat jusqu'au milieu de la décennie 1980 où un réchauffement climatique très marqué supplémentaire s’est manifesté, le réchauffement anthropique actuel.

    Parmi les auteurs, qui reconnaissent une influence du Soleil, mais la jugent très minoritaire on peut citer : ( 6 - Foucal et al 2006), ( 7 - Duffy et al 2006), ( 8 - A. Shurer et al 2013), ( 9 - Stauning 2011), (10 Stauning 2015)
    Pour Foukal et al les variations de la luminosité globale sont trop faibles pour avoir accéléré le réchauffement global tel qui est observé aujourd’hui. Cependant une analyse approfondie de ces données d’observations spatiales détaillées a permis de faire avancer considérablement les connaissances fondamentales sur les changements de la luminosité solaire. Ces résultats nouveaux indiquent qu’il est peu vraisemblable que les changements de luminosité aient eu une influence déterminante sur le réchauffement global constaté depuis le 19ème siècle. Cependant Foukal reconnaît que des inconnues subsistent concernant le rôle de la partie ultraviolette du spectre et l’influence de la magnétosphère.
    Pour Schurer et al, le climat du dernier millénaire a été marqué, dans l’hémisphère nord, par des variations d’échelles décennales et centennales telles que le maximum thermique médiéval autour de l'an mil et le petit âge glaciaire à la fin du Moyen Âge. Un modèle permet de comparer l'empreinte climatique des périodes de hauts et de bas forçage solaire avec l’amplitude du changement thermique. Les auteurs trouvent que les changements de température de l'hémisphère Nord au cours du dernier millénaire n'ont pas été fortement influencés par les variations du flux radiatif solaire. Au contraire, depuis 1900, ce sont les éruptions volcaniques qui semblent avoir été le paramètre le plus important susceptible d'influencer le climat, et ceci dans le sens d’un refroidissement.
    Quant à Stauning, il a confirmé qu'il existe bien une corrélation entre le nombre de taches solaires et la température moyenne du globe. Cette corrélation est maximale avec un décalage de trois années dans la série des températures. Stauning démontre que la réduction de l'accroissement des températures observée depuis 1980 correspond au déclin de l'activité solaire actuelle. Sans cette réduction de l’activité solaire, la température moyenne du globe se serait élevée continûment au même taux que dans les années 1980. L'activité solaire est maintenant (en 2015) à son plus bas niveau depuis près d’un siècle et elle ne peut probablement pas baisser encore plus ; aussi, nous dit Stauning, la température moyenne de la terre va probablement rattraper son niveau d'accroissement d'avant 1980, effaçant ainsi le hiatus ; ce qui s’est produit à partir de 2015.

    1 - Bard E. et M. Frank : «Climate change and solar variability : What’s new under the Sun ?», Earth and Planetary Sciences Letters, 2006.
    2 - Courtillot V. et al : «Are there connections between the earth    ’s magnetic field and climate», Earth and Planetary Science Letter, 2007
    3 - Scafetta V. et B. West : «Is climate sensitive to solar variability»,
    4 - Le Moël et al : «Evidence for solar forcing in variability of temperature and pressure in Europe», Journal of Atmospheric and Solar-terrestrial Physics, 2009.
    5 - Shapiro A.I. et al : «A new approach to the long-term reconstruction of the solar irradiance leads to large historical forcing», Astronomy and Astrophysics, 2011.
    6 - Foukal P. et al, «Variation in solar luminosity and their effect on the Earth’s climate», Nature, 2006.
    7 - Duffy P. B. et al : «Solar variability does not explain late-20th-century warming», Physics Today, 2009.
    8 - Schurer A et al : «Small influence of solar variability on climate over the past millennium», Nature Geoscience, 2013.
    9 - Stauning P. : «Solar activity-climate relations : A different approach», Journal of atmospheric and solar-terrestrial physics, 2011.
    10 - Stauning P. : «Reduced solar activity disguises Global Temperature Rise», Atmospheric and Climat Sciences, 2013.

    3. Quel est le rôle de la redistribution horizontale de la chaleur par l’océan?

    Plusieurs dizaines d’articles se penchent sur les relations entre le réchauffement de la surface terrestre avec son hiatus et les oscillations thermiques, de périodes décennales, qui affectent principalement l’océan Pacifique. C’est ( 1 - Meehl et al 2013) qui ouvrent le débat avec un modèle qui leur permet de distinguer dans la variabilité du climat des causes externes et des causes internes au système climatique. Meelh indique que les périodes de baisse du réchauffement (hiatus) correspondent à la phase froide de la PDO « Pacific Decadal Oscillation ». ( 2 - Watanabe et al 2014) poursuivent dans ce sens en montrant que le hiatus est en relation avec la PDO et avec le refroidissement du Pacifique équatorial oriental lui-même généré par un renforcement des alizés. Cette relation entre le hiatus et le refroidissement du Pacifique équatorial en relation avec la PDO, les alizés et la circulation atmosphérique de Walker est étudiée par plusieurs auteurs : ( 3 - England et al 2014), ( 4 - Kosaka et Xie 2013 et 2015), ( 5 - Tokinaga et al 2012). Ils donnent une priorité au Pacifique et à l’intensification de la cellule de Walker pour expliquer le hiatus, ( 6 - Capotondi 2015) allant jusqu’à prévoir des décennies froides (La Niña) plus fréquentes et plus intenses ( 7 - Clement et Dinezio 2014). ( 8 - Kosaka et Xie 2013 ) avaient déjà noté en 2012 que le hiatus était consécutif à l’énorme El Niño de 1997 – 1998 suivi par une décennie beaucoup plus fraîche ( La Niña). Au contraire ( 9 - Tokinaga et al 2012) avaient montré qu’a l’échelle du siècle, depuis 1950, une tendance à l’affaiblissement de la circulation de Walker était nette. D’autres encore mettent en évidence les relations entre le hiatus avec l’océan Pacifique mais aussi l’océan Atlantique ( 10 - Mac Gregor et al 2014), ( 11 - Steinman et al 2015), ( 12 - Gleisner et al) et l’océan Indien (13 - Lee et al 2015), ( 14 - Vialard 2015), ( 15 - Nives et al 2015)

    1 - Meehl A. et al : «Externaly forced and internally generated decadal climate variability associated with the Interdecadal Pocific Oscillation», Journal of climate, 2013.
    2 - Watanabe M. et al : «Contribution of natural decadal variability to global warming acceleration and hiatus», Nature Climate Change, 2014
    3 - England M. H. et al : «Recent intensification of wind-driven circulation in the Pacific and the ongoing warming hiatus», Nature Climate Change, 2014.
    4 - Kosaka Y. and S. Xie : «Recent global- warming hiatus tied to equatorial Pacific surface cooling», Nature, 2013.
    5 - Douville H. et al : «The recent global warming hiatus : What is the role of Pacific variability ?», GRL, 20155 –
    6 - Capotondi A. : «Extreme La Nina events to increase», Nature Climate Change, 2015.
    7 - Clement A. and P. Dinezio : «The tropical Pacific Ocean back in the driver seat», Science, 2014.
    8 - Kosaka Y. and S. Xie : «Tropical Pacific influence on the recent hiatus in surface global warming», US CLIVAR Variations, 2015.
    9 - Tokinaga H. et al : «Slowdown of the Walker circulation driven by tropical Indo-Pacific warming , Nature, 2012.
    10 - Mc Gregor S. et al : «Recent Walker circulation strengthening and Pacific cooling amplified by Atlantic warming», Nature Climate Change, 2014.
    11 - Steinman B. et al : «Atlantic and Pacific multidecadal oscillation and northern hemisphere temperature», Science, 2015.
    12 - Gleisner H. et al : «Recent global warming hiatus dominated by low-latitude temperature trends in surface and troposphere data», GRL, 2014.
    13 - Lee S. K. et al : «Pacific origin of the abrupt increase in Indian Ocean heat content during the warming hiatus», Nature Geoscience, 2015.
    14 - Vialard J. : «Hiatus heat in the Indian Ocean», Nature Geoscience, 2015.
    15 - Nieves V., J. Willis and W. Patzert : «Recent hiatus caused by decadal shift in Indo-Pacific heating», Sciencexpress, 2015.

    4. Que sait-t-on du rôle de l’océan profond et du bilan énergétique de la Terre?

    Il y a seulement 30 ans les observations de l’océan profond (au-delà de 1 000 mètres de profondeur) étaient rares. Depuis cette époque le programme international WOCE (World Ocean Circulation Experiment) a partiellement comblé cette lacune. Mais le progrès le plus décisif a été obtenu avec le réseau ARGO qui maintenant permet d’obtenir une bonne couverture de l’océan mondial jusqu’à une profondeur de 2000 m.
    On a déjà noté chapitre 3 ( 9 - Meelh et al 2011) que c’est probablement Meelh qui le premier montra, avec des données et à l’aide d’un modèle, que sous le forçage d’un flux de un Watt par mètre carré au sommet de l’atmosphère, la couche océanique des 300 premiers mètres absorbait moins de chaleur que la couche plus profonde durant les périodes de ralentissement ou d’inversion du réchauffement (hiatus). Le déficit thermique de la surface serait donc dû à une plongée rapide de la chaleur dans les couches plus profondes lors des épisodes de hiatus. Plusieurs auteurs s’engagèrent dans cette direction de recherche et tentèrent d’évaluer à quelles profondeurs et où la chaleur qui manquait en surface s’était stockée plus profondément durant un hiatus ( 1 - Chen et Tung 2014), ( 2 - Balmaseda et al 2013). Une synthèse de cette question fut donnée par ( 3 - Purkey et al 2015).
    Mais certains auteurs ne détectent pas cette plongée rapide de la chaleur au détriment de la couche superficielle durant un hiatus ( 4 - Liovel et al 2014), ( 5 - Cole et Buis 2014), ( 6 - Foster et Abraham 2015). Ils mettent en évidence la difficulté de mesurer avec précision le contenu thermique des couches profondes de l’océan, qui nécessiterait des observations de température approchant le millième de degré C.
    C’est ce qui amène certains, et parmi eux principalement encore Kevin Trenberth, à s’interroger sur l’irritante question de la chaleur manquante dans le bilan énergétique de la Terre. La question fut posée dès que le hiatus fut mis en évidence ( 7 - Trenberth et Fasullo 2011), mais elle prit toute son importance lorsque l’actualité projeta le hiatus à la une des media (8 - Hansen et al 2011), ( 9 - Schmidt et al 2014), ( 10 - Tollefson 2014), ( 11 - Johnson et Lyman 2014), et encore ( 12 - Trenberth et al 2014).

    1 . Chen X. and Tung K.K. : «Varying planetary heat sink led to global warming slowdown and acceleration», Science, 2014)
    2 . Balmaseda MA. KE. Trenberth, E. Källen : «Distinctive climate signals in reanalysis of global ocean heat content», AGU, 2013
    3 . Purkey S. et al : «Warming the abyss : The deep ocean’s contribution to global warming», US Clivar Variations, 2015.
    4 . Liovel W. et al : «Deep-ocean contribution to sea level and energy budget not detectable over the past decade», Nature Climate Change, 2014.
    5 . Cole S. and A. Buis : «NASA study finds Earth’s ocean Abyss has not warmed», NASA News, 2014.
    6 . Foster G. and J. Abraham : «Lack of evidence for a slowdown in global temperature», US CLIVAR Variations, 2015.
    7 . Trenberth KE. And JT Fasullo «Tracking Earth’s energy : from El Nino to global warming», Surv Geophys, 2011.
    8 . Hansen J. et al : «Earth’s energy imbalance and implications», Atmospheric Chemistry and Physics, 2011.
    9 . Schmidt GA. et al : «Reconcilling warming trends», Nature Geoscience, 2014.
    10 . Tollefson J. : «The case of the missing heat», Nature, 2014.
    11 . Johnson GC. And JM. Lyman : «Where’s the heat ?», Nature Climate Change, 2014.
    12 . Trenberth K. et al : «Earth energy imbalance», Journal of Climate, 2014.

    5. Le hiatus prend une dimension politique inattendue

    Le président du comité scientifique du Congrès américain «Committee on Science, Space and Technology – US House of Reptesentatives» s’est ému de la publication d’un article, déjà mentionné chapitre 1 (4 - Karl et al, 2015), mettant en évidence une sous-estimation dans le dernier rapport du GIEC du réchauffement à travers une ré-analyse de l’ensemble des données de température de la surface de la Terre. Karl, chercheur à la NOAA, a produit un nouveau jeu de données corrigé, et conclut de cette analyse que ces résultats ne soutiennent pas la notion de “slowdown” de la croissance de la température. En d’autres termes, pour Karl (?), et en réponse aux interrogations posées par une partie de la communauté scientifique, le hiatus n’existe pas.
    Cette affirmation a soulevé une tempête parmi les scientifiques proches des lobby soutenant l’exploitation des énergies fossiles carbonatées. D’où une demande de clarification de la part du président de ce comité scientifique du congrès auprès de la présidente de la NOAA, exigeant la délivrance des données brutes (ce qui n’est pas coutumier dans le milieu scientifique), avant leur retraitement par Karl soupçonné de manipulation illicites de données. L’affaire a fait grand bruit aux USA au sein du congrès et dans les media. En janvier 2016 elle n’est toujours pas éteinte.

    6 . Conclusions

    Les conclusions actuelles (décembre 2015) sur le hiatus peuvent être reprises de celles des deux scientifiques les plus en pointe sur la question, Kevin Trenberth et Gerald Meehl et résumées ainsi :

    Trenberth fait le point des connaissances à la mi-2015 sur la question du hiatus. Il critique d’abord l’étude de Karl et al (chapitres 1 et 5) pour qui il n’y a pas de ralentissement perceptible de l’élévation de la température pour la période 2000-2014 si l’on prend en compte des jeux de données légèrement ajustés et corrigés de biais évidents appliqués à l’ensemble de la période 1950 – 1999.

    Trenberth lui objecte que sa période de référence 1950 – 1999 inclut une partie d’un hiatus plus ancien, bien marqué celui-là, appelé par certains «The big hiatus» ayant affecté l’ensemble de la Terre au cours des années 1940 à 1970. Trenberth note aussi malicieusement que l’existence du hiatus des années 2000 dépend de la façon dont l’enregistrement des températures est partitionné en incluant ou non dans la série temporelle analysée l’année 1998 exceptionnellement chaude à la suite de l’El Niño de 1997-98 !
    Pour Trenberth, la variabilité interannuelle de la température de surface de la Terre est en partie pilotée par El Niño et l’oscillation australe du Pacifique équatorial. L’année 1998 est la plus chaude observée depuis que des enregistrements météorologiques physiques existent (Cependant 2015 a été plus chaud que 1998), correspond à l’El Niño du siècle de 1997-98. Durant cet El Niño exceptionnel, les eaux chaudes couvrirent presque entièrement la surface du Pacifique tropical et nourrirent l’atmosphère en énergie sous forme de chaleur latente liée à l’intense évaporation. Cette chaleur latente d’évaporation, prise à l’océan, contribua à le refroidir durablement pendant plus de dix années, de 2000 à 2014, donnant au Pacifique équatorial l’apparence d’un phénomène La Niña presque permanent avec des alizés intensifiés.

    Trenberth met ainsi en évidence une variabilité quasi décennale dans le Pacifique qui peut être rattachée à la PDO «Pacific Decadal Oscillation» elle-même intégrable dans l’IPO «lnterdecadal Pacific Oscillation». Ce refroidissement prolongé du Pacifique équatorial peut expliquer le refroidissement du hiatus. Pour Trenberth la PDO est l’élément essentiel qui pilote les deux hiatus connus du XXème siècle. On a vécu depuis 2000 le pôle négatif (froid dans le Pacifique équatorial) de la PDO. On entre maintenant, en 2015, avec le gigantesque El Niño qui se développe actuellement sur l’ensemble du Pacifique équatorial, dans un pôle chaud de la PDO, ce qui devrait définitivement éteindre dans l’immédiat toutes manifestations d’un improbable hiatus.

    Trenberth règle aussi leur compte aux partisans des forçages externes et du tout Soleil qui, selon eux, serait susceptible d’expliquer le hiatus. Certes il admet qu’il existe des forçages externes qui peuvent contribuer à réduire le réchauffement anthropique comme les éruptions volcaniques, les aérosols et la variation naturelle du flux radiatif solaire. Mais, pour lui, leur contribution totale est minoritaire (moins de 20 %) et ces forçages peuvent jouer dans les deux sens. Ainsi, les aérosols émis dans l’atmosphère par l’activité industrielle très polluante des années 1945 – 1970 ont pu atténuer le flux radiatif solaire incident et freiner ainsi le réchauffement expliquant le hiatus 1945-1970. Mais, après les réglementations internationales prises à partir de 1970 dans les pays développés pour réduire leurs émissions d’aérosols, leur rôle joua dans l’autre sens.

    Meehl présente une synthèse des connaissances (en 2015) sur la variabilité de la température moyenne de surface de la Terre et le hiatus qui complémentent les perspectives et les hypothèses de Trenberth exposées précédemment. Incontestablement les variations à long terme (plus de 50 ans) de cette température moyenne du globe sont dominées par le réchauffement induit par les émissions de gaz à effet de serre de l’humanité. Cependant superposé à cette tendance à long terme on observe une variabilité décennale illustrée par le hiatus. Toutes les questions et les polémiques qui ont été soulevées pour l’expliquer ont contribué à étudier et mieux comprendre cette échelle de variabilité décennale. Meehl a pu mettre en évidence une relation entre le hiatus et la phase négative de la PDO «Pacific Decadal Oscillation». Lorsque celle-ci affecte le Pacifique équatorial par des températures un peu inférieures à la moyenne, le taux d’accroissement de la température moyenne de la surface de la Terre est moins élevé qu’en moyenne (0,11 degré C durant un hiatus pour 0,18 degré C en moyenne générale depuis 1900). Généralisant ce concept, Meehl l’applique à l’ensemble de la série temporelle disponible et fiable, c'est-à-dire corrigée de ses biais dus aux évolutions des instruments de mesure (principalement le réseau ARGO) et montre qu’il y a eu dans le passé de nombreuses périodes où le taux d’élévation de la température a ralenti étant marqué par une phase négative de la PDO.
    Meehl note également que beaucoup d’efforts ont été déployés pour trouver des explications à ces processus non seulement pour identifier une composante décennale dans la variabilité du climat mais aussi et surtout pour en comprendre le mécanisme profond. Certains auteurs, nous dit Meehl, ne sont pas allé très loin au-delà d’une formulation très générale impliquant la variabilité intrinsèque du système climatique pour expliquer les hiatus. Mais Meehl lui-même a franchi un pas important en mettant en évidence, à l’aide d’un modèle pour la première fois, que les décennies hiatus correspondaient à un accroissement du contenu thermique des couches océaniques au- dessous de 300 mètres de profondeur, alors qu’au-dessus le contenu thermique diminuait, ce qui indiquerait que durant les périodes à hiatus il existerait un enfouissement de la chaleur dans les profondeurs océaniques.
    Un autre fait d’observation important est relatif à la répartition par océan de cet enfouissement de la chaleur en profondeur. Les alizés du Pacifique sont très intenses durant les pôles négatifs de la PDO comme ce fut le cas au cours du hiatus 1998 – 2012, mais la quantité de chaleur qui est absorbée au-delà de 300 mètres de profondeur dans le Pacifique est seulement la moitié du total. L’autre moitié serait absorbée par l’AMOC de l’océan Atlantique (Atlantic Meridional Overturning Circulation), ainsi que par l’océan Indien sud et l’océan austral. Meehl reconnaît que beaucoup d’inconnues demeurent notamment en ce qui concerne la redistribution de la chaleur dans l’océan profond et sa répartition par océan.

    1 - Trenberth K. : «Has there been a hiatus ?», Sciences, 2015.
    2 - Meehl G. : «Decadal climate variability and the early-2000s hiatus», US CLIVAR Variations, 2015

  • Les chercheurs observent....

    Michel Petit 

    La variation du niveau des mers est sans doute maintenant le meilleur indicateur que l’on puisse avoir des variations climatiques. Elle intègre en effet deux composantes.

    • Le changement en volume lié à la dilatation thermique de l'océan (effet stérique) provoquée par l'accroissement de la température associée au réchauffement climatique. L’océan a absorbé 90% du surplus de chaleur induit par l’accroissement des gaz à effet de serre, ce qui se traduit par une dilatation importante.

    • Les changements en masse des océans résultant d’échanges d’eau avec les autres réservoirs : atmosphère, réservoirs d’eaux continentales, glaciers de montagne, calottes polaires hors banquise (principalement, le Groenland et l’Antarctique).

    Le graphique ci-dessous (d'après A. Cazenave) montre comment le niveau de la mer a évolué au cours des 140 000 dernières années. Après un minimum correspondant à la période de glaciation maximum, il y a 18 000 ans environ, où il était à 120 mètres au-dessous de l’actuel il a plafonné au cours des 6 000 dernières années (partie gauche de la Figure 5).

    ....mais son taux d'augmentation s'est brutalement élevé à 1,8 mm/an au cours du XXème siècle (partie droite de la figure 6 ci-dessus, et figure 6a, ci-après)

    Figure 6a : Moyennes annuelles du niveau moyen global de la mer.
    Partie rouge de la courbe : champs de niveau reconstitués (1870 à 1950) - Partie bleue : exploitation des mesures de réseaux de marégraphes (1950 à 1992) - Partie noire : mesures altimétriques par satellite (depuis 1992) - (le niveau de la mer est exprimé en mm par rapport à la moyenne de 1961 à 1990).

    Depuis 1992 l’élévation du niveau de la mer s’est faite au rythme de 3.2mm/an. (Voir figure 6 b ci-dessous).

    Figure 6b
    Niveau moyen des océans calculé de façon continue depuis 1993, grâce aux missions altimètriques des satellites Topex-Poséïdon, Jason-1 et Jason-2.

    Il s'agit du niveau moyen, et comme pour tout paramètre géophysique que les chercheurs décrivent par une valeur moyenne, la répartition géographique des variations est loin d'être uniforme. Ainsi entre 1992 et 2011 l’élévation a-t-elle été de 15mm/an dans le Pacifique intertropical ouest alors que le niveau baissait de 10mm/an dans le Pacifique est. Il s’agit là de la signature des variations pluriannuelles du système couplé océan-atmosphère qui induit des variations du contenu thermique des couches superficielles de l’océan (figure 6c ci-dessous) (voir FAQ sur l'élévation du niveau de la mer).

    Figure 6c

    Avant l'existence de satellites altimétriques, le niveau de la mer était mesuré par des marégraphes développés à l’origine pour surveiller les marées, au service de la navigation. Ces instruments disséminés dans les ports n'offraient qu'une couverture partielle de la planète. Cependant, l’analyse de ces enregistrements a permis de reconstituer l'évolution du niveau de la mer avec une marge d'erreur certes, mais qui s'est améliorée au cours du temps.

    A partir de 1992, date de mise en service, du satellite altimétrique Topex-Poséïdon, suivi de Jason-1, fin 2001 et Jason-2 en 2008, les mesures de hauteur du niveau des mers sont connues en permanence, avec une précision remarquable et une couverture globale des océans.

     Depuis mars 2002, a été mis en orbite un système satellitaire de mesures gravimétriques constitué de deux satellites qui se suivent sur la même orbite : GRACE, dont l'objectif est de cartographier les variations temporelles du champ de pesanteur terrestre. (voir FAQ sur le champ de gravité).

    L'exploitation de ces mesures a permis d’évaluer les variations des masses des calottes polaires (figure 6d ci-dessous), des masses d’eaux continentales et aussi de la masse océanique.

    Figure 6d

    On peut ainsi faire la part des contributions respectives de chaque phénomène responsable de l'élévation du niveau des mers pour la période 1993-2011 qui se repartit comme suit :

    • Expansion thermique : 1.1 mm/an

    • Glaciers de montagne : 1mm/an

    • Calottes polaires : 0.9mm/an

    Soit un total de 3 mm/an en très bonne adéquation avec la mesure directe de l’élévation du niveau de la mer par altimétrie de 3,2 mm/an compte tenu de l’incertitude de la mesure (0,5-0,6 mm/an).

    Figure 6e

     La contribution des eaux continentales est négligeable à cette échelle de temps. Elle est toujours faible mais soumise à une très importante variabilité interannuelle qui explique pour une large part les oscillations que l’on observe sur la courbe de l’élévation du niveau de la mer (figure 6b) en relation notamment avec les phénomènes Niño/Niña.

    Pour en savoir plus :

    FAQ :

    Quelles sont les variations actuelles du niveau de la mer?

    Pourquoi la connaissance précise du champ de gravité terrestre est-elle si importante pour le climat?

    Dernière mise à jour, avril 2016

  • Yves Dandonneau

    Les chercheurs ont désormais des certitudes... 

    Les stocks de carbone dans le système climatique

    La perturbation anthropique 

    Quelques évolutions à moyen et long terme

    Brûler des hydrocarbures est à la base de l’activité industrielle des hommes, et le carbone ainsi consommé finit en gaz carbonique dans l’atmosphère, dont il augmente l’effet de serre, causant un réchauffement du climat.
    Ce réchauffement est toutefois ralenti car tout le gaz carbonique émis ne reste pas dans l'atmosphère : ce gaz est en effet soluble dans l’océan, et aussi, dans la vie, de telle sorte qu'une partie des émissions anthropiques de gaz carbonique y est absorbée. Le monde vivant à la surface des terres émergées, constitue un réservoir de carbone de petite taille comparé à l’océan, et est baigné par l’atmosphère. Le gaz carbonique qu’il en soustrait ne peut aller que dans une augmentation de sa biomasse. C’est ce qui se passe actuellement, car davantage de ce gaz dans l’atmosphère stimule la croissance de certains végétaux.

    Les stocks et les flux de carbone dans le système climatique avant la perturbation anthropique.

    La figure 1 est extraite du 5ème rapport du Groupe d’experts Intergouvernemental sur l’Évolution du Climat. Elle montre les différents stocks et flux de carbone dans les réserves d'hydrocarbures et de charbon, les biosphères terrestre et océanique, et les océans. Le cycle naturel (avant l'ère industrielle) est indiqué en noir, tandis que la part due à l'action de l'homme est indiquée en rouge. On peut y voir que le contenu actuel de l'atmosphère, soit 589 gigatonnes de carbone (GtC) auquel l'activité humaine a ajouté 240 GtC, est faible comparé aux réserves de charbon et d'hydrocarbures (environ 1 000 GtC), au contenu des sols et de la végétation terrestre (environ 2 500 GtC), aux 1 700 GtC immobilisés dans le permafrost, et surtout aux 37 000 GtC dissous dans l'eau de mer sous forme de gaz carbonique et de carbonates. Tous ces stocks échangeant du carbone, on conçoit que des perturbations de ces échanges dues à l'action de l'homme et au changement climatique puissent affecter sensiblement le contenu de l'atmosphère en gaz carbonique, et son bilan radiatif.

    Figure 1 : en noir, stocks et flux de carbone dans le système climatique avant l’ère industrielle, et en rouge modifications intervenues du fait de l’activité humaine, telles qu’estimées dans le 5ème rapport du GIEC. L’unité est la gigatonne de carbone (1 GtC = 109 tC), à ne pas confondre avec la gigatonne de CO2 (1 GtCO2 = 3,7 GtC).

    C’est donc l’océan (Figure 1) qui, de très loin, renferme les plus grandes quantités de carbone, avec 37 100 Gt avant l’ère industrielle. Ce carbone est principalement sous forme d’ions carbonate CO32- ou bicarbonate HCO3-. Ces ions participent à l’équilibre des carbonates :

    2 HCO3 H2O + CO32- + CO2

    dans lequel apparaît le gaz carbonique : ce stock interagit donc avec l’atmosphère car le gaz carbonique est soluble et traverse l’interface, du milieu où règne la pression partielle la plus élevée vers celui où elle est plus faible. Les échanges annuels qui prévalaient avant que débutent les rejets de gaz carbonique par l'homme sont estimés à 60 GtC de l'atmosphère vers l'océan, et 60,7 GtC de l'océan vers l'atmosphère (figure 1). Le léger déséquilibre de 0,7 GtC/an résulte de la différence entre 0,9 GtC/an apportés par les rivières à l'océan et 0,2 GtC/an déposés sur le fond des océans par des processus biologiques. Des flux de carbone importants ont lieu au sein de l'océan, soit par simple mélange ou transport vertical de l'eau de mer (90 GtC de la surface vers l'océan profond, 101 GtC/an en sens inverse) soit par fixation biologique par photosynthèse (50 GtC/an) et respiration (37 GtC/an), la sédimentation des particules vers la profondeur et la reminéralisation du carbone qu'elles contiennent maintenant l'équilibre (voir encart « Diversité du cycle vivant du carbone »).
    Les réserves de carbone dans la biosphère terrestre sont plus modestes. Le carbone y est stocké dans la végétation (450 à 650 GtC) et dans les sols qui recueillent les racines et les débris de ces végétaux ainsi qu'une microfaune variée (1 500 à 2 400 GtC). La photosynthèse y ajoute chaque année 108,9 GtC, pris à l'atmosphère, à laquelle la respiration de ces écosystèmes terrestres restitue 107,2 GtC, la différence, soit 1,7 GtC/an représentant le carbone organique dissous exporté par les rivières, lequel est restitué à l'atmosphère ou aux océans, ou enfoui dans les sédiments lacustres.

    La perturbation anthropique

    Les flux présentés sur la figure 1 sont basés sur des observations comportant des marges d'erreurs, et sont ajustés de telle sorte que le bilan soit en équilibre. Cet équilibre correspond à une longue période, depuis la dernière déglaciation, où le climat est resté assez stable. Cependant, depuis le début de l'ère industrielle vers 1850, les activités humaines brûlent du charbon et des hydrocarbures pour fournir de l'énergie, et le produit de cette combustion, le gaz carbonique, s'ajoute à celui qui préexistait dans l'atmosphère : La concentration en gaz carbonique de l'atmosphère s'accroît régulièrement (figure 2) et cette accumulation tend à réchauffer le climat, ainsi qu'on l'observe depuis une trentaine d'années.

    Figure 2 : augmentation de la concentration en gaz carbonique de l'atmosphère (source : NOAA)

    Ce gaz carbonique est soluble dans l'eau, et sur les 7,8 GtC qui sont rejetées chaque année dans l'atmosphère (ce chiffre a augmenté d'année en année mais tend à se stabiliser depuis 2014), auxquelles il faut ajouter 1,1 GtC provenant du changement d'usage des sols (le déboisement principalement), les océans absorbent 2,3 GtC/an, ce qui correspond à la quantité nécessaire pour mettre la couche supérieure de l'océan en équilibre avec l'atmosphère (voir encadré « quelques outils pour comprendre comment l'océan absorbe ou émet du gaz carbonique. »). C'est ensuite par mélange turbulent que ce gaz carbonique anthropique capté par l'océan pénètre lentement dans l'océan profond. Les flux de carbone associés à la vie marine restent inchangés (figure 1).
    Ce n'est pas le cas des écosystèmes terrestres dont les plantes profitent de l'accroissement de la teneur en gaz carbonique de l'atmosphère, qui facilite leur photosynthèse. De ce fait, la quantité de carbone présente dans la biomasse s'accroît de 2,6 GtC/an. Le puits océanique et le puits terrestre de carbone contribuent ainsi à limiter le changement climatique.

    Tableau 1 : évolution des puits océanique et terrestre de CO2 au cours des années récentes

    La consommation de carbone fossile (augmentée de la production de gaz carbonique dans les cimenteries) a augmenté d'année en année, passant de 5,5 GtC/an dans les années 80 à 8,3 GtC/an de 2002 à 2011 (tableau 1). En réponse à cette augmentation, le puits océanique s'est renforcé (de 2 GtC/an dans les années 80 à 2,4 GtC/an en 2002-2011), la couche supérieure de l'océan absorbant du gaz carbonique jusqu'à atteindre l'équilibre avec l'atmosphère. La photosynthèse terrestre a augmenté de 1,5 à 2,6 GtC/an entre les années 80 et les années 90, mais plafonne depuis, tandis que l'apport de gaz carbonique à l'atmosphère du au changement d'usage des sols est en diminution, de 1,5 GtC/an dans les années 90 à 0,9 GtC/an actuellement, du fait de programmes de reboisement .

    Quelques évolutions à moyen et long terme

    Lorsque du gaz carbonique est ajouté dans l'atmosphère, sa contribution à la pression atmosphérique (c'est à dire, sa pression partielle) augmente, et devient supérieure à celle dans les océans. Du gaz carbonique pénètre donc dans les océans jusqu'à ce que les pressions partielles dans les deux milieux s'égalisent. Ce processus n'a pas de raison de s'arrêter, et le puits océanique de carbone devrait donc continuer à prendre environ 1/4 des émissions de gaz carbonique. Toutefois, on peut prévoir une diminution de l'efficacité de ce puits, car l'accumulation du gaz carbonique dans les océans rend peu à peu ceux ci plus acides et augmente la réponse de la pression partielle de gaz carbonique à la dissolution de ce gaz dans l'océan (voir l'encart «Quelques outils pour comprendre comment l'océan absorbe ou émet du gaz carbonique»). De plus, à contenu en carbone constant, la pression partielle de gaz carbonique dans l'océan est sensible à la température : elle y augmente de 4 % par ° C. Enfin, si la vie marine n'a pas semblé jusqu'à présent affectée par la perturbation anthropique (voir figure 1), le réchauffement de la surface des océans et la stabilité accrue de la stratification de l'océan qui en résulte pourraient renforcer le frein à la remontée des sels nutritifs nécessaires à la photosynthèse. Cela, ainsi qu'éventuellement d'autres modifications de la dynamique des océans, pourrait conduire à une diminution de la production primaire marine comme certains articles récents semblent l'indiquer ; l'affaiblissement de la pompe biologique océanique de carbone qui en résulterait créerait un déséquilibre pendant plusieurs décennies entre les flux descendants et ascendant associés à cette pompe, les premiers diminuant aussitôt alors que les seconds se maintiendraient encore longtemps.
    La biosphère terrestre bénéficie comme on l'a vu de l'accroissement de la teneur en gaz carbonique, gaz qui est indispensable à sa croissance. De ce fait, sa biomasse s'accroissant, elle constitue un puits pour le gaz carbonique anthropique. Mais il n'existe pas de réservoir qui soit isolé de l'atmosphère pour cette biomasse, et d'ici quelques dizaines d'années, la respiration et la dégradation par les bactéries s'ajusteront à ce stock et équilibreront la photosynthèse : le puits «végétation terrestre» devrait donc peu à peu tendre vers zéro. D'autre part, le changement climatique en cours soumet la végétation à des modifications du régime des pluies et à des températures plus élevées, auxquelles les écosystèmes doivent s'adapter. Le stress résultant est lui aussi de nature à faire décroître ce puits. Enfin et surtout, les 1 700 GtC que renferment les sols gelés des régions arctiques (permafrost, voir figure 1) sont menacés d'oxydation par le réchauffement très marqué qui caractérise les hautes latitudes, et du gaz carbonique additionnel serait alors émis vers l'atmosphère.
    Un retour aux conditions préindustrielles (une atmosphère à 280 ppm de gaz carbonique) est pratiquement impossible. Si les rejets de gaz carbonique cessaient (ils cesseront nécessairement si les réserves de carbone fossile viennent à épuisement), on estime que 60 % du gaz carbonique serait absorbé par les océans et par la biosphère terrestre au bout d'une centaine d'années (figure 3). Après un millier d'années, il n'en subsisterait que 25 % environ. La lenteur de ce retour aux conditions initiales s'explique par la lenteur du temps de renouvellement de l'océan (de l'ordre de 1 000 ans) et aussi par le fait que, après absorption des premiers 60 %, les océans sont devenus plus acides et ont une capacité moindre à dissoudre le gaz carbonique. Il faut alors remettre à niveau l'alcalinité de l'océan, ce qui se fait lentement et incomplètement par dissolution des dépôts de carbonate de calcium dans les sédiments marins. Au delà (10 000 à 100 000 ans), l'absorption du reste du gaz carbonique est limitée par l'excès d'acidité des océans induite par le CO2 absorbé préalablement. Le retour à une alcalinité plus élevée propice à une absorption de gaz carbonique repose sur l'érosion des silicates (la réaction du gaz carbonique avec du silicate de calcium donne du carbonate de calcium et de la silice). La quantité restante du gaz carbonique injecté après cette très longue dernière phase dépend de la force de la perturbation : pour une injection anthropique de 100 GtC, il n'en subsistera que 10 à 15 %, mais pour 5 000 GtC, il en restera encore plus de 20 %, ceci à cause de l'acidité accrue des océans (Figure 3).

    Figure 3 : temps de résidence d'une injection de gaz carbonique dans l'atmosphère.

    Encart : quelques généralités sur le carbone :

    Le carbone est un élément très répandu dans le système terrestre. Il est très réactif, et le plus souvent associé à d’autres molécules :

    • à de l’oxygène pour former les carbonates des roches, ou le gaz carbonique de l’atmosphère ;

    • à de l’hydrogène et à d’autres atomes (oxygène, azote, phosphore etc…) pour former la matière vivante et tous les composés qui résultent de sa dégradation, y compris le pétrole et le gaz naturel, sources d’énergie pour l’activité humaine.

    On le trouve à l’état pur dans les gisements de charbon… et de diamants (...auxquels nous ne nous intéresserons pas car ils sont en quantité négligeable!)

    L’oxydation du carbone dégage beaucoup d’énergie (33 kJ par gramme de carbone pur). Symétriquement, la réduction du gaz carbonique en carbone ou en hydrates de carbone est gourmande d’énergie. Elle ne se produit dans la nature que par les réactions vivantes : photosynthèse de la matière organique par les végétaux, et, intéressante mais quantitativement négligeable, chimiosynthèse dans les sources thermales sous marines.
    Au cours de la photosynthèse, l’énergie lumineuse émise par le soleil et captée par la chlorophylle est transmise aux «centres de réaction de la photosynthèse», merveilleux assemblages de molécules au sein desquels huit photons peuvent «casser» une molécule de gaz carbonique. C’est cela qui a donné naissance aux gisements de charbon et d’hydrocarbures. Pour revenir à l’état de gaz carbonique, il suffit d’oxygène et d’une allumette.
    Le gaz carbonique est soluble dans l’eau, où il donne des ions carbonate (CO32-) et bicarbonate (HCO3-) et se comporte en acide faible. La haute teneur de l’eau de mer en carbonate et en bicarbonate ainsi qu’en autres sels y influence fortement la solubilité du gaz carbonique.

    L’isotope du carbone le plus abondant est le carbone 12. Il existe aussi, en faibles proportions, du carbone 13 et du carbone 14. Ce dernier est radioactif et sa diminution permet des datations. L’isotope 13, plus lourd que l’isotope 12, est moins réactif lors de la photosynthèse, de telle sorte que les produits dérivés de la photosynthèse (et en particulier : le pétrole) en contiennent proportionnellement moins que le gaz carbonique ou que les carbonates. Cette propriété est utilisée dans l’étude du climat pour identifier l’origine des masses d’air.

     

    Encart : quelques outils pour comprendre comment l'océan absorbe ou émet du gaz carbonique.

    Le gaz carbonique est soluble dans l'eau de mer et y pénètre ou s'en échappe selon que sa pression partielle (pCO2) y est moins forte ou plus forte que dans l'atmosphère. Le flux de gaz est fonction du vent, de la différence de pression partielle entre l'océan et l'atmosphère, et de la solubilité du gaz carbonique :

    F = k s Δ pCO2

    où k est proportionnel au cube de la vitesse du vent et s est la solubilité du gaz carbonique dans l'eau de mer. La vitesse du vent n'a d'influence que sur le temps que mettra la masse d'eau pour s'équilibrer avec l'atmosphère (un ordre de grandeur pour une couche océanique de surface de 100 m d'épaisseur en région tropicale est de 6 mois). C'est la solubilité qui définit la quantité de gaz carbonique qui sera passée d'un milieu à l'autre une fois l'équilibre atteint, et celle ci décroît lorsque l'acidité augmente et lorsque la température augmente (d'environ 4 % par ° C).
    La quantité de gaz carbonique que doit absorber l'océan pour atteindre une pression partielle donnée peut être estimée grâce au Facteur de Revelle (du nom d'un chercheur de la Scripps Institution of Oceanography qui a été très actif dans l'étude du rôle de l'océan dans le cycle du carbone), qui représente la variation relative de la pression partielle de gaz carbonique divisée par la variation relative de carbone inorganique total (TCO2) :

    F = (ΔpCO2 / pCO2) / (ΔTCO2 / TCO2)

    Dit plus simplement, si le contenu en carbone inorganique total d'une masse d'eau augmente de 1 %, la pression partielle de gaz carbonique dans cette masse d'eau augmente de F %. Le Facteur de Revelle rend donc compte de l'effet d'amplification de la réponse de pCO2 à une pénétration de gaz carbonique dans l'océan. Dans les conditions actuelles, ce rapport varie entre 8 et 15 (voir carte ci dessous), les valeurs les plus fortes se trouvant aux hautes latitudes, c'est à dire dans les eaux les plus froides. En effet, le gaz carbonique est plus soluble dans les eaux froides et celles ci, qui en contiennent davantage, sont plus acides ; pour un même apport de gaz carbonique, la pression partielle y augmente davantage. Ceci signifie que, pour un même rejet de gaz carbonique dans l'atmosphère, dans un monde où la pression partielle de gaz carbonique sera plus élevée, et les océans plus acides, ceux ci, pour atteindre l'équilibre avec l'atmosphère, absorberont une quantité moindre de gaz carbonique : l'efficacité du puits océanique de carbone diminuera.

    C'est ce que montre le graphique établi pour de l'eau de mer à 25 °C, avec une salinité de 35 %o et une alcalinité de 2 300 µmol/kg : si actuellement, avec une pression partielle de 400 µatm environ, une variation du contenu en carbone inorganique total entraîne une variation relative 9,3 fois plus forte de la pression partielle, lorsque celle ci sera de l'ordre de 500 µatm, ce sera 10,2 fois plus.

     

    Encart : Diversité du cycle vivant du carbone

    Qu'elle soit terrestre ou marine, la photosynthèse produit, à partir de gaz carbonique, d'eau, et de sels nutritifs, de la matière organique. Celle ci est la source de nourriture et d'énergie pour les écosystèmes marins ou terrestres. Les plantes ou les algues porteuses de cette matière organique, elles mêmes comportant des milliers d'espèces, sont la nourriture de brouteurs, dont la variété n'est pas moindre, et qui peuvent être à leur tour les proies de carnivores. Phytoplancton, zooplancton herbivore, zooplancton carnivore, anchois, thons en mer ; herbe, gazelles, lions, ou feuilles insectes oiseaux sur terre. A chaque niveau de ces chaînes alimentaires, des excréments constituent des pertes. Pas pour tout le monde : les bactéries en profitent. Elles se développent aussi aux dépens des cadavres qui jalonnent ces chaînes alimentaires à tous les stades. Et au final, la respiration des écosystèmes restitue le gaz carbonique qui a été fixé lors de la photosynthèse.
    La grande différence entre la filière terrestre et la filière marine est que la première se développe dans un milieu peu profond, pratiquement en contact en permanence avec l'atmosphère. Il n'y a pas de stockage à l'abri de l'oxygène. Le cycle du carbone y est relativement court. Au contraire, la seconde génère des particules qui, sous l'effet de leur densité, sédimentent lentement vers la profondeur. La matière qui les compose évoluera alors lentement à l'obscurité, dans l'eau froide, et ne réapparaîtra, sous forme de gaz carbonique ou de carbonates, qu'après un long périple qui peut durer un millier d'années. Ce transfert de matière de la surface vers la profondeur est la cause des différences de la fertilité des océans qu'on peut observer d'une région à une autre : sans ce transfert, les océans auraient partout la même teneur en éléments nutritifs.

     

    Voir aussi les FAQs :

    Quel est le rôle du CO2 sur l'évolution du climat ?

    Comment le carbone agit sur le climat? 

    Mis à jour avril 2016

  • Michel Petit avec la participation du Club des Argonautes

    Certains climato-sceptiques ont mis en avant l'argument : «L'atmosphère étant déjà opaque pour le rayonnement infrarouge, l'ajout de nouveaux gaz à effet de serre (GES) ne change rien et ne peut provoquer un accroissement de température.» Cette assertion est fausse car elle oublie que les GES non seulement absorbent, mais également émettent du rayonnement infrarouge. Le phénomène de l'effet de serre et l'absence de sa saturation quand on augmente la concentration des GES dans l'atmosphère peuvent être décrits de la façon suivante.

    La température d'une planète est déterminée par l'équilibre entre l'énergie du rayonnement solaire qu'elle absorbe et le rayonnement infrarouge qu'elle émet. Au voisinage du sol, la densité de l'atmosphère terrestre est telle que la concentration des gaz à effet de serre (GES) qu'elle contient ne permet pas aux photons infrarouges émis par la surface de la Terre ou par les GES de l'atmosphère qui absorbent, mais aussi émettent du rayonnement infrarouge, de s'échapper dans l'espace. Ce n'est qu'à partir d'une altitude suffisante, dite altitude d'émission, que la densité des GES devient suffisamment faible pour que ces photons puissent s’échapper. Cette altitude croît avec la concentration des GES.

    Si on ajoute dans l’atmosphère des GES, l'émission infrarouge diminue, car la température de l'atmosphère décroît avec l'altitude et tout corps émet d'autant moins d'énergie que sa température est plus basse. Par conséquent, durant une phase transitoire, la Terre émet moins d'énergie qu'elle n'en reçoit et tend à se réchauffer. L'augmentation progressive de température de la surface se propage immédiatement vers le haut. Cet accroissement cesse lorsque la nouvelle altitude d'émission retrouve la température qui lui permet de rayonner une énergie égale à l'énergie solaire absorbée.

    Le temps nécessaire pour atteindre ce nouvel équilibre dépend de la capacité calorifique de l'océan, du sol, de l’atmosphère et de la vitesse de fonte des glaciers, des calottes polaires et de la banquise. Son ordre de grandeur est de plusieurs décennies.

    Ce processus peut se répéter indéfiniment, ce qui montre que l'argument évoqué en introduction ne prouve rien.

    Seuls des calculs complexes tenant compte du profil des raies d’absorption et des échanges d'énergie au sein de l'atmosphère peuvent permettre, au moyen d'ordinateurs puissants, de préciser le transfert du rayonnement infrarouge dans l'atmosphère et de quantifier précisément l’ampleur du réchauffement. Un élément important est que les photons émis par chaque couche de l'atmosphère le sont dans toutes les directions, ce qui explique qu'une partie de l'énergie du rayonnement infrarouge de la surface (sol ou eau de mer) lui est restituée par la présence des GES dans l'atmosphère.

    Voir aussi :

    Dossier climat, chapitre VI : L'Effet de Serre

  • Jacques Merle

    I - Le rôle de l'océan dans le climat

    Le système climatique est une machine qui convertit et distribue l’énergie solaire que la Terre absorbe soit 240 W/m2 environ.

  • Michel Petit

    Les chercheurs analysent.

    Une planète (ou un satellite) sans atmosphère (la Lune par exemple) atteint un équilibre thermique lorsque le rayonnement solaire absorbé par sa surface est équilibré par le rayonnement infrarouge émis par celle-ci. Ce rayonnement dépend de sa température de surface qui s'ajuste de façon à ce que l'énergie rayonnée soit égale à l'énergie absorbée.
    Par contre, la planète est entourée d'un édredon isolant , lorsqu'elle est dotée d'une atmosphère contenant des constituants atmosphériques même éventuellement minoritaires, tels que la vapeur d’eau, le méthane, le gaz carbonique, etc... qui absorbent et réémettent l’infrarouge thermique (IRT), et sont appelés «Gaz à Effet de Serre (GES)». Ce nom a été choisi parce que les vitres des serres de jardinier absorbent le rayonnement infrarouge et laissent passer le rayonnement visible ; ce phénomène ne joue cependant pas un rôle essentiel dans la chaleur qui y règne. Dans l'atmosphère, un photon infrarouge émis depuis le sol vers le haut est absorbé par une molécule qui passe alors dans un état excité. Mais, cet état est instable et en revenant sur son état fondamental, la molécule émet un nouveau photon de même fréquence (donc de même énergie) qui est émis dans une direction aléatoire. Certains de ces nouveaux photons se dirigent vers la haut, mais d'autres retournent vers la surface du sol et de la mer qui s'en trouve réchauffée. Toutefois, au-dessus d'une certaine altitude (hauteur d'émission), lorsque la quantité de GES qui reste à traverser devient suffisamment faible pour qu'elle cesse d'absorber l'IRT, l’atmosphère envoie vers l’espace l’infrarouge thermique qu'elle émet. Lorsque la concentration en GES augmente, cette hauteur d'émission augmente elle aussi. Comme la température de l'atmosphère décroit avec l'altitude, la différence entre la température au sol et celle des couches dont s'échappe le rayonnement IRT croit avec la teneur en GES. Cette température d'émission est imposée par l'équilibre énergétique à assurer avec le rayonnement solaire absorbé ne dépend pas de la concentration en GES ; la température au sol augmente donc avec la teneur en GES de l'atmosphère.

    En moyenne annuelle, la Terre reçoit du Soleil, un flux de 342 Watt/m2, (dont 92 % dans la partie visible et proche infrarouge et 8 % dans l'UV). Compte tenu de l'albédo terrestre de 0,313, un (petit) tiers de ce flux incident (107 W/m2), est réfléchi par les nuages ou par la surface du globe; il est directement renvoyé dans l'espace.

    Les deux tiers restants (235 W/m2) sont absorbés par l'atmosphère (67 W/m2), par l'eau des mers et océans, et par les continents (168 W/m2).

    Figure 9 : Échanges d'énergie entre la surface terrestre et l'atmosphère par rayonnements ou par transferts de chaleur.

    L’océan et les continents émettent un rayonnement fonction de leur température, dans le spectre de l'infrarouge thermique (IRT, autour de 10 µ de longueur d'onde). L’établissement d’un équilibre thermique, en dépit de cet apport continu d'énergie solaire, implique que ce rayonnement infrarouge thermique émis par notre Planète vers l’espace soit égal aux 235 W/m2 reçus dans le visible et le proche infrarouge. Sans gaz à effet de serre, la température moyenne d’équilibre à la surface de la Terre serait bien plus basse : seulement 255 °K , soit -18 °C, au lieu de +15 °C (sachant qu’une surface à -18 °C émet 235 W/m2 ce qui équilibre l'énergie du rayonnement solaire visible absorbé …). Néanmoins, étant un corps à température proche de 15 °C, la surface terrestre émet 390 W/m2 (en moyenne) dans l’IRT et seulement une part de cette énergie s'échappe dans l’espace, à cause de l'effet de serre provoqué par la présence dans son atmosphère de GES, vapeur d'eau et dioxyde de carbone essentiellement, en quantité faible mais suffisante pour avoir un effet important.

    Ce phénomène existe depuis des millénaires. Plus récemment, depuis le début de l'ère industrielle, son ampleur a été accrue par l'utilisation intensive de combustibles fossiles qui a engendré un dégagement massif croissant de gaz carbonique (environ 30 milliards de tonnes par an, en ce début de 21ème siècle).

    Près de la moitié de ce gaz à Effet de Serre s'accumule dans l'atmosphère, tandis que l'autre moitié est absorbée par l'océan ou par photosynthèse de la végétation continentale. L'augmentation de la teneur en CO2 de l'atmosphère constitue le principal facteur du Changement Climatique en cours.

    Voir aussi :

    Quels sont les gaz à effet de serre ? Article de Jean-Marc Jancovici.

    Y a-t-il saturation de l'effet de serre?

    Quel est le rôle de l'océan dans le changement climatique anthropique?

    Vers un futur équilibre du climat?

    Dernière mise à jour : janvier 2017

  • Yves Dandonneau 

    La théorie du complot des données de la NASA et le soleil froid.

    Par Stefan Rahmstorf

    (traduit depuis le site de Real Climate)

    Lorsque les climatosceptiques sont désespérés parce que les mesures sont en désaccord avec leurs affirmations, certains d'entre eux choisissent une ultime option : ils tentent de nier et de discréditer les données.

    Les années 2014 et 2015 ont établi de nouveaux records de température globale, et 2016 a fait de même . Certains n'aiment pas cela parce que c'est en désaccord avec leur message politique, et ils essaient de jeter le doute sur les observations de température à la surface globe. Leur cible favorite est les corrections qui sont apportées lorsque ces observations sont régulièrement examinées et améliorées par l'apport de données nouvelles et l'élimination d'effets indésirables qui sont décelés, dus par exemple à des changements dans les modes opératoires des mesures ou l'effet d’îlot de chaleur urbain. Un article sur le blog de Victor Venema de l'Université de Bonn, un expert reconnu sur l’homogénéisation des données climatiques, aborde cette question de manière plus complète. Et il y a bien sûr le récent article de Hausfather et al, qui a fait la une récemment, qui explique avec quelle méticulosité les scientifiques travaillent pour éliminer les biais dans les données de température de surface de la mer, qui, dans le cas présent, résultent d'un changement dans la proportion d'observations à partir de navires ou à partir de bouées.

    Afin d'illustrer les manigances des soi-disant sceptiques concernant le climat, prenons par exemple le graphique ci dessous, qui a été largement diffusé sur les sites climatosceptiques. Il montre parfaitement deux des astuces favorites des climatosceptiques: le tri et les effets graphiques trompeurs.

    Fig. 1 Chronique des révisions de deux valeurs mensuelles des températures globales de la base GIS TEMP de la NASA en janvier 1910 et janvier 2000 (Source: WUWT)

    En regardant les flèches noires, n'avez vous pas l'impression que la différence de température de 0,71 °C est principalement due aux ajustements ? Ceci parce que la flèche de droite est trois fois plus longue que celle de gauche ? Il n'en est rien –voyez vous le stratagème ? Sur l'axe vertical, il manque 0,3 °C au milieu ! En fait, l'ajustement est de 0,26 °C seulement. Bien sûr, c'est tout de même beaucoup –et c'est pour cela que cet exemple a été choisi. Janvier 1910 qui est montré est le mois qui a subi la deuxième plus forte correction à la baisse, manifestement choisi pour cela parmi les 1643 mois de la série de données.

    Pour ce qui est des valeurs moyennes annuelles, et particulièrement les températures depuis la Deuxième Guerre Mondiale, les corrections sont très petites, comme le montre le graphique ci-dessous :

    Fig. 2 Chronique des révisions des données de température globales de la NASA (ndt : GISTEMP).Là aussi, on peut voir que c'est en 1910 que la correction a eu l'effet le plus fort. (Source: Goddard Institute for Space Studies)

    Ce graphique est sans doute familier pour tous ceux qui utilisent les données de la NASA, car on le trouve dans les notes sur les données sur le site de la NASA (c'est même un site interactif). Incidemment, Gavin a déjà déminé cette représentation trompeuse qu'on voit Fig. 1 en mars dernier sur Twitter. Quiconque vous montre cette figure sans expliquer en même temps tout ce qui est montré en Fig. 2 est en train d'essayer de vous tromper.

    Une des manoeuvres préférées des climatosceptiques consiste à suggérer que la NASA a délibérément ajusté les températures à la hausse pour donner plus d'ampleur au réchauffement global. Cela relève de la théorie du complot, puisque l'effet final de ces ajustements est de réduire le réchauffement global. C'est ce que montre la prochaine figure. Si les climatologistes voulaient vraiment exagérer le réchauffement global, ils montreraient les données brutes, non corrigées !

    Fig. 3 Comparaison entre les données de température globales de la NASA, les données brutes non corrigées (bleu clair) et deux jeux de données de température globale élaborés par d'autres institutions. (Source: Goddard Institute for Space Studies).

    Ce n'est pas étonnant de trouver ces théories du complot sur WUWT, le blog sectaire de Anthony Watt, un site sur lequel les amateurs en science du climat présentent des points de vue stupéfiants en résonance avec leurs conceptions, du genre : «L'accroissement du CO2 n'est pas dû à la combustion des hydrocarbures fossiles, mais aux insectes!», ou bien «le réchauffement global est causé par le réacteur nucléaire du noyau terrestre !» «Le réchauffement de l'Antarctique vient de “la chaleur dégagée par des petits ilots de peuplement humain” qu'il y a là !» «La Calotte glaciaire du Groenland ne peut pas avoir plus de 650 ans !» (C'est évident – sinon, comment les Vikings y auraient ils fait croître leurs troupeaux ?)

    Une prévision de refroidissement ratée

    L'affirmation qu'il ne faut pas faire confiance aux données de la NASA a refait surface une fois de plus sur le blog WUWT après que nous ayons comparé ces données à une prévision de refroidissement formulée par deux climatosceptiques allemands, et cette comparaison n'était pas du tout en faveur de leur prévision. Fritz Vahrenholt et Sebastian Lüning, tous deux anciens employés de RWE, le premier émetteur européen de CO2, avaient émis cette prévision d'un refroidissement imminent dans leur ouvrage “Die kalte Sonne” (Le Soleil froid) publié en 2012, dans lequel cette prévision est montrée en utilisant une moyenne mobile sur 23 mois des données de température de surface HadCRUT (ndt : températures moyennes globales produites par le Hadley Center en Angleterre).

    Donc, s'ils n'apprécient pas qu'on ait comparé leur prévision aux données GISTEMP de la NASA, faisons le avec les données HadCRUT.

    Fig. 4 La prévision du «Soleil froid» de Vahrenholt et Lüning comparée aux températures globales de surface du British Meteorological Service (données HadCRUT), en moyenne mobile de 23 mois jusqu'à la fin octobre 2016. Graphique: Prof. Stefan Rahmstorf, Creative Commons BY-SA 4.0.

    Hum. Ce n'est pas très convaincant pour la prévision du Soleil-froid. Alors, pour défendre leur prévision sur le blog WUWT, Vahrenholt et Lüning ont appliqué trois stratagèmes de façon à réduire l'écart entre les données et leur prévision.

    1. Ils ne prennent plus une moyenne mobile sur 23 mois, mais 37. Ceci réduit le réchauffement observé depuis 2011 (la date de leur prévision) jusqu'à la fin de la série de données de 0.34 à 0.22 °C.
    2. Ils ne considèrent plus les températures de surface, mais les données acquises par les satellites pour la troposphère (données RSS). Il y aurait beaucoup à dire des problèmes que posent ces données – mais nous laisserons cela au scientifique responsable des données RSS, Carl Mears, qui explique dans une video pourquoi les données de surface sont plus précises. Cependant, quoi qu'il en soit, ce sont seulement les données de surface qui nous concernent, nous humains. Il se trouve que nous vivons à la surface de la Terre, et pas dans des ballons à haute altitude. Si Vahrenholt et Lüning sont soudain passés des données de surface de leur livre à des données troposphériques moins précises et plutôt hors sujet n'a qu'une seule raison : ceci rend leur prévision moins erronée. Spécifiquement, le réchauffement observé après 2011 s'y réduit de 0.22 à 0.13 °C.
    3. Dans leur nouveau graphique, la courbe prédite ne part pas du niveau des données mesurées en 2011, mais a été décalée vers le haut – de telle sorte qu'au bout du compte, les dernières données ne tombent pas aussi loin de l'intervalle de prévision.

    Toutefois, en dépit de ces trois modifications par rapport au graphique de la première prévision du «Soleil froid», Vahrenholt et Lüning ne parviennent pas à empêcher la courbe des températures observées de dépasser leur intervalle de prévision. Ils essaient d'en minimiser l'effet avec l'argument que la valeur atteinte le dernier mois revient juste à la marge supérieure de l'intervalle de prévision – ce qui est cependant hors sujet puisque cette prévision ne concerne pas un mois particulier parmi d'autres, qui sont forcément très dispersés. Le deuxième point à lui seul – le simple passage de données de surface à des données satellite – n'est pas non plus d'une grande aide, amenant seulement une réduction de 0.34 à 0.30 °C. On peut se dire que c'est aussi pour cette raison que Vahrenholt et Lüning ont étendu la longueur de la période de lissage de deux à trois ans. Mais acceptons ces moyennes sur une période plus longue comme un choix légitime, puisque la prévision concerne l'évolution du climat à moyen terme, et non pas les fluctuations à court terme, ces dernières pouvant être effacées par le lissage plus long.L'emploi d'une période de trois ans au lieu de seulement deux écarte mieux l'effet de El Niño. Avec ce lissage sur 37 mois, la comparaison devient :

    Fig. 5 Comparaison de la prévision du « Soleil froid » de Vahrenholt et Lüning avec les températures globales de surface du British Meteorological Service (données HadCRUT), moyenne mobile sur 37 mois. Graphique : Prof. Stefan Rahmstorf, Creative Commons BY-SA 4.0.

    Ceci met clairement en défaut la prévision de refroidissement de Vahrenholt et Lüning.

    Conclusion

    J'ai discuté ici cet exemple en détail parce qu'il illustre les méthodes de ceux qu'on appelle les «climato-sceptiques». Des gens comme Vahrenholt et Lüning pensent qu'un quidam ne remarquera pas leurs divers subterfuges. Un non-spécialiste peut en fin de compte très difficilement les déceler, à moins d'étudier à fond les données disponibles et la littérature scientifique. Cependant, la prise en compte de quelques critères de bon sens peut donner à ce quidam une indication claire du manque de crédibilité : cela vient d'un site web «climato-sceptique», il n'y a pas d'institut de recherche ni de climatologiste professionnel derrière ces affirmations, et il n'y a pas de publication dans une revue avec comité scientifique de lecture dans cette prévision de refroidissement. Au contraire, elle s'adresse directement au public non spécialisé. Finalement, les auteurs sont liés au business de l'énergie fossile.

    Tout comme dans le journalisme professionnel, il y a plusieurs niveaux d'assurance de qualité dans la science professionnelle. Des études et une formation longues, qui impliquent des méthodes et de l'éthique (comme la recherche de la vérité et le questionnement permanent de ses propres hypothèses). Les standards de la bonne pratique scientifique (des manquements tels que la falsification de données, peuvent valoir à un scientifique son poste et ses plans pour le futur). La réputation, atout majeur du scientifique et de son institut de recherche, qui est rapidement perdue en cas de fausse affirmation. La revue par des pairs, c'est à dire l'évaluation critique des publications scientifiques (et même des institutions) par des tiers indépendants (le plus souvent rivaux). Et en dernier, mais pas le moindre, la culture du débat ouvert, contradictoire, qui est très vif par exemple lors des conférences, qui aura tôt fait d'identifier les problèmes ou les fautes. Personne n'est infaillible, et les scientifiques de profession font parfois des erreurs. Pour cette raison, on ne doit pas nécessairement croire chaque affirmation d'un scientifique, ni même chaque article d'une revue à comité de lecture. Il vaut mieux se forger son opinion d'après la vision d'ensemble. Ce n'est pas pour rien qu'à intervalles de quelques années, des centaines de spécialistes du climat du monde entier, volontairement et gratuitement, s'attaquent à la tâche immense de reprendre toute la littérature scientifique, d'en débattre, et de résumer l'état des connaissances dans les rapports du GIEC. Il y a depuis longtemps un très fort consensus sur les principes de base du réchauffement global. Quiconque en trouverait des contre-évidences sérieuses, défendables, deviendrait rapidement célèbre – une place serait garantie dans les tout meilleurs journaux, Nature, Science où PNAS. La probabilité de tomber sur une trouvaille majeure en consultant un site web à sensation non spécialiste comme WUWT est infiniment plus faible que celle d'y être tout simplement berné.

  • Les chercheurs observent....

    Michel Petit. 

    Au cours des années récentes, le réchauffement global s'est traduit par des variations des climats régionaux. 

    Ce réchauffement n’est pas uniformément réparti, les océans dont l’effet régulateur sur les températures est bien connu se réchauffant naturellement moins que les continents, comme le montre la figure 3. On y observe en outre que l’accroissement de la température est particulièrement fort dans les régions les plus septentrionales d’Amérique, d’Europe et d’Asie. Ce résultat qui peut paraître surprenant est dû au fait que la turbulence de l’atmosphère diminue quand la latitude croît et que la fonte de la glace et de la neige diminue la part de l’énergie solaire réfléchie vers l’espace.

    Les continents et les océans se sont réchauffés.

    Figure 3

    La répartition des précipitations a changé

    Figure 4

    Ces cartes de tendance en température et en précipitation ont été établies à partir des données et selon la méthode du Global Historical Climatology Network (GHNC) du National Climatic Data Center de la NOAA.
    L'analyse des années 2000-2015 confirme que les continents se réchauffent nettement plus vite que les océans et aussi que le réchauffement océanique est affecté par des phénomènes régionaux type El Nino comme l'indique la figure ci-dessous.

    *

    Figure 4bis : Température de surface en moyenne globale Terre entière, depuis 1880 par rapport à la moyenne de la période 1951-1980.
    L'indice ENSO (moyenne glissante sur 12 mois) est basé sur la température de surface de la mer dans la région tropicale du Pacifique, plus précisément dans la zone "Niño 3.4" (définie par 5N-5S, 120-170W), avec la même période de base 1951-1980.
    Les triangles verts marquent les éruptions volcaniques qui produisent une vaste couche d'aérosols stratosphériques avec un effet refroidissant. Source Earth Institute - Columbia University

    De plus, des changements régionaux de température ont pu être associés à des changements dans les systèmes physiques ou biologiques.

    Par exemple :

    • Le retrait des glaciers de montagne

    • Le risque de chutes de rochers et de glaces, glissements de terrain

    • La réduction de l’étendue de la banquise arctique en été et de son épaisseur en été comme en hiver

    • Des floraisons précoces et des périodes plus longues de croissance des plantes et de reproduction des animaux dans l’hémisphère nord 

    • Une migration en latitude et en altitude des plantes, des poissons, des oiseaux et des insectes

    • Une arrivée précoce et un départ tardif des oiseaux migrateurs dans l’hémisphère nord

    • Davantage de blanchissement des coraux

    Voir aussi les Faqs :

    Comment définit-on une sécheresse?

    Quel est l’impact du changement climatique sur le vignoble du Beaujolais?

    Les rapports du GIEC

    (Groupe Intergouvernemental d'Experts sur l'Évolution du Climat)

    Depuis sa création en 1988, le GIEC a produit cinq "rapports" (datés 1990, 1996 et 2001, 2007 et 2013/2014). Ces rapports constituent une synthèse des connaissances et avis de la communauté scientifique internationale à un moment donné sur les questions de Climat. 
    La démarche du GIEC, basée sur la confrontation permanente de résultats obtenus par des équipes différentes, souvent distantes, et leur synthèse, a ainsi fondé les prévisions de Changement global sur des bases scientifiques; bien que certaines de ses conclusions aient été parfois contestées, surtout au début, les rapports du GIEC font autorité et servent désormais de base aux recherches d'autres scientifiques (sociologues, économistes...) et aux prises de position de nombreux décideurs publics et privés à travers le monde.

    Transparence, débat public et contradictoire, mise en évidence des points de désaccord, toutes ces garanties de qualité inhérentes à la démarche scientifique se retrouvent dans celle du GIEC. Son organisation et l'esprit dans lequel il travaille constituent à notre avis un modèle que d'autres communautés scientifiques devraient imiter.

    Dernière mise à jour, juin 2017

  • Quelle a été l’intensité des sécheresses au 20e siècle? Quelle est leur prévision au 21e siècle?

    Katia Laval 

    Les sécheresses peuvent avoir de très graves conséquences sur de nombreux secteurs de l'économie. Les scientifiques cherchent à mettre en évidence les évolutions de leur intensité et de leur fréquence détectées dans le passé et à en prévoir le devenir. Pour atteindre ces objectifs, ils définissent des indices, rassemblent des données du climat du passé et en particulier les précipitations, et étudient le climat futur grâce aux modèles. Ces travaux ont mis en évidence la complexité de ces estimations, et le besoin de recherches supplémentaires pour obtenir des prévisions plus fiables.

    1- Définir une sécheresse

    On peut définir une sécheresse de manière simple comme une situation d'absence prolongée ou d'insuffisance marquée de précipitations, entrainant un manque d'eau pour certaines activités ou pour certains groupes.

    Plus précisément, en suivant le quatrième rapport du GIEC, on distingue :

    • La sécheresse météorologique liée au déficit prolongé de précipitations.
    • La sécheresse agricole liée au déficit d'humidité superficielle du sol (un mètre environ de profondeur de sol, correspondant à la zone racinaire).
    • La sécheresse hydrologique lié à un débit de cours d'eau ou à un niveau d'eau des nappes sous leur valeur normale.

    Ces sécheresses peuvent résulter de :

    • trop faibles précipitations pendant la saison de remplissage des couches superficielles et profondes des sols.
    • une fonte de neige anormalement faible.
    • une évaporation de l'eau trop intense, ce qui diminue les ressources en eau.
    • une modification de l'infiltration ou du ruissellement qui modifie la quantité d'eau stockée par les nappes ou les cours d'eau.

    2- Quelles seront, d'après les rapports du GIEC, les conséquences de l'accumulation des gaz à effet de serre (GES) contenus dans l'atmosphère sur l'aridité des surfaces dans le futur?

    Le changement climatique créé par l'augmentation des GES dans l'atmosphère affecte la distribution des précipitations. Certaines régions verront leur aridité augmenter alors que d'autres seront, au contraire, plus humides. On peut donc prévoir une modification des zones et de la fréquence des sécheresses.

    Mais peut-on affirmer qu'il y aura une tendance globale vers plus d'aridité ?

    Les politiques, les ONG et les médias évoquent souvent le fait que l'augmentation anthropique des gaz à effet de serre a pour conséquence un accroissement du nombre des sécheresses qui pourraient être plus intenses : ces propos, à juste titre, provoquent une vive inquiétude dans nos sociétés.

    Le rapport AR4 du GIEC en 2007, allait d'ailleurs dans ce sens puisque l'on pouvait y lire :

    ...."More intense and longer droughts have been observed over wider areas since the 1970s, particularly in the tropics and subtropics"
    Cette référence a souvent été reprise lors de débats d'experts pour évaluer les risques de sécheresse sur les populations.

    De nombreux épisodes de sécheresses survenues en Chine l'année 1997, entre 1999 et 2000 aux États Unis, et de 2002 à 2008 en Australie semblaient montrer que cet accroissement de l'aridité était déjà en cours sur tout le globe.

    Cependant, quelques années plus tard, en 2013, le nouveau rapport (l'AR5) du même groupe, le GIEC, aboutit à une conclusion différente puisqu'il indique :"A possible overestimation of the increase in regional and global drought".

    Pourquoi cette contradiction entre les 2 rapports, élaborés par la même communauté scientifique ? Doit-on accorder plus d'importance à la conclusion récente, qui devrait normalement s'appuyer sur des progrès obtenus par les scientifiques entre ces deux dates ? Quelles erreurs ou biais antérieurs du rapport 2007 avaient entrainé la révision de ces conclusions ? C'est cela que nous allons examiner.

    3- Les Indices

    Depuis de nombreuses années, plusieurs indices ont été proposés pour évaluer l'aridité d'une région. Ces indices dépendent de la source (la précipitation P) et des pertes d'eau. Ces dernières se composent de la transpiration des plantes, de l'évaporation de l'eau de pluie interceptée sur les feuillages et de celle du sol. La somme de ces trois termes est appelée par les spécialistes "l'évapotranspiration".

    Pour évaluer les dommages subis par les agriculteurs, on utilise fréquemment le PDSI (Palmer Drought Severity Index). Cet indice dépend du rapport entre la précipitation P et l'évapotranspiration "potentielle" (EP). Celle-ci est, en quelque sorte, la valeur maximale de l'évapotranspiration qui se produirait si la surface restait bien mouillée tout au long de l'année. C'est donc celle qui a lieu quand il y a suffisamment d'eau en surface pour répondre à la demande de vapeur d'eau par l'atmosphère.

    Si une surface est très humide comme un gazon mouillé, l'évaluation de l'évapotranspiration par une expression mathématique (sur laquelle nous allons revenir) ne comporte pas de difficulté majeure. Sa détermination est assez précise. Quand la surface s'assèche, l'évapotranspiration diminue car la plante impose une certaine résistance au transport de l'eau du sol vers les pores des feuilles. Ceux-ci, appelés stomates, se ferment, ralentissant l'échange vers l'atmosphère. Cette diminution est délicate à calculer, car elle dépend de nombreux facteurs comme les caractéristiques des plantes, celles du sol ou encore la concentration en CO2 de l’atmosphère.

    Le rapport P/EP permet de classer les situations, en fonction de leur aridité :

    Hyper aride si P/EP<0.05

    Aride si 0.05< P/EP<0.20

    Semi aride si 0.20< P/EP<0.50

    Sous humide si 0.50<P/EP/0.65

    Les indices PDSI s'échelonnent entre -10 et +10. Pour des valeurs inférieures à -3, la région est très aride alors qu'elle est très humide si la valeur de l'indice dépasse 3.
    Il faut noter que l'on donne ainsi à l'indice d'aridité une signification générale, mais que suivant la nature de la surface, le couvert végétal, les cultures, les dommages liés à la sécheresse peuvent être plus ou moins importants.

    4- L'Évaporation Potentielle

    L'évaporation potentielle EP est calculée de façon plus ou moins simple (ou simpliste) suivant l'usage et la précision que l'on veut atteindre. Souvent, dans le passé, l'indice PDSI a été déterminé en calculant cette EP comme une fonction croissante de la seule température (T), dont un exemple est la formule dite de Thornthwaite , souvent utilisée.

    Cette formule reliant directement l'EP à la température, le réchauffement du 20e siècle entraine une augmentation de l'EP, et partant, une diminution de cet indice.

    Il faut souligner qu'il suffit d'avoir des enregistrements de températures et de précipitations, pour aboutir à une évaluation de l'aridité. Cette simplicité explique la popularité de cette méthode.

    Cependant cette relation ne peut être utilisée de manière générale, et on a montré, depuis de nombreuses années, que cette évaluation peut conduire à des résultats biaisés.

    5- Les observations de l'aridité depuis l'ère industrielle

    La figure 1 (Dai, et al (2004)) montre l'évolution de l'indice PDSI sur la surface du globe de 1870 à 2002, calculée avec la formule de Thornthwaite. Elle indique une tendance à l'aridité particulièrement marquée pendant la deuxième moitié du 20e siècle.
    Ce résultat a deux causes :

    • la diminution de précipitations dans certaines régions,
    • et l'augmentation de température,

    qui induit un accroissement de EP.
    Le réchauffement constaté au cours du 20e siècle a donc renforcé l'aridité. La figure 1c montre que cette évolution est bien moins intense et moins étendue si l'on ne tient pas compte de la variation de température observée.
    La conclusion de cet article était : The global very dry areas have more than doubled since the 1970, with a large jump in the early 1980s due to an ENSO induced precipitation decrease and a subsequent expansion primarily due to surface warming".

    Ce résultat préoccupant, a, bien évidemment attiré l'attention des chercheurs et des médias. Il a été pris comme un facteur essentiel pour calculer les impacts de ce changement climatique sur la ressource en eau. Sachant que l'accroissement de la démographie conduit inévitablement à de plus grands besoins de cette ressource essentielle pour l'énergie, l'industrie, l'agriculture, les besoins domestiques, cette conclusion a suscité une certaine angoisse, tout à fait compréhensible.

    Figure 1: Distribution des variations de PDSI (exprimées en variation par 50 ans) calculées à partir des évolutions des précipitations et des températures pendant (en haut) 1900-49; au milieu (b) 1950-2002; en bas (c) le calcul est fait sans tenir compte de la variation de température. Les valeurs négatives (en rouge) indiquent un assèchement et les valeurs positives (en bleu) une humidification). Dai et al, 2004.

    Cependant les spécialistes des échanges entre la surface terrestre et l'atmosphère ont souligné les faiblesses de la formule de Thornthwaite. Le calcul de l'EP doit être plus rigoureux quand on compare des climats subissant des conditions météorologiques ou de rayonnement contrastés. L'évapotranspiration dépend non seulement de la température, mais aussi du rayonnement, de l'humidité de l'air et du vent, ces 3 autres facteurs jouant un rôle direct et bien connu sur l'évaporation (l'expérience familière du linge qui sèche sur une corde nous le rappelle). Une formule bien plus précise est la formule de Penman-Monteith qui tient compte de ces autres facteurs. Mais pour utiliser une telle relation sur toutes les surfaces terrestres, il faut avoir des enregistrements de toutes ces quantités. La détermination de ces autres paramètres climatiques pour la deuxième moitié du 20e siècle a permis de progresser.

    Sheffield et al, en 2012, s'appuient sur la formule de Penman-Monteith pour évaluer les changements d'aridité sur la planète. Bien que cette analyse soit en accord avec la précédente sur certaines régions (figure 2c), elle montre que la formulation de Thornthwaite, (Figure 2a) surestime cette tendance à l'aridité.

    Figure 2: Variations en moyenne annuelle de PDSI sur la période 1950-2008 (variation par an), calculées en utilisant (a) la formule de Thornthwaite et (c) la formule de Penman-Monteith (Sheffield, 2012).

    Figure 3: Série temporelle de l'indice PDSI global, calculé avec la formulation Thornthwaite (en bleu) et Penman Monteith (PM en rouge). La zone colorée représente l'écart obtenu en tenant compte de l'incertitude sur les précipitations (et le rayonnement pour PM) (Sheffield, 2012)

    Pour évaluer l'évolution de l'aridité globale, les auteurs prennent en compte tour à tour quatre banques de données de précipitations disponibles mais différentes. Cela leur permet d'évaluer un intervalle de confiance sur l'indice global. L'accroissement global de l'aridité n'est pas significatif quand on tient compte de ces incertitudes, comme le montre la figure 3.

    On ne peut que déplorer l'abandon d'un grand nombre de stations du réseau de mesures d'hydrographie continentale, notamment dans plusieurs pays de la zone ACP (Afrique, Caraïbes, et Pacifique).
    C'est hélas, au moment où il est crucial de quantifier l'impact du changement climatique en cours sur le cycle de l'eau, que les moyens d'observer cette évolution sont moins bien entretenus.

    Cette analyse démontre la difficulté d'aboutir à une conclusion tout à fait établie, sur l'accroissement de l'aridité globale déjà observé au cours du 20e siècle. On comprend dès lors la prudence du rapport AR5 du GIEC qui souligne "une possible surestimation de la tendance à l'aridité" estimée par le passé.

    6- Les sécheresses futures vues par les Modèles

    Peut-on affirmer que le réchauffement climatique dû à l'accroissement du dioxyde de carbone dans l'atmosphère augmente globalement le risque de sécheresses ?

    Les modèles climatiques représentent les circulations générales de l'atmosphère et de l'océan (les MCG) et prévoient donc les évolutions du climat. Ces modèles calculent, à la surface des terres émergées, la distribution de rayonnement, de température, de vent, d'humidité de l'air au cours du 21e siècle, en choisissant un scénario d'augmentation de la concentration des GES dans l'atmosphère.

    À partir des valeurs de ces paramètres du climat futur, des chercheurs ont calculé l'évolution de l'aridité sur la planète. Pour cela, très souvent, on utilise des modèles d'impact. Ceux-ci ont généralement une meilleure résolution que le modèle MCG, ou une représentation plus détaillée de certaines caractéristiques (la végétation mieux définie par exemple), ou de certains mécanismes (comme le transport de l'eau dans les couches plus ou mois profondes du sol). Ces modèles d'impact prennent donc les caractéristiques des climats futurs obtenus par les MCG pour calculer de manière plus précise l'aridité.

    De telles études, même récentes, ont souvent conclu que l'aridité augmentera globalement sur les régions semi-arides au 21e siècle.

    Pour comprendre l'origine de ces résultats, nous allons examiner les évolutions futures des paramètres hydro climatiques calculés par les MCG.

    D'abord, les MCG indiquent une augmentation globale des précipitations induite par l'augmentation des GES dans l'atmosphère. Cette conclusion est considérée comme un résultat robuste des Modèles. Il est alors surprenant que le climat devienne plus aride globalement.

    D'autre part, les modèles calculent aussi un accroissement de l'évaporation globale, et l'ensemble de ces deux résultats est souvent résumé par "le cycle hydrologique sera plus intense". Si l'aridité se répand au cours du 21e siècle, le changement de l'évapotranspiration calculé par ces modèles (MCG) est donc plus grand que celui des précipitations.

    L'estimation de l'évaporation globale sur les terres émergées a longtemps été délicate. En effet, il est difficile, à partir de mesures locales, d'en déduire une valeur de l'évaporation sur de grandes étendues. Cependant il a été possible, ces dernières années, de combiner au mieux plusieurs méthodes pour obtenir une évaluation de cette quantité. Des mesures satellitaires, des réanalyses des Centres de Prévisions Météorologiques, des évaluations sur des bassins versants (à partir des précipitations et des écoulements en utilisant un bilan d'eau), des modélisations ont permis de constituer des banques de données entre 1989 et 1995, qui ont été comparées aux calculs des MCG.

    En moyenne annuelle, l'évapotranspiration calculée par les MCG est supérieure à ces données. Ce biais est général quand les surfaces sont humides, donc pendant la saison pluvieuse. Au fur et à mesure que les pluies faiblissent, au cours des mois suivants, les réserves en eau diminuent rapidement, et une situation d'assèchement trop précoce et prononcé des sols peut subvenir dans les modèles. Les réserves en eau devenant trop faibles, l'évapotranspiration chute alors brutalement, et bien plus que dans la réalité.

    Ces remarques soulignent l'importance de la saison dans les écarts entre modélisation et données. On a montré que la surestimation de l'évapotranspiration globale en moyenne annuelle est une caractéristique de tous les modèles ayant participé au 5ième rapport du GIEC. Cependant, le contraire peut se produire en saison sèche sur certaines régions, (comme en été sur les moyennes latitudes, ou bien sur les régions semi-arides quand il ne pleut pas), où l'évaporation est alors sous-estimée.

    Or la température d'une surface dépend des échanges d'énergie entre la surface et l'atmosphère. Le rayonnement solaire est la source d'énergie ; il est équilibré par trois puits qui tendent à refroidir la surface.
    Ces termes sont : le rayonnement thermique, l'évaporation et le flux de chaleur.
    Or, la température dépend de l'importance de chacun de ces termes.
    Quand la surface est humide, l'évaporation est généralement le terme prépondérant.
    Quand la surface est sèche, ce sont les flux de chaleur et le flux radiatif qui compensent le rayonnement solaire.
    La dépendance en température de ces trois termes est très différente. La température croit quand l'évaporation diminue (pour les mêmes conditions météorologiques). C'est pourquoi on peut trouver en été une variation de température de 20° entre deux champs, dont l'un a été irrigué alors que l'autre parcelle est sèche.

    On associe souvent un climat sec avec une température chaude, mais c'est souvent le fait d'avoir une surface sèche qui provoque un réchauffement, et non l'inverse.

    Les modèles évoqués plus haut vont donc obtenir, en saison sèche, une température trop chaude. Ce biais amplifiera de manière irréaliste le réchauffement climatique créé par les émissions de GES, en été, dans les moyennes latitudes.

    Les modèles d'impact utilisés pour calculer l'aridité globale peuvent eux aussi avoir d'autres faiblesses. Ainsi, il est fréquent qu'ils ne tiennent pas compte de l'impact biologique direct de l'augmentation du CO2 dans l'atmosphère sur la végétation, ce qui conduit à une surestimation de la transpiration. En effet, l'accroissement de la concentration du CO2 atmosphérique déjà observé est en partie la cause d'un reverdissement des régions arides lié à une meilleure efficience de l'utilisation de l'eau par la végétation. Cet effet réduit la transpiration.

    Tous ces biais ont conduit les chercheurs à être prudents sur l'augmentation de l'aridité globale, créée par le changement climatique.

    7- Conclusion

    Le changement climatique provoque des modifications de la température et des circulations océaniques et atmosphériques. On peut s'attendre à ce que des régions deviennent plus arides et d'autres moins. Mais on ne peut, au vu des connaissances actuelles, affirmer que, globalement, les zones arides et semi-arides vont s'étendre sur de plus grands territoires.

    Une étude récente fait une évaluation des observations et des prévisions des modèles initiées par le dernier GIEC (CMIP 5) avec un titre évocateur: "elusive drought".

    Il y a cependant quelques régions particulières où un grand nombre d'études concluent à un risque d'aridité accru avec le changement climatique. Le pourtour méditerranéen en est un exemple. Les diverses analyses de ce climat semblent avoir suffisamment de cohérence pour que cette conclusion soit considérée comme fortement probable.

    En revanche, on a prétendu, que le Sahel deviendrait plus aride à cause du changement climatique. Or, les modèles contredisent cette prétendue "évidence". De plus, bien que le Sahel ait connu des sécheresses épouvantables durant les décennies 1970 et 1980, le Sahel reverdit depuis les années 1990, et les précipitations ont augmenté, du moins sur certaines régions.

    En conclusion, la connaissance du futur des sécheresses au niveau global reste donc un sujet d'études qui a progressé mais qui est encore difficile à cerner. Il est nécessaire de mieux analyser l'évolution saisonnière des bilans d'eau, car les faiblesses et biais peuvent être différents suivant la saison.

    N'est-il pas plus important que les chercheurs aient pour objectif de déterminer plus précisément les sécheresses régionales, que de rechercher une moyenne globale qui peut cacher une grandes diversité de situations ?

    Bibliographie

    Dai A., K. Trenberth and T. Qian (2004): A global data set of Palmer Drought severity Index for 1870-2002: Relationship with soil moisture and effects of surface warming, , J. of Hydrometeorology.

    Sheffield J., A. Wood and M. Roderick (2012): Little change in global drought over the past 60 years. Nature.

    Mueller, B. et al, (2013): Benchmark products for land evapotranspiration. Hydrol. Earth Syst. Sci.

    Laval K. et G. Laval (2013), Incertitudes sur le climat Belin.

    Cheruy F et al, (2014), Role of clouds and land atmosphere coupling in midlatitude continental warm biases and climate change amplification in CMIP5 simulations. Geophys. Res. Letters.

    Milly P. C. and K. Dunne (2016), Potential evaporation and continental drying, Nature climate change.

    Orlowsky B. and S. I. Seneviratne (2013), Elusive drought: Uncertainty in observed trends and short- and long-term CMIP5 projections. Hydrol. Earth Syst. Sci.

    Quelques définitions

    Giec : Groupe d'experts intergouvernemental sur l'évolution du climat. En anglais IPCC pour Intergovernmental Panel on Climate Change.
    AR4 Fourth Assessment Report (2007) , AR5 Fifth Assessment Report (2014) - Rapports d'évaluation.

    Voir la FAQ : Comment fonctionne le GIEC (IPCC)?

    CMIP 5 est le projet d'intercomparaison des modèles couplés (Coupled Model Intercomparison Project Phase 5) organisé lors de la phase 5 du GIEC. Ce projet consiste à définir un cadre pour les expériences numériques réalisées avec les modèles de climat, afin de comprendre les causes des différences entre modèles, de déterminer la capacité des modèles à anticiper le climat sur des échelles décennales et jusqu'au 22e siècle, et de mieux cerner les rétroactions dues aux nuages et au cycle du carbone.

Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner
Unknown
Unknown
Accepter
Décliner
Sauvegarder