logo argo large new

changement global

  •  Long fleuve tranquille ou torrent tumultueux ?

    Yves Dandonneau 

    En absorbant le rayonnement infra rouge émis par la Terre, le gaz carbonique contribue à réchauffer le climat. Du fait de la combustion de charbon ou d'hydrocarbures pour satisfaire la demande d'énergie due aux activités humaines, la concentration de ce gaz dans l'atmosphère a fortement augmenté, passant de 280 parties par million (ppm) avant l’ère industrielle à plus de 400 ppm actuellement.
    Le réchauffement du climat causé par cette augmentation est régulièrement observé, et les trois dernières années ont été les plus chaudes depuis qu'existe un réseau d'observations météorologiques.

    Après des années d'études et de débats contre ceux qui doutaient que les rejets de gaz carbonique dus aux activités humaines aient un rôle dans le réchauffement climatique, les accords signés à Paris à l'issue de la vingt et unième conférence des parties en novembre 2015, ont semblé inaugurer une période de convergence de vues sur le changement climatique, et une forte volonté internationale pour prendre des mesures, afin de réduire ces émissions et de limiter le réchauffement en cours. Depuis cet accord historique, pourtant, on assiste à davantage de controverses que de mises en œuvre des mesures qu'il conviendrait de prendre.

    En premier lieu, le temps imparti est souvent mal compris : il faudrait très vite prendre ces mesures, alors que le réchauffement n'est évoqué que pour la fin du 21e siècle. Il y a aussi la limite, fixée à + 1,5 °C par rapport à la période pré-industrielle, qui constitue un objectif très ambitieux (trop ambitieux ?), qui sera certainement difficile à respecter. De plus, la pollution de notre environnement et les menaces qu'elle fait peser sur la santé, la baisse de la biodiversité, constituent d'autres menaces, qui ont parfois les mêmes causes que le réchauffement climatique, mais pas forcément les mêmes remèdes. Et il y a la manière dont le monde est dirigé, organisé en États qui se sont définis au cours de l'histoire par des rivalités plus que par la coopération.

    Dans les lignes ci-dessous, nous tentons de fournir un cadre qui permette de situer dans les rouages de l'évolution du climat, les questions qui surgissent actuellement.

    L'effet de serre et le réchauffement climatique

    Le mécanisme par lequel l'accumulation de gaz carbonique dans l'atmosphère conduit à un réchauffement du climat, est désigné par le terme effet de serre (voir encart) et a déjà été analysé dans nos pages. Il a fait l'objet de nombreuses attaques de la part des climatosceptiques, prétendant en particulier qu'au delà d'une saturation que nous avons déjà atteinte, davantage de gaz carbonique dans l'atmosphère ne produirait plus aucun effet, ce qui est inexact. Or, il y a un effet, faible – aux concentrations actuelles en gaz carbonique, la Terre émet environ 1 W/m2 de moins que ce qu'elle reçoit du Soleil – mais durable. Cette différence constitue le «déséquilibre radiatif»

    Le gaz carbonique n'est pas le seul gaz dans l'atmosphère à absorber le rayonnement infra rouge émis par la Terre, mais c'est son injection par l'homme en grande quantité dans l'atmosphère qui est la cause principale du réchauffement du climat. La vapeur d'eau, le méthane, les oxydes d'azote, l'ozone, sont aussi des gaz à effet de serre.
    La vapeur d'eau contribue davantage à l'effet de serre que le gaz carbonique ; elle participe au cycle naturel de l'eau, et multiplie par 2 environ l'action du gaz carbonique car le réchauffement du climat a pour conséquence d'augmenter sa concentration dans l'atmosphère.


    À concentration égale à celle du gaz carbonique, le méthane possède un potentiel de réchauffement 30 fois supérieur. Heureusement, sa concentration est beaucoup plus faible, et il tend à se transformer en gaz carbonique par oxydation au bout de quelques années. Il représente toutefois une menace pour le climat si les réserves qui sont piégées dans les sols gelés venaient à être libérées dans l'atmosphère.

     

     

    Sur une Terre sans océans et sans glaces, la réponse de la température à l'effet de serre serait très rapide, de l'ordre de quelques jours. Mais les océans participent à ces flux d'énergie, et leur capacité calorifique est 1000 fois plus grande que celle de l'atmosphère. C'est un peu comme si on voulait ajuster le chauffage dans un appartement situé dans un immeuble non chauffé : avant d'atteindre un régime d'équilibre, il faudrait attendre que l'ensemble de l'immeuble ait été réchauffé lui aussi. Ainsi, 93 % de la chaleur emmagasinée par l'effet de serre est capté par les océans, 3 % étant capté par la fonte des calottes polaires et des glaciers. Ceci explique la lenteur de la réponse du système climatique, lenteur qui n'incite pas à prendre très vite les mesures qui conviendraient.

    Quand le réchauffement s'arrêtera-t-il ?
    À une concentration en gaz carbonique (ou, plus généralement, en gaz à effet de serre) donnée, correspond théoriquement une température d'équilibre du système climatique, et le réchauffement prendra fin lorsque cette température sera atteinte. Un doublement de la concentration en gaz carbonique (voir encart ci-dessous) dans l'atmosphère par rapport à la période préindustrielle (soit 560 ppm) correspondrait, en régime stabilisé, à une augmentation la température que l'on estime comprise entre 1,5 et 4,5 °C : la limite de 1,5 ou 2 °C fixée par l'Accord de Paris serait franchie.

    Deux processus contribuent à faire évoluer la température de la Terre vers une stabilisation :

    1. plus cette température est élevée, plus la Terre rayonne vers l'espace, ce qui tend à réduire l'écart avec le rayonnement reçu du Soleil, c'est à dire le déséquilibre radiatif, et
    2. les puits (océans, biosphère terrestre) et sources (carbone fossile) de gaz carbonique font évoluer la concentration en gaz carbonique de l'atmosphère, modifiant ainsi la cause de l'effet de serre.
    L'habitude a été prise de comparer les différentes prévisions de l'évolution du climat en prenant comme base l'hypothèse d'un doublement de la concentration en gaz carbonique de l'atmosphère. La réponse du système climatique à ce doublement est désignée par le terme de sensibilité climatique, « transitoire » si son calcul est basé sur les données dont nous disposons, ou « à l'équilibre » s'il se base sur des projections à long terme. Les estimations de la sensibilité climatique à l'équilibre divergent selon les modèles de climat utilisés, autour d'une valeur médiane de + 3 °C .
     

    Actuellement, nos émissions de gaz carbonique sont telles que sa concentration dans l'atmosphère continue d'augmenter, tandis que la hausse très lente de la température moyenne globale ne suffit pas à réduire le déséquilibre radiatif, qui s'accroît d'année en année. Réduire cette concentration est l'enjeu principal pour limiter le réchauffement climatique.

    Réduire la concentration en gaz carbonique de l'atmosphère

    Le gaz carbonique est introduit dans l'atmosphère (sources) par la combustion du carbone fossile, par la fabrication de ciment, et par le changement d'usage des sols (déforestation notamment). Il en sort (puits) par dissolution dans les océans et par absorption par la végétation.

    La combustion du carbone fossile a été, et demeure, notre principale source d'énergie, et malgré les engagements à la réduire, les émissions de 2016 ont été légèrement supérieures à celles de 2015, et ajoutent chaque année environ 2 ppm de gaz carbonique à celui qui était déjà présent dans l'atmosphère. Nous arrivons ainsi à 407 ppm en décembre 2017. Consommer moins de carbone fossile a de fortes implications dans toutes les activités humaines et ne se fera pas sans une forte volonté d'y parvenir.

    Les océans réagissent à l'ajout de gaz carbonique dans l'atmosphère en en absorbant rapidement environ 20 % des émissions annuelles, suffisamment pour tendre vers un équilibre de pression partielle de CO2 entre l'atmosphère et la partie superficielle des océans. L'absorption du CO2 se poursuit ensuite à un rythme beaucoup plus lent, conditionné par le mélange de la couche de surface avec les eaux profondes. On estime que si on stoppait totalement les émissions, il faudrait 100 ans à l'océan seul, pour résorber 20 % de la fraction du CO2 émis qui s'est accumulée dans l'atmosphère, et que 1000 ans plus tard, il en aurait absorbé 50%.
    Il ne faut donc pas compter sur les océans, dont il est irréaliste de penser modifier le comportement, pour résorber rapidement l'excès de CO2 de l'atmosphère.

    Les écosystèmes terrestres, eux, sont plus sensibles à l'action de l'homme. Ainsi, depuis des décennies, par nos pratiques agricoles (qui tendent à appauvrir les sols en matière organique) et par la déforestation, les hommes ont rejeté d'énormes quantités de CO2 dans l'atmosphère. Ce processus est réversible. Depuis une dizaine d'années, ces émissions décroissent légèrement. La mise en œuvre de pratiques résolument orientées vers un stockage accru de matière organique dans les sols pourrait contribuer à faire très significativement décroître la concentration en CO2 de l'atmosphère. Par ailleurs, l'augmentation de la concentration en CO2 stimule la croissance de la végétation terrestre, et cet effet fertilisant a pour conséquence une augmentation de la masse de carbone stockée dans les végétaux. Ceci peut constituer un puits pour environ 25 % de nos émissions de CO2.

    S'il est difficile de stimuler le puits océanique de carbone, la végétation terrestre et les sols offrent un réservoir très vaste où un changement de nos usages peut, pour un coût modéré, extraire du gaz carbonique de l'atmosphère. Cela ne suffira toutefois pas pour faire baisser la concentration de ce gaz dans l'atmosphère à un niveau compatible avec des températures supérieures de seulement 1,5 ou même 2 °C aux températures de l'époque pré-industrielle : il faudra en outre recourir à un coûteux piégeage industriel du CO2, basé sur des énergies renouvelables et non pas sur du carbone fossile, ce qui ne ferait qu’aggraver la situation.

    La route sera longue, mais sera-t-elle sûre?

    Le système climatique est porteur de menaces qui pourraient se traduire par un emballement du réchauffement en cours. Ainsi, la réduction des calottes de glace des pôles qui réfléchissent vers l'espace une part de l'énergie reçue du Soleil, s'accompagne d'un gain d'énergie pour le climat. Lequel gain d'énergie entraîne une réduction accrue de ces calottes polaires et une moindre réflexion vers l'espace de l'énergie reçue du Soleil : cette rétroaction positive déjà engagée, ne semble pas pour le moment devoir évoluer de façon catastrophique, mais un réchauffement trop intense pourrait la déclencher.

    Autre menace : la fonte du pergélisol.
    Les sols gelés des régions subarctiques contiennent d'énormes quantités de matière organique et de méthane. Le dégel de ces régions libérerait de grandes quantités de ce puissant gaz à effet de serre et accentuerait le réchauffement, favorisant d'autant plus le dégel : c'est encore là une rétroaction positive qui causerait un réchauffement incontrôlable.

    La végétation terrestre, on l'a vu, bénéficie pour le moment d'une concentration en gaz carbonique dans l'atmosphère plus élevée que par le passé, et constitue ainsi un puits de carbone. Mais les températures de plus en plus élevées, et les conditions de sécheresse qui progressent dans certaines régions, peuvent finir par nuire à la croissance des végétaux et par accélérer l'oxydation de la matière organique des sols. Le puits de carbone que constituent les écosystèmes terrestres perdrait ainsi de son efficacité, et réduire la concentration de l'atmosphère en gaz carbonique deviendrait alors d'autant plus difficile.

    La probabilité de la mise en route de ces rétroactions augmente à mesure que le climat se réchauffe. Elle augmentera donc tant que le réchauffement durera, c'est à dire tant qu'un déséquilibre radiatif positif sera à l’œuvre.  

    Le seul moyen de réduire cette tendance au réchauffement est de faire baisser la concentration en gaz carbonique de l'atmosphère le plus tôt possible :

    • réduire notre usage de l'énergie basée sur le carbone fossile,
    • stocker du carbone dans la biomasse végétale et dans la matière organique des sols,</>

    et, comme cela ne suffira pas, extraire par géoingéniérie du gaz carbonique de l'atmosphère, ce qu'on ne sait faire actuellement qu'à un prix très élevé.

    Voir aussi la News de octobre 2017 :

    Pour amener le climat à un état stable après la perturbation anthropique, il faudra retirer du gaz carbonique de l'atmosphère. Le coût en sera très élevé si nous ne réduisons pas rapidement nos émissions. Yves Dandonneau.

  • Quelles sont les constantes de temps et les rétroactions ?

    Yves Fouquart -Novembre 2018

    1. Introduction

      En un peu plus d'un siècle, la Terre s'est réchauffée d'environ 1°C. Ce réchauffement est très majoritairement dû à l'augmentation de la concentration de l'atmosphère en gaz à effet de serre (GES). Dans les prochaines décennies, les émissions vont continuer et le réchauffement continuera. La question qui se pose est donc de savoir quelle sera l'ampleur de ce réchauffement et quelle sera sa vitesse.

      L'augmentation de la concentration en GES impose au système climatique une contrainte qu'on appelle forçage radiatif (voir encart 1).

      Encart 1 : Forçages et rétroactions

      Les forçages (△F) sont des déséquilibres du bilan d'énergie de la planète, si △F >0 la Terre emmagasine de l'énergie et elle se réchauffe et, inversement si △F <0, elle se refroidit. Une rétroaction résulte de l'influence de la variation de température résultante sur un élément du système climatique capable, lui-même de modifier le bilan radiatif. On peut faire l'analogie avec un amplificateur dans lequel le signal d'entrée est la variation originale du bilan radiatif, par exemple celle due à l'augmentation du CO2, le signal de sortie est la variation de température. Une rétroaction consiste à renvoyer vers l'entrée de l'ampli une partie du signal de sortie, c'est alors un amplificateur opérationnel bien connu des électroniciens. 

      Dans le cas du climat, l'amplificateur est le système climatique, il est représenté schématiquement sur la Figure 2. C'est l'ensemble de la planète que l'on peut diviser en un certain nombre de sous-systèmes capables de répondre individuellement à des contraintes et qui interagissent entre eux suivant des échelles de temps plus ou moins longues. Dans ce schéma, η est le gain de l'amplificateur en l'absence de rétroaction, pour le système climatique c'est donc la sensibilité climatique sans atmosphère et f est l'amplitude de la rétroaction et se mesure en (W/m2)/°K (Watt par mètre carré par degré Kelvin).

       


      Si l'on connaissait la sensibilité du climat à ces forçages, on pourrait en déduire directement l'ampleur du réchauffement. Comme on va le voir dans la suite de cet article, ce n'est pourtant pas si simple et si cette quantité reste fort utile, il est essentiel de garder en tête ses limitations et, en particulier, le fait qu'elle dépend fortement de l'échelle de temps considérée.

    2. Définition usuelle de la sensibilité climatique

      On définit usuellement la sensibilité climatique comme l'augmentation de la température moyenne de la planète qui résulte d'un doublement de la concentration de l'atmosphère en CO2

      Dans cette expression δT est la variation de température et δF le forçage radiatif correspondant au doublement de la concentration en CO2.

      Pour mémoire, la concentration en CO2 au début de l'ère industrielle était C0 = 280 ppmv, elle est aujourd'hui de C= 400 ppmv et la concentration augmente grossièrement de 2 à 3 ppmV par an. Une bonne approximation du forçage radiatif du CO2 est

      δF = 5,36*ln (C/C0)

      Pour un doublement de la concentration (560 ppm), le forçage du seul CO2 est de 3,68 W/m2

      Pour une Terre sans atmosphère, le forçage serait une variation de l'irradiance solaire, on démontre aisément (voir encart 2) que pour un forçage solaire de 3,68 W/m2, s = 1 K.

      Encart 2 : Sensibilité climatique sans atmosphère, démonstration

      Sans atmosphère et donc sans effet de serre, la Terre émet comme un corps noir suivant la loi de Stefan :

      F = σ T4

      Et donc

      δ F / F = 4 δ T / T

      À l'équilibre la Terre émet toute l'énergie qu'elle reçoit du soleil, or elle reçoit la lumière du soleil sur un disque de surface πR2 mais elle rayonne sur toute la sphère de surface 4πR2.

      Donc F = (1-α) F0 / 4

      α = 0,30 est l'albédo de la Terre et F0= 1360 W/m2, l'irradiance solaire, soit F=238 W/m2 ce qui équivaut à une température d'émission (conformément à la loi de Stefan ci-dessus) de 254 K et δT/δF=T/4F= 0.27 K/(W/m2)

      Donc pour un doublement (δ F = 3,68 W/m2), la sensibilté à l'équilibre est seq= 1 K

    3. Le système climatique

      La Terre comporte une atmosphère, des océans, des glaciers, de la végétation. L'ensemble constitue le système climatique, chaque sous élément constitue un sous-système qui possède sa propre dynamique plus ou moins rapide et qui interagit avec les autres sous-systèmes. Le climat de la planète résulte de l'ensemble de ces interactions. La figure 1 en est une représentation schématique. Les flèches représentent les interactions entre les sous-systèmes.

      La notion de constante de temps des différents processus est essentielle. La figure 2 résume les échelles de temps caractéristiques des différents sous-systèmes, c’est-à-dire leur temps d'évolution vers un équilibre.

      L'atmosphère est le sous-système le plus dynamique. Les échelles de temps concernées vont de la quasi instantanéité des processus de condensation, à quelques heures pour la convection, la semaine pour le cycle de vie des perturbations, et quelques semaines pour les ondes planétaires.



      L'océan a une capacité thermique 1 000 fois supérieure à celle de l'atmosphère. Il constitue donc un puissant amortisseur des perturbations climatiques. L'océan est très dynamique mais son inertie est beaucoup plus grande que celle de l'atmosphère. Les courants marins ont en surface des vitesses typiques de l'ordre de qq km/h pour les plus rapides (Kuroshio, Gulf Stream) et quelques dizaines de cm/s en profondeur, à comparer à plusieurs dizaines de km/h pour les vents modérés et jusqu'à 300 km/h pour les courants jets.



      Dans l'océan, les constantes de temps sont donc beaucoup plus longues. Par ailleurs, l'océan est stratifié : l'eau chaude étant moins dense que l'eau froide a tendance à naturellement rester en surface. Le mélange a lieu grâce à l'action du vent mais il ne concerne que les premières centaines de mètres (couche limite océanique, CLO). C'est dans les interactions entre l'atmosphère et la CLO que les constantes de temps sont les plus courtes, de l'ordre de quelques années.

      Avec les couches plus profondes, le mélange a lieu quand le refroidissement en surface est assez puissant pour permettre à l'eau de surface d'être encore plus froide et donc plus dense que l'eau sous-jacente. Ceci ne se produit qu'aux très hautes latitudes Nord et Sud. La formation de la glace de mer renforce le processus. On comprend que ce mécanisme ne met en jeu que des débits assez faibles. En conséquence, cela agit comme un goulet d'étranglement et la circulation de l'eau en profondeur est largement commandée par le débit de ces régions de formation d'eau profonde. La circulation dans l'océan à l'échelle globale est souvent appelée le tapis roulant océanique. L'image a le mérite d'être parlante même si la réalité est nettement plus complexe. La constante de temps de ces mouvements océaniques à l'échelle planétaire est de l'ordre du millénaire.

      La cryosphère comprend la neige et glace de mer qui sont saisonnières, les glaciers de montagne et les calottes de glace du Groenland et de l'Antarctique. Les variations du volume et de l'étendue des glaciers de montagne ont des temps caractéristiques de l'ordre de la dizaine d'années comme en témoigne l'évolution des glaciers des Alpes.

      En ce qui concerne les calottes glaciaires, il faut distinguer ce qui relève de l'accumulation ou inversement de la fonte et ce qui relève de la dynamique des calottes.

      Dans le premier cas, les échelles de temps caractéristiques sont de l'ordre du millénaire. À titre d'exemple pour faire fondre la totalité des glaces des deux calottes en utilisant l'intégralité du déséquilibre énergétique de la planète dû à l'augmentation de l'effet de serre, il faudrait plus d'un siècle.
      La dynamique des calottes est, quant à elle, responsable de la dislocation des glaciers qui provoque la libération d'icebergs qui peuvent être gigantesques. C'est un processus hautement non linéaire qui peut donc être très brutal.

      L'influence de la géosphère sur le climat s'exerce aux très grandes échelles de temps via la tectonique des plaques et la position des continents qui gouverne la circulation océanique. Aux courtes échelles de temps, son influence s'exerce par l'intermédiaire des éruptions volcaniques. Il s'agit d'évènements sporadiques dont l'influence sur le climat par l'intermédiaire des aérosols volcaniques a typiquement une constante de temps de l'ordre de l'année. (Voir les éruptions récentes d'El Chicon et du Pinatubo).

    4. Forçages et rétroactions

      Les forçages sont les contraintes appliquées à l'ensemble du système (voir Encart 1) , on y trouve les forçages naturels (variation de l'énergie solaire incidente, variations de l'éclairement solaire dues aux variations de son orbite autour du soleil ou encore les aérosols issus des éruptions volcaniques) et les forçages anthropiques (perturbations de l'effet de serre, émissions d'aérosols, changement d'usage des sols…).

      La sensibilité climatique dépend très fortement du signe et de l'intensité des rétroactions (voir Encart 1) mais celles-ci ont des constantes de temps très diverses. Elles peuvent concerner un ou plusieurs sous système. Les rétroactions rapides sont celles qui concernent l'atmosphère (nuages, vapeur d'eau, convection ..), les rétroactions les plus longues mettent en jeu l'océan global et les calottes glaciaires.

    5. Sensibilité climatique à l'équilibre, sensibilité transitoire

      Pour tenir compte du stockage temporaire de la chaleur dans l'océan, on écrira plutôt :

      Δ Q = δ E - λ Δ T

      λ = δ F / δ T représente la fraction du déséquilibre radiatif qui a permis une augmentation Δ T de la température de l'atmosphère, Δ Q est la fraction stockée dans l'océan ou encore l'augmentation du contenu en chaleur de l'océan. À l'équilibre Δ Q= 0 et λeq est alors l'inverse de la sensibilité climatique seq. Hors équilibre, λ est donc l'inverse d'une sensibilité climatique transitoire (λ = 1/str ) C'est typiquement celle que l'on peut espérer déterminer expérimentalement aujourd'hui. Pour les prévisions, on a précisé cette notion : la sensibilité transitoire str est celle qui est obtenue après 70 ans d'augmentation linéaire de la concentration atmosphérique en CO2 à raison de 1% par an.

      La figure 3 présente diverses estimations de cette sensibilité :


    Fig3   Sensibilite climatique

     

     

     

    Figure 3: Différentes estimations de la sensibilité climatique. Les courbes représentent les probabilités des estimations, les segments représentent leurs dispersions et les rectangles précisent les valeurs les plus probables (>66%)

    Comme le montre clairement cette figure, ces estimations sont très variables, mais cette dispersion provient pour une part de ce qu'on ne mesure pas réellement la même quantité.

    5.1 Approche par la modélisation

    Avec un modèle climatique, on peut instantanément doubler la quantité de CO2 et voir quelle est la nouvelle température obtenue après un temps simulé suffisamment long pour que le modèle se stabilise. On obtient alors directement la sensibilité à l'équilibre seq.

    L'avantage est que les forçages ainsi que la variation de température sont parfaitement connus. La question qui se pose est évidemment celle de la validité du modèle. Celui-ci décrit-il correctement l'ensemble des rétroactions, c'est à dire avec leur intensité et leur variation spatio-temporelle et représente-t-il correctement la variabilité climatique ? La réponse est évidemment non : les modèles ne sont qu'une représentation simpliste de la réalité et quelles que soient les améliorations dont ils font l'objet, ils le resteront.

    La dispersion des estimations de la sensibilité par les modèles traduit les différences des représentations des différents processus conduisant aux rétroactions. On ajoutera que les forçages eux-mêmes ne sont pas véritablement identiques, c'est le cas des aérosols pour lesquels les propriétés optiques et même la quantité varient entre les modèles mais c'est même le cas pour les GES parce que le calcul du forçage radiatif qu'ils produisent n'est pas parfait.

    Les contraintes

    On peut donc légitimement penser que parmi les modèles existants certains sont plus réalistes que d'autres. Pour faire le tri, on regarde la manière dont les différents modèles satisfont certaines contraintes expérimentales. Peu ou prou, elles ont toutes trait à la variation spatiale ou saisonnière de la température et du bilan radiatif tel qu'il peut être observé depuis satellite. Cette approche conduit à des sensibilités seq plutôt supérieures à 3°C (Caldwell et al, 2018, Evaluating Emergent Constraints on Equilibrium Climate Sensitivity ) Une autre contrainte (Emergent constraint on equilibrium climate sensitivity from global temperature variability, Peter M. Cox, Chris Huntingford & Mark S. Williamson) consiste à discriminer les modèles suivant leur aptitude à simuler non plus la tendance mais la variabilité climatique observée. Cette méthode restreint la fourchette des sensibilités en excluant les valeurs les plus élevées (>4.5 K) et les valeurs les plus faibles (<1.5K) pour une sensibilité la plus probable de 2,8 K.

    5.2 Approche expérimentale

    Avec les données expérimentales, on ne fait évidemment pas ce que l'on veut. Dans le cas où l'on s'intéresse à la période instrumentale (en gros depuis la fin du 19e siècle), ce que l'on détermine au mieux, c'est la sensibilité transitoire. La sensibilité à l'équilibre est, elle, estimée sur des périodes plus longues comme par exemple les transitions glaciaire – interglaciaire. Dans les deux cas, il faut évidemment connaître le forçage radiatif et la variation de température associée.

    Période instrumentale (sensibilité transitoire)

    Dans ce cas, les rétroactions les plus longues ne sont mises en jeu que partiellement, voire pas du tout.
    On sait que depuis la fin du XIXe siècle, l'augmentation de température est voisine de 1°C mais le problème est de distinguer ce qui résulte d'une possible variabilité multidécennale de ce qui résulte des forçages anthropiques et naturels et de les estimer précisément. Les forçages des GES sont assez bien connu (2,8 +/- 0,3 W/m2), l'incertitude principale vient du forçage des aérosols anthropiques (-0,9+/-1W/m2). Avec les autres forçages anthropiques comme le changement d'utilisation des sols, le forçage anthropique total est alors compris entre 1,1 et 3,3 W/m2 soit str compris entre 0,33 et 0,9 K/(W/m2). En extrapolant, pour un doublement de la concentration en CO2 (δ F = 3,68 W/m2), s2*CO2 est donc compris entre 1,2 et 3,4 K mais cette extrapolation ne tient pas compte des rétroactions plus lentes que sont l'océan profond et les calottes glaciaires, il s'agit donc d'une sensibilité transitoire à distinguer de celle que calculent les modèles.

    Dernier maximum glaciaire (sensibilité à l'équilibre)

    Les incertitudes concernent à la fois la variation de température et les forçages. En effet, le facteur déclenchant des glaciations/déglaciations est la variation de l'ensoleillement aux hautes latitudes de l'hémisphère Nord, variation qui résulte des variations de l'orbite de la Terre autour du soleil et de celle de son axe. C'est elle qui module l'enneigement des continents de l'HN et par suite, la rétroaction -albédo (voir Encart 1). Elle n'implique qu'une très faible perturbation du bilan radiatif qui, en soi, n'est pas la cause de la modification du climat. Ce qui se passe peut se résumer de la façon suivante (cas de la déglaciation):

    1. l'ensoleillement des hautes latitudes augmente,

    2. la couverture neigeuse diminue,

    3. les températures augmentent aux hautes latitudes,

    4. l'océan s'y réchauffe et commence à relarguer du CO2. La fonte des calottes est non linéaire et provoque des refroidissements temporaires brutaux

    5. la circulation océanique transporte cette chaleur dans l'hémisphère sud,

    6. l'océan s'y réchauffe et relargue à son tour du CO2

    7. l'effet de serre du CO2 réchauffe progressivement l'ensemble de la planète.

    Tout cela s'accompagne de modifications de la végétation et de la concentration de l'atmosphère en poussières par la diminution des surfaces continentales et péricontinentales dénudées.

    Puisque ce mécanisme met en jeu la circulation océanique globale (voir figure 2), les temps caractéristiques sont de l'ordre de plusieurs siècles. On peut voir sur la Figure 3 que pour cette méthode seq est compris entre 2 et 4 K.

     

    1. Conclusion

      Comme concept, la sensibilité climatique a l'avantage de la simplicité : à un forçage donné, on peut facilement faire correspondre une augmentation de température mais comme on l'a vu tout au long de cet article, cette simplicité est tout à fait trompeuse et il n'est donc pas du tout surprenant que plus d'un demi-siècle après les premières estimations par S. Manabe et par le groupe de travail que présidait G. Charney, on n'en ait pratiquement pas réduit l'incertitude (1). C'est aussi un concept dont l'utilité réelle est finalement limitée en ce sens que ce qui est réellement important, c'est l'évolution de la température surtout dans les décennies à venir. En revanche, les valeurs à l'équilibre déduites des données paléo-climatologiques renseignent sur le comportement à long terme du système incluant les processus non linéaires à effet de seuil et, donc, sur les risques éventuels d'un basculement vers un tout autre état moyen du climat.

      (1) D'après ce groupe , seq = 3+/-1,5K, pour comparaison, les modèles contraints donnent seq entre 1,5 et 4,5K, les observations récentes conduiraient en extrapolant au doublement du CO2 à s2*CO2 entre 1,2 et 3,3 K mais sans tenir compte des rétroactions les plus lentes et les estimations sur la dernière période glaciaire donnent entre 2 et 4 K.

  • Comment sont-ils construits et utilisés?

    Olivier Talagrand, Katia Laval et Jean Pailleux

    Les modèles numériques
    Les principes de la modélisation numérique
    Différents types de modèles numériques
    La modélisation du climat
    La modélisation des atmosphères planétaires
    Observation et modélisation numérique

    Les modèles numériques sont maintenant devenus omniprésents dans les sciences de l’atmosphère et de l’océanIls sont utilisés quotidiennement dans les services météorologiques pour la production de leurs prévisions. Ils ont fourni les "projections" sur lesquelles le Groupe d’experts Intergouvernemental sur l’Évolution du Climat (GIEC) a fondé, dans ses rapports successifs, l’essentiel de ses conclusions quant à l’évolution future du climat. Ils sont aussi utilisés pour de nombreux travaux de recherche.

    Que sont exactement ces modèles, qui paraissent un peu mystérieux à beaucoup, même parmi ceux qui possèdent un réel bagage scientifique ? Comment sont-ils construits et utilisés ? Et surtout, quel crédit peut-on accorder aux résultats qu’ils produisent ? C’est à ces questions que cette note, qui s’adresse à des lecteurs informés mais nullement spécialistes, cherche à donner des éléments de réponse.

    Les modèles numériques sont des logiciels pour ordinateurs qui calculent l’évolution de l’écoulement atmosphérique ou océanique à partir d’un état de départ donné. Ils ont été conçus à l’origine, à la fin des années 1940, au moment du développement des premiers calculateurs électroniques, pour servir à la prévision météorologique. Et c’est à cette application qu’ils restent aujourd’hui principalement utilisés. Pour donner une première idée de ce dont ils sont maintenant capables, la figure 1 présente une prévision effectuée par le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, voir encart ci-dessous.

     

    Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT)

    Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, en anglais European Centre for Medium-Range Weather Forecasts, ECMWF, https://www.ecmwf.int/) est un organisme international installé à Reading, en Grande-Bretagne. Sa mission première est de fournir des prévisions météorologiques aux États membres, mission qu’il assure quotidiennement depuis 1980. Outre deux prévisions quotidiennes de base à échéance de quinze jours, il produit des prévisions d’ensemble, destinées à quantifier l’incertitude sur la prévision aux différentes échéances. Il produit aussi d’autres types de prévisions (prévisions saisonnières, prévision des vagues sur l’océan).

    Le CEPMMT fournit également différents services aux États membres et à la communauté internationale. Il gère plusieurs composantes du programme Copernicus d’observation de la Terre, soutenu par l’Union Européenne. Il produit aussi des réanalyses d’observations passées, c’est-à-dire des descriptions détaillées de l’évolution quotidienne de l’écoulement atmosphérique, obtenues à l’aide des modèles et des systèmes d’assimilation actuels. L’analyse ERA-Interim, qui commence en 1979, est maintenue à jour en permanence.

    Il effectue en outre, en liaison avec des groupes de recherche européens ou non, des recherches de pointe sur la prévision météorologique numérique et ses multiples applications.

    Le CEPMMT est formellement un service commun aux services météorologiques des États membres. En novembre 2018, il compte 22 États membres de plein droit et 12 États associés.

     

    La carte du haut présente l’état de l’atmosphère sur l’Atlantique Nord et l’Europe Occidentale le 20 septembre 2018, à 00:00 UTC.
    Les quantités représentées sont la pression au niveau de la mer (isolignes blanches) et le géopotentiel (c’est-à-dire, à un coefficient multiplicatif près, l’altitude) de la surface isobare 500 hPa, qui sépare l’atmosphère en deux couches de même masse (plages de couleur).

    L’une et l’autre de ces deux quantités (dont, comme on peut le voir, les variations spatiales sont similaires) décrivent les structures de grande échelle de la circulation atmosphérique, structures dont la formation, l’amplification, le déplacement, les interactions mutuelles éventuelles et la disparition finale gouvernent la météorologie des latitudes moyennes.

    L’état du 20 septembre a servi de point de départ à une prévision à 8 jours d’échéance effectuée par le modèle du CEPMMT. L’état ainsi prévu est présenté sur la carte intermédiaire, et l’état réel correspondant sur la carte inférieure. La similarité entre ces deux derniers états, et leur différence commune avec l’état de départ de la prévision, sont absolument évidentes. C’est là un exemple typique de ce qu’est à l’heure actuelle une bonne prévision.

    Figure 1. Un exemple de prévision à 8 jours effectuée par le modèle du CEPMMT.
    Haut : état initial de la prévision (20 septembre 2018, 00 :00 UTC).
    Milieu : prévision pour le 28 septembre 2018, 00:00 UTC.
    Bas : état réel correspondant à la prévision.
    Isolignes du champ de pression au niveau de la mer (en blanc).
    Géopotentiel de la surface isobare 500 hPa (en plages de couleur).
    Source : meteociel.fr.

    La figure 2, relative elle aussi au géopotentiel à 500 hPa, présente l’évolution de la qualité des prévisions produites par le CEPMMT depuis 1981.

    La quantité représentée en ordonnée est un coefficient de corrélation statistique qui mesure les performances comparées de deux prévisions : d'une part la prévision produite par le modèle, d'autre part une prévision «climatologique» qui consisterait à prévoir pour demain et les jours qui suivent l'état climatologique moyen pour le jour considéré. Cette corrélation prendrait la valeur 1 pour une prévision parfaite, et la valeur 0 pour une prévision climatologique. Plus elle est élevée, et plus la prévision du modèle est bonne.

    Les différentes courbes de la figure présentent à partir du haut l’évolution de la corrélation à 3, 5, 7 et 10 jours d’échéance.
    Pour chacune de ces échéances, deux courbes, séparées par une bande de couleur, montrent la corrélation sur les hémisphères boréal (courbe du haut) et austral (courbe du bas) respectivement.

    On voit sans surprise que la qualité des prévisions décroît à mesure que l’échéance augmente. Mais surtout cette qualité a augmenté depuis 1981, à toutes échéances, de façon quasi-systématique. Les prévisions à 5 jours sont maintenant meilleures que les prévisions à 3 jours en 1981, et les prévisions à 7 jours meilleures que les prévisions à 5 jours. Cette amélioration progressive est due à l’augmentation du nombre des observations, et à l’amélioration de la qualité du modèle de prévision lui-même. On voit aussi que la qualité des prévisions dans l’hémisphère austral, inférieure à l’origine à celle des prévisions de l’hémisphère boréal, lui est devenue égale à partir de l’année 2000 environ. Cela est dû à l’accroissement du nombre des observations satellitaires, qui couvrent également les deux hémisphères, tandis que les observations au sol sont beaucoup plus nombreuses dans l’hémisphère boréal.

    Figure 2. Variation au cours du temps de la qualité des prévisions du géopotentiel à 500 hpa effectuées par le CEPMMT (voir explications dans le texte)
    (source : ecmwf.int).

    L’"effet papillon" bien connu nous dit que l’écoulement atmosphérique est chaotique, en ce sens qu’une petite incertitude sur l’état initial de l’écoulement peut conduire rapidement à une grande incertitude sur la prévision. Sans discuter plus avant cet aspect important, les figures ci-dessus montrent que des progrès sont encore réalisés dans la qualité des prévisions.

    Les principes de la modélisation numérique

    Les modèles numériques sont fondés sur les lois physiques qui régissent le monde macroscopique, familières à tout étudiant en physique, et dont personne ne doute qu’elles régissent, en particulier, les mouvements de l’atmosphère.

    Ce sont :

    • la loi de conservation de la masse,
    • de conservation de la quantité de mouvement (loi de Newton), qui définit comment le mouvement d’une particule fluide répond au forces mécaniques qui lui sont appliquées,
    • la loi de conservation de l’énergie, qui définit comment l’énergie interne d’une particule fluide (ici, sa température) varie du fait de ses échanges avec le milieu environnant.

    L’approche sous-jacente aux modèles est bien fondée au départ sur ces lois physiques de base. Elle n’est en particulier pas fondée, comme on pourrait se le demander, sur l’ajustement empirique de multiples coefficients destinés à permettre une simulation réaliste de l’écoulement.
    Pour ce qui est de la prévision météorologique, une autre approche pourrait parfaitement être envisagée : rechercher dans le passé des situations analogues à celle du jour, et fonder la prévision sur ce qui a suivi ces situations analogues. Cette approche n’est pas utilisée, pas plus que toute approche qui serait fondée sur l’exploitation des observations passées : on sait que l’échantillon statistique fourni par les archives météorologiques est beaucoup trop limité pour permettre des prévisions de la qualité des modèles numériques actuels. Nous sommes en outre dans une période de variation rapide du climat, ce qui diminue d’autant la valeur de ces archives météorologiques pour l’étude éventuelle de situations présentes.

    Le principe sur lequel est construit un modèle numérique est simple, et d’ailleurs très général dans l’étude numérique d’écoulements fluides de toutes natures. Le volume de l’atmosphère est divisé en mailles (Figure 3), à l’intérieur de chacune desquelles on définit les quantités d’intérêt météorologique.
    Sous l’hypothèse hydrostatique faite actuellement pour la prévision météorologique à grande échelle (et expliquée plus bas), ces quantités sont les deux composantes du vent horizontal, la température et le contenu de l’air en humidité. Des quantités complémentaires sont définies au niveau du sol ou de la surface de l’océan, dont la pression, la température de la surface et, dans le cas du sol, le contenu en eau. L’évolution de toutes ces quantités est ensuite évaluée pas à pas, dans chaque maille.

    Pour ce qui est par exemple de la température de l’air, tous les processus jugés pertinents sont pris en compte :

    • échauffement ou refroidissement résultant de compression ou de détente adiabatique,
    • absorption du rayonnement solaire et du rayonnement infrarouge émis par les autres couches atmosphériques ou le milieu sous-jacent (océan ou sol solide),
    • émission propre de rayonnement infrarouge,
    • conduction de chaleur depuis le milieu sous-jacent,
    • émission ou absorption de chaleur latente associée aux changements de phases de l’eau (évaporation ou condensation).

    À cela s’ajoute l’apport par l’écoulement lui-même d’air de température différente venant des mailles voisines. Un bilan similaire, effectué pour chacune des variables dans chacune des mailles du modèle, permet de calculer de proche en proche l’évolution de l’ensemble de l’écoulement sur la durée de la prévision.

    Figure 3. Représentation schématique d’un Modèle de Circulation Atmosphérique (L. Fairhead, LMD/IPSL)

    Les modèles constituent donc une formulation numériquement utilisable des lois physiques qui régissent l’écoulement. Cette formulation est nécessairement approchée, et donc imparfaite. Dans la version actuelle du modèle du CEPMMT (novembre 2018), la distance horizontale entre deux mailles est d’environ 9 km, et la direction verticale est divisée en 137 niveaux, s’étendant jusqu’à une altitude de 80 km. Cela conduit à environ 900 millions de mailles, et environ 4 milliards de variables dont l’évolution est explicitement calculée. Le pas temporel correspondant est de 450 secondes.

    Les spécialistes distinguent dans leur jargon la "dynamique" d’un modèle de sa "physique".

    La "dynamique" décrit comment le mouvement évolue sous l’effet des forces mécaniques et de la rotation de la Terre.

    La "physique" décrit les effets radiatifs et de conduction thermique, les effets de viscosité et de frottement et, aussi, tous les aspects du cycle de l’eau.

    En simplifiant, la dynamique décrit les processus thermodynamiquement réversibles, et la physique les processus irréversibles. On inclut dans la seconde la description de l’effet des processus d’échelle inférieure à la maille du modèle, non résolus par celui-ci. Ces processus influent néanmoins sur les processus explicitement résolus, et leur effet statistique est représenté par ce qu’on appelle les paramétrisations sous-maille. La définition et la validation de ces paramétrisations est l’un des problèmes importants de la modélisation numérique.

    La dynamique, construite sur des lois physiques parfaitement connues, est décrite de façon considérée désormais comme totalement sûre (même si des recherches actives sont toujours menées pour améliorer par exemple l’efficacité numérique des algorithmes, ou bien élargir leur degré de généralité). Il n’en est pas de même de la physique, qui est d’ailleurs constamment enrichie par l’introduction de nouveaux processus (effets des lacs et nappes d’eau, interactions avec la végétation, ruissellement des eaux de surface et souterraines, …). Contrairement à la dynamique, la physique contient, en ce qui concerne par exemple les effets radiatifs des nuages ou les interactions avec la végétation, de nombreuses formulations empiriques ou phénoménologiques, qui ne découlent pas directement de la physique de base. Et c’est d’ailleurs bien en ce qui concerne la physique, et en particulier le cycle complexe de l’eau, que les modèles actuels sont les plus limités et leurs prévisions les moins précises. L’expérience quotidienne nous montre que les précipitations sont plus difficiles à prévoir que la pression au sol, même si la seconde est indispensable à la prévision des premières.

    Différents types de modèles numériques

    L’approximation hydrostatique sur laquelle sont construits les modèles utilisés actuellement pour la prévision météorologique à grande échelle stipule simplement que la pression en tout point est proportionnelle à la masse de fluide située au-dessus de ce point. Elle est valide quand l’accélération verticale du fluide est négligeable devant la gravité. Du fait de la présence dans l’atmosphère de mouvements convectifs intenses, mais localisés, qui transportent des quantités d’énergie importantes vers les couches élevées de l’atmosphère, l’approximation hydrostatique perd sa pleine validité pour des échelles horizontales inférieures à 20 km environ.

    Des modèles non hydrostatiques ont donc été développés pour représenter les échelles plus fines. Ils permettent, entre autres, de simuler explicitement les phénomènes convectifs, mais leur coût élevé ne leur permet de couvrir à ce jour qu’une aire limitée de la surface terrestre. Météo-France a ainsi développé le modèle AROME (Applications de la Recherche à l'Opérationnel à Méso-Echelle), non-hydrostatique, qui couvre la France métropolitaine et les régions avoisinantes avec une résolution spatiale horizontale de 1,3 km, 90 niveaux dans la direction verticale, et est intégré plusieurs fois par jour à une échéance allant jusqu'à 48 h. Les modèles non hydrostatiques à haute résolution permettent une prévision beaucoup plus précise des phénomènes météorologiques intenses. Mais ils exigent par contre, du fait de leur aire limitée, la définition de conditions aux limites latérales appropriées. Ces conditions aux limites sont extraites d’un modèle de plus grande échelle. Le CEPMMT travaille au développement d’un modèle non-hydrostatique global.

    D’autres modèles encore servent à la prévision de l’océan en tant que tel. Ils sont fondés, mutatis mutandis, sur les mêmes principes que les modèles atmosphériques. De même que l’eau, par ses effets radiatifs et thermodynamiques, est un composant essentiel de la circulation atmosphérique, le sel, par les variations de densité qu’il entraîne, est un composant essentiel de la circulation océanique. Les échéances de prévisibilité, qui se comptent en jours pour l’atmosphère, se comptent plutôt en mois pour l’océan. L’état interne de l’océan, qui est opaque à toute forme de rayonnement électromagnétique, est beaucoup moins bien observé et connu que celui de l’atmosphère. Le programme français Mercator produit chaque jour des prévisions de l’état de l’océan global à une résolution spatiale de 1/12° et à échéance de 9 jours (donc courte pour l’océan ; voir le bulletin Mercator Océan pour les différents produits mis en ligne dans le cadre de ce programme).

    Aux échéances mensuelles ou saisonnières, les interactions entre l’atmosphère et l’océan ne peuvent plus être ignorées. Ces interactions mutuelles sont à l’origine de phénomènes spécifiques, comme le phénomène El Niño bien connu, qui n’existeraient pas dans l’un ou l’autre milieu isolément. Des modèles couplés ont donc été progressivement développés, qui produisent d’ores et déjà des prévisions utiles à l’échéance saisonnière.

    De nombreux modèles numériques ont été développés à d’autres fins : dispersion de traceurs ou de polluants, hydrologie, chimie atmosphérique. La plupart de ces modèles sont utilisés en association avec un modèle purement atmosphérique ou océanique, qui leur fournit les conditions physiques permettant de représenter les processus spécifiques qu’ils doivent simuler.

    La modélisation du climat

    Même si c’est la prévision à échéance relativement courte, nécessitant en particulier une définition précise de conditions initiales appropriées, qui a été à l’origine de la modélisation numérique de l’atmosphère, celle-ci a trouvé dès la fin des années 1960 une autre utilisation, qui suscite à l’heure actuelle beaucoup plus de questions et d’interrogations, quelquefois dubitatives. Il s’agit de la simulation du climat et de la prévision de son évolution à long terme.

    Des Modèles de Circulation Générale (MCG) ont ainsi été développés à partir des modèles météorologiques, sans modification des principes sur lesquels ceux-ci étaient construits. Mais il a fallu pour cela développer des composantes nouvelles, qui ont en retour bénéficié à la prévision météorologique. La différence la plus importante résulte de ce que l’effet des océans doit être pris en compte, plus encore qu’aux échéances mensuelles ou saisonnières, aux échéances climatiques.
    Les Modèles de Circulation Générale sont couplés, en ce qu’ils décrivent explicitement la circulation de l’océan et de l’atmosphère et leurs interactions mutuelles. Ils sont intégrés sur des périodes de temps (décennies ou plus) beaucoup plus longues que celles des prévisions météorologiques, et la quantité de calculs nécessaire impose une résolution spatiale beaucoup plus grossière. Une autre différence importante résulte de ce que l’on n’est pas intéressé dans l’étude du climat à l’état de l’atmosphère à un instant particulier, mais à des quantités statistiques (moyennes, variances, corrélations mutuelles, … ) calculées sur plusieurs années ou plus. On estime que ces quantités statistiques, prises sur de longues périodes, sont indépendantes de l’état initial de l’intégration. Contrairement donc à ce qui se passe pour les prévisions météorologiques, on ne cherche pas à définir aux modèles climatiques des conditions initiales très précises. Un état climatique moyen initial est souvent considéré comme suffisant.

    À titre d’exemple de ce que peuvent produire les Modèles de Circulation Générale, la Figure 4 présente le champ de température de l’air à la surface de la Terre, moyennée sur une année. La carte du haut montre le champ observé, la carte du bas le champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace. On voit que, s’il existe des différences, les variations spatiales des températures, en latitude, mais aussi entre les continents et les océans, sont très similaires.

    Figure 4. Champ de température de l’air à la surface de la terre, moyenné sur une année.
    Haut : champ observé.
    Bas : champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace (J.-L. Dufresne, LMD/IPSL)

    Les simulations climatiques servent en particulier à effectuer les "projections" présentées et discutées dans les rapports successifs du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC ; le cinquième de ces rapports a été publié en 2013-2014, la publication du prochain est prévue pour 2022 ; un rapport spécial a été récemment publié en octobre 2018).
    La question de la prévision du climat a été traitée brièvement dans la FAQ : Les modèles climatiques ont-ils une valeur prédictive?

    La figure 5, extraite du dernier rapport du GIEC, présente des comparaisons entre les observations relatives à la période 1910-2010 et des simulations issues de modèles.

    Figure 5. Comparaison d’observations et de simulations numériques sur la période 1910-2010. Sur chacune des sous-figures, la courbe pleine représente les observations, les bandes de couleur bleue et rouge clair le résultat de simulations numériques effectuées respectivement sans et avec le forçage anthropique (détails dans le texte).
    Figure extraite du cinquième Rapport d’évaluation du GIEC.

    Les observations, représentées par des courbes pleines sur chacune des sous-figures, portent :

    • sur la température de surface pour les régions continentales (fond jaune),
    • le contenu thermique superficiel pour les régions océaniques (dénoté OHC, fond bleu),
    • et l’extension des glaces pour les océans polaires (fond blanc).

    On remarque tout d’abord que la température et le contenu thermique de l’océan ont augmenté dans toutes les régions, surtout depuis 1960 (à la seule exception de l’Océan Austral, dont le contenu thermique a diminué depuis la fin des années 1990).
    L’extension des glaces a diminué sur l’Océan Arctique, tandis qu’elle est restée stable sur l’Océan Antarctique.

    Les simulations numériques sont représentées par les bandes de couleur :

    • bleues pour des simulations ne prenant en compte que les forçages naturels agissant sur l’atmosphère (tels que les éruptions volcaniques),
    • rouge clair pour des simulations prenant en compte, outre les forçages naturels, l'augmentation des gaz à effet de serre tel que le dioxyde de carbone (CO2) et aux autres gaz émis par les activités humaines (la largeur de chaque bande de couleur indique la dispersion entre les différents modèles numériques utilisés).

    On voit que (à la seule exception de l’Océan Antarctique, où l’on n’a de toute façon observé aucune évolution significative) les modèles numériques simulent toujours beaucoup mieux la réalité observée quand l’effet de serre anthropique est pris en compte. Ce résultat, outre qu’il conforte l’idée que les modèles numériques sont capables de simuler la structure thermique de l’atmosphère et de l’océan superficiel, conforte aussi l’idée que l’échauffement récent du climat est dû pour l’essentiel à l’effet de serre anthropique.

    Cela étant, il reste une marge d’incertitude, visible dans la largeur des bandes de couleur de la Figure 5. Une étude détaillée montre que les désaccords entre les résultats produits par les différents modèles viennent de leur "physique", et particulièrement du cycle de l’eau. Et encore plus précisément, pour ce qui est du cas présent des projections climatiques, de la représentation de l’effet radiatif des nuages. Comme dans le cas de la prévision météorologique, les faiblesses des modèles numériques résident beaucoup plus dans leur "physique" que dans leur cœur dynamique. Le cycle de l’eau, en particulier, et les flux d’énergie qui lui sont associés, restent assez mal connus, et mal représentés dans les modèles. C’est par la combinaison d’acquisition et d’analyse d’observations, de travaux théoriques, et d’expériences de simulations appropriées, que l’on pourra continuer à améliorer cet aspect des modèles numériques.

    La modélisation des atmosphères planétaires

    Une autre preuve du niveau de qualité physique atteint par les Modèles de Circulation Générale est fournie par les atmosphères extra-terrestres.
    Trois des différents objets du Système Solaire, Vénus, Mars et Titan (un satellite de Saturne), possèdent une atmosphère similaire à celle de la Terre : une couche mince à la surface d’un corps solide, recevant du Soleil l’essentiel de son énergie.

    Les Modèles de Circulation Générale terrestres ont été adaptés à ces différents objets en en modifiant les paramètres pertinents :

    • dimension de la planète,
    • taux de rotation,
    • flux solaire incident,
    • masse et composition de l’atmosphère
    • propriétés thermiques du gaz atmosphérique,
    • etc.

    Dans chacun de ces trois cas, et sans qu’il ait été nécessaire de recourir à des modifications non justifiées par ce que l’on sait de la physique, les modèles ont produit un régime de circulation atmosphérique et une structure thermique en bon accord, et quelquefois même en excellent accord, avec les observations disponibles.

    La Figure 6 présente le champ de température martien, moyenné en longitude, à l’équinoxe de printemps boréal.
    La partie supérieure montre la température observée par l’instrument Mars Climate Sounder, qui est resté en orbite autour de Mars pendant plusieurs années à partir de 2006.
    La partie inférieure montre la température produite par le modèle de circulation martienne développé à partir du modèle terrestre du Laboratoire de Météorologie Dynamique.
    On voit que la structure des deux champs de température est très similaire. L’atmosphère martienne est constituée pour l’essentiel de dioxyde de carbone, et elle est de ce fait le siège d’un effet de serre important. La similarité des deux champs de température montre que le modèle est capable de simuler l’effet de serre avec succès. Une remarque similaire s’applique à l’atmosphère de Vénus, elle aussi constituée pour l’essentiel de dioxyde de carbone, mais beaucoup plus massive que les atmosphères terrestre et martienne. L’effet de serre y est la cause d’une augmentation de température de 400°C. Cette augmentation est reconstituée par les modèles de circulation, de même que le régime de circulation dynamique qui lui est associé.

    Figure 6. Champ de température de l’atmosphère martienne, moyenné en longitude dans un plan méridien, à l’équinoxe de printemps boréal.
    La coordonnée horizontale est la latitude, la coordonnée verticale la pression.
    Partie supérieure : champ de température observé par l’instrument Mars Climate Sounder.
    Partie inférieure : champ de température produit par le modèle de circulation martienne développé au Laboratoire de Météorologie Dynamique (F. Forget, LMD/IPSL).

    En dehors de ces diverses applications, toutes destinées à simuler et étudier une atmosphère réelle, la modélisation numérique est aussi utilisée à l’étude de processus spécifiques, menée dans des situations de simplification plus ou moins idéalisées. On peut citer par exemple l’étude de la convection thermique, de la formation des dépressions des latitudes moyennes ou bien encore de la formation et de l’évolution des cyclones tropicaux. Ces études de processus sont extrêmement instructives, et aident beaucoup à la compréhension des multiples aspects de la dynamique et de la thermodynamique de l’atmosphère et de l’océan.

    La modélisation numérique de l’écoulement atmosphérique, même si la possibilité en avait été anticipée dès le début du XXe siècle, est née, on l’a dit plus haut, avec les premiers ordinateurs électroniques (voir Le changement climatique : histoire et enjeux, Chapitre V : De nouveaux outils bouleversent le paysage scientifique, pour une histoire des débuts de la modélisation numérique). Et ses progrès, particulièrement en ce qui concerne la prévision météorologique, ont toujours suivi de près la croissance de la puissance des ordinateurs : l’augmentation de la résolution spatiale des modèles, quand elle était possible dans les contraintes imposées par les conditions opérationnelles, a toujours résulté à ce jour en une amélioration de la qualité des prévisions (bien entendu, toutes les autres composantes du système de prévision, comme les algorithmes numériques, la représentation des processus sous-maille, l’assimilation des observations, ont toujours été continûment améliorées en parallèle avec l’augmentation de la résolution spatiale). Mais la croissance de la puissance des ordinateurs commence à diminuer et, sauf nouvelle révolution technologique qui pourrait relancer cette croissance (on parle régulièrement d’ordinateurs quantiques), le jour viendra où l’on ne pourra plus compter sur l’augmentation de la puissance de calcul pour améliorer les modèles numériques. Cela modifiera significativement, sinon la science fondamentale elle-même, du moins le travail quotidien des chercheurs.

    Observation et modélisation numérique

    Pour reprendre une remarque souvent faite, la modélisation numérique ne remplacera jamais l’observation, qui est à la base même de la science. Mais elle vient en sus de l’observation, en lui ajoutant la formulation, explicite et quantifiée, des lois physiques qui lui sont sous-jacentes. La modélisation est extrêmement utile à l’observation, et d’abord en ce qu’elle aide souvent à définir ce qui doit être observé. Toutes les campagnes de mesures atmosphériques sont maintenant précédées de simulations numériques destinées à identifier les quantités les plus pertinentes à observer. Tout projet de mise en œuvre d’un nouvel instrument d’observation (porté par satellite par exemple) est précédé d’expériences de simulation, dans lesquelles des observations virtuelles similaires à ce qu’on attend de l’instrument envisagé sont introduites dans l’intégration d’un modèle numérique. L’impact des observations virtuelles sur, par exemple, la qualité d’une prévision météorologique est ainsi quantifié. Ces expériences ne produisent certes pas des résultats parfaitement fiables (elles conduisent en général à des conclusions qui se révèlent a posteriori trop optimistes quant à l’impact des nouvelles observations), mais elles n’en sont pas moins extrêmement utiles, en indiquant dans quelles directions il faut améliorer les systèmes d’observation.

    Ensuite, la modélisation permet de tirer un plein profit des observations disponibles. Un excellent exemple en est fourni par la définition des conditions initiales des prévisions météorologiques numériques. De très nombreuses observations, satellitaires ou non, sont effectuées chaque jour sur l’atmosphère, dont la nature, la distribution spatio-temporelle, la résolution et la précision sont extrêmement variables. Ces observations (plus de 107 par période de 24 heures) doivent être "synthétisées" pour en tirer la description la plus exacte possible de l’état de l’écoulement atmosphérique à l’instant initial de la prévision. Cela est obtenu en combinant les observations avec un modèle numérique dans un processus appelé assimilation. L’assimilation des observations, construite sur des algorithmes puissants progressivement développés en parallèle avec la modélisation elle-même, est maintenant devenue une composante essentielle de la prévision météorologique : les grands centres de prévision, tels que le CEPMMT ou Météo-France, consacrent autant de ressources de calcul à assimiler 24 heures d’observations qu’à effectuer 10 jours de prévision à haute résolution.

    L’observation et la modélisation numérique, en ce qui concerne au moins l’atmosphère, sont désormais intimement liées. Chacune des deux perdrait beaucoup d’intérêt et d’utilité si l’autre n’existait pas.

    La modélisation numérique de l’écoulement atmosphérique s’est progressivement développée à partir de son objectif premier, la prévision météorologique. Une représentation réaliste de l'océan et de multiples processus a été ajoutée au fil des années dans les différents modèles utilisés pour des applications diverses.

    Dans le vaste cadre de la prévision climatique, des Modèles du Système Terre sont maintenant développés : ces modèles simulent, en plus des mouvements de l’atmosphère et de l’océan, leurs interactions avec la végétation et la cryosphère, les réservoirs d’eau divers, et avec les cycles de différentes espèces chimiques (dont particulièrement le dioxyde de carbone).
    Le jour approche où ils seront associés à des modèles de la production industrielle et agricole, et peut-être ultérieurement à des modèles des circuits économiques. À l’heure où la question de l’influence des activités humaines sur l‘environnement est devenue cruciale et soulève de multiples problèmes, la modélisation numérique constitue, et constituera certainement encore longtemps, un outil central pour l’étude et, espérons-le, la solution de ces problèmes.

    Voir aussi les FAQs :

    Quelle est la différence entre «météorologie» et «climatologie»?

    Les modèles climatiques ont-ils une valeur prédictive?

  • Yves Dandonneau, d'après les propos échangés par les Argonautes

    Résumé en langage courant

    Comment périodes chaudes et glaciations alternent elles sur Terre?

    La Terre n'a pas toujours connu le climat qui règne depuis 12 000 ans et qui caractérise la période actuelle, nommée l'holocène. Ce sont les géologues qui, les premiers, en ont trouvé que la Terre avait connu des périodes glaciaires au cours desquelles une grande partie de l'Europe du nord avait été, à plusieurs reprises, recouverte de glace, après avoir identifié dans des plaines qui connaissent maintenant un climat tempéré des alignements des moraines telles qu'on voit à l'extrémité des glaciers de montagne.

    Comment cela a-t-il pu se produire, alors que la chaleur fournie par le Soleil au système climatique terrestre change très peu ?

    Les explications les plus probables ont été avancées par les astronomes, qui ont mis en avant le rôle des variations des paramètres de la rotation de la Terre autour du Soleil.

    L'explication donnée par les climatologues met en avant le rôle des rétroactions : sous le climat actuel, chaque hiver de l'hémisphère nord voit la calotte enneigée de l'arctique s'étendre. A la sortie de l'hiver, cette neige blanche réfléchit vers l'espace une partie du rayonnement solaire qui est ainsi perdue par le système climatique de la Terre. Cependant, avec l'allongement de la durée des jours et la montée du Soleil, elle finit par fondre en grande partie. Mais si l'excentricité de l'orbite terrestre est forte, que l'été a lieu lorsque la Terre est au plus loin du Soleil, et que de surcroît l'axe de rotation de la Terre est peu incliné, alors, il peut arriver que la neige tombée en hiver dans l'hémisphère nord ne fonde pas en totalité en été : davantage de neige, moins de rayonnement solaire absorbé par le système climatique, la rétroaction (dite « rétroaction de l'albédo ») s'enclenche et conduit à une ère glaciaire.

    Les ères glaciaires durent plus longtemps que les interglaciaires. Conformément aux précédents interglaciaires, celui que nous connaissons devrait donc s'achever dans quelques milliers d'années. Mais il se pourrait que nous bénéficiions encore longtemps du climat favorable qui a permis le développement de l'humanité. En effet, d'une part l'excentricité de l'orbite terrestre est actuellement très faible et le restera pendant encore plusieurs dizaines de milliers d'années, et d'autre part, en émettant massivement du gaz carbonique qui s'accumule dans l'atmosphère, nous avons mis en marche un réchauffement du climat dont les effets seront très longs à s'atténuer.

     

    En savoir plus... 

    Quelle est la cause de l'alternance de périodes chaudes et de glaciations sur Terre lors du dernier million d'années?

    La température qui règne à la surface de la Terre dépend de l'énergie reçue du Soleil, et de la façon dont la Terre l'absorbe avant de la réémettre vers l'espace.  Le rayonnement émis par le Soleil augmente très lentement depuis la formation du système solaire, mais pour les variations climatiques qui nous intéressent, nous pouvons le considérer comme constant.
    À la distance moyenne de l'orbite terrestre (149,6 millions de km), ce rayonnement est de 1 361 W/m2 d'après les estimations les plus récentes , soit, à la surface de la Terre, compte tenu de sa sphéricité, une moyenne de 340,25 W/m2.

    Les variations climatiques de la Terre au cours du temps sont liées aux variations des paramètres de la rotation de la Terre autour du soleil :

    • l'ellipticité (ou excentricité) de l'orbite,
    • l'inclinaison de l'axe de rotation de la Terre sur le plan de son orbite (écliptique),
    • et la rotation de cet axe autour d'une perpendiculaire au plan de l'écliptique.

    C'est l'astronome serbe Milutin Milankovitch qui a le premier montré en 1924 comment ces variations orbitales pouvaient influencer le climat de la Terre. Le météorologue belge André Berger a repris sa théorie en détail et a définitivement montré sa validité.

    I.- L'excentricité de l'orbite terrestre

    L'orbite de la Terre autour du Soleil n'est pas un cercle parfait, mais une ellipse dont le Soleil occupe un des foyers, et qui est perturbée par l'attraction des autres planètes et de la Lune.
    L'excentricité de cette ellipse, définie comme le rapport de l'écart entre les deux foyers au grand axe de l'ellipse, varie. Puisque les mouvements de la Lune et de chacune des planètes sont périodiques, leur combinaison fait apparaître des périodes dans les variations de l'excentricité.
    La variation de plus grande amplitude a une période de 400 000 ans, d'autres périodes apparaissant entre 90 000 et 120 000 ans.
    Plus l'excentricité est grande, plus l'orbite s'allonge. Sa valeur qui varie de 0,005 à 0,06 est actuellement faible, soit 0,017 (pour un cercle parfait, cette valeur serait nulle). Ainsi, lors de sa rotation autour du Soleil, la distance de la Terre au Soleil varie, ainsi que l'énergie qu'elle en reçoit puisque celle-ci est inversement proportionnelle au carré de la distance (Figure 1).
    Lorsqu'elle est au plus près du Soleil (147 millions de km au périhélie, actuellement vers le 5 janvier) le rayonnement solaire à la distance de la Terre est maximum, soit environ 1 410 W/m2. À l'opposé, il est minimum lorsque l'éloignement est maximum (142 millions de km à l'aphélie, actuellement vers le 5 juillet), et vaut alors environ 1 318 W/m2.
    La variation relative de l’énergie reçue du Soleil au cours d'une année entre le périhélie et l'aphélie est égale à quatre fois l'excentricité (soit, actuellement, 6,8 %, mais cette variation atteint jusqu'à 24 % lorsque l'excentricité est maximale). Le mouvement orbital, plus lent au passage à l’aphélie conformément à la loi des aires de Kepler, compense les variations d’insolation, de telle sorte que la quantité d’énergie totale reçue au cours de l’année reste la même pour chacun des deux hémisphères.

    Figure 1 : Lorsque l'orbite de la Terre autour du Soleil est quasi-circulaire, le rayonnement (en dégradé rouge) reçu par la Terre varie peu d'une saison à l'autre. Lorsque l'orbite est excentrée, le rayonnement reçu au périhélie est plus fort qu'à l'aphélie.

    II L'inclinaison de l'axe de rotation de la Terre

    L'axe de rotation de la Terre sur elle-même est incliné par rapport au plan de l'écliptique. L'angle entre l'axe et la perpendiculaire au plan de l'écliptique est actuellement de 23,5°, et sous l'influence des autres planètes et de la lune, il varie de 22° à 24,5°, avec une période voisine de 41 000 ans.
    L'inclinaison de l'axe de rotation de la Terre est la cause de l'existence des saisons (Figure 2), et plus cette inclinaison est forte, plus le contraste entre les saisons est élevé. Elle définit en particulier une zone, au delà des cercles polaires que le rayonnement solaire n'atteint pas durant quelques semaines autour des solstices d'hiver, tandis qu'elle est éclairée 24h/24 aux solstices d'été.
    La latitude des cercles polaires est le complément à 90° de l'inclinaison et varie donc de 65,5° à 68°.
    Dans l'hémisphère nord, à ces latitudes, il y a une majorité de terres émergées, qui sont couvertes de glace à la sortie de l'hiver. Milutin Milankovitch avait choisi la latitude 65°N pour mettre en évidence le rôle des paramètres astronomiques dans l'alternance de périodes chaudes et de périodes glaciaires : à cette latitude, le rayonnement solaire reçu au solstice d'été à la surface de la Terre augmente d'environ 30 W/m2 lorsque l'inclinaison de l'axe de rotation de la Terre passe de sa valeur minimale à sa valeur maximale.

    Figure 2 : Une obliquité faible réduit la zone limitée par les cercles polaires et atténue les contrastes entre les saisons. Lorsque l'obliquité est forte au contraire, le contraste des saisons est renforcé, et la zone affectée par la nuit polaire s'agrandit. Près du pôle nord où les continents dominent, cette nuit polaire s'accompagne d'un enneigement.

    III La précession des équinoxes

    L'axe de rotation de la Terre sur elle-même est actuellement dirigé vers l'étoile polaire, mais cela n'est pas immuable : dans environ 12 000 ans, il pointera vers l'étoile Véga.
    En fait, tout en gardant le même angle avec le plan de l'écliptique, cet axe tourne lentement en décrivant un cône, comme on l'observe en regardant les mouvements d'une toupie (figure 3 A).
    Une conséquence est qu'une position d'équinoxe de l'axe de rotation de la Terre se reproduit 20 minutes avant que la Terre ait fait un tour complet du Soleil. Ainsi, l'année telle que nous la définissons, commodément basée sur le cycle des saisons, est plus courte de 20 minutes que l'année sidérale qui correspond à une rotation complète de la Terre autour du Soleil. En conséquence, la position des solstices et des équinoxes n’est pas fixe sur la trajectoire de la Terre autour du Soleil et il en résulte que périhélie et aphélie occupent des positions variables dans le cycle des saisons.
    Ainsi actuellement le périhélie se situe début janvier et l’aphélie début juillet. C’était l’inverse il y a un peu plus de 10 000 ans. À raison de 20 minutes par an, un cycle complet devrait durer environ 26 000 ans.
    Mais un autre mouvement intervient simultanément : le grand axe de l'orbite terrestre tourne de telle sorte que périhélie et aphélie se déplacent eux aussi, de telle sorte que la période liée à la précession des équinoxes est d'environ 21 000 ans.

    Figure 3 :
    (A) L'axe de rotation de la Terre décrit un cône en 25 800 ans.
    (B) Le solstice d'été parcourt l'orbite de la Terre autour du Soleil, en passant notamment par le périhélie et l'aphélie. La durée de ce parcours n'est cependant pas 25 800 ans, mais environ 21 000 ans (voir l'encart sur les périodicités)

    Périodes

    L'orbite de la Terre autour du Soleil est une ellipse dont le Soleil occupe un foyer, et l'excentricité de cette ellipse varie, de même que l'orientation de son grand axe. De plus, la Lune et les autres planètes, en particulier Jupiter et Saturne, les plus massives, exercent leur attraction sur la Terre, en fonction de leurs propres orbites.
    Venus tourne autour du Soleil en 225 jours, Mars en un peu moins de 2 ans, Jupiter en un peu moins de 12 ans, et Saturne en 29 ans.
    Dans un système aussi complexe, il n'y a pas de périodicité bien établie. Toutefois, il se dégage des intervalles de temps correspondant à chacun des paramètres orbitaux.
    L'excentricité de l'orbite terrestre varie avec une période dominante de 400 000 ans, et d'autres périodes entre 90 000 et 120 000 ans avec une moyenne vers 100 000 ans. L'inclinaison de l'axe de rotation de la Terre varie avec une période de 41 000 ans environ.
    En raison de la précession des équinoxes, l'emplacement sur l'orbite où l'axe de rotation de la Terre pointe vers le Soleil au solstice d'été boréal (appelons ce point E) se déplace, et fait le tour de l'orbite terrestre en 25 800 ans environ. Au cours de ce périple, il passe par l'aphélie, et par le périhélie. Mais pendant cette longue durée, le grand axe de l'orbite de la Terre (ou : axe des apsides, les apsides étant le périhélie et l'aphélie) tourne lui aussi, en sens inverse. Après être passé par l'aphélie, le point E y passera donc de nouveau avant d'avoir effectué un tour complet d'orbite. La période de rotation du grand axe des apsides est d'environ 135 000 ans. En combinant cette période avec celle de la précession des équinoxes, on calcule, que d'un passage à l'autre du solstice d'été à l'aphélie, il s'écoule environ 21 700 ans. C'est cette période qui est pertinente pour le climat.

     

    Aucun de ces paramètres orbitaux à lui seul n'est capable de donner lieu à une ère glaciaire. C'est lorsque leurs effets se superposent qu'une glaciation peut s'initier, et le forçage le plus intense interviendrait lorsque l'excentricité est maximale (tous les 400 000 ans, ou tous les 90 000 à 100 000 ans), alors que l'axe de rotation est peu incliné (tous les 41 000 ans), et que le solstice d'été boréal a lieu à l'aphélie (tous les 21 700 ans).
    Conformément aux travaux d’André Berger ou de Jacques Laskar sur le système solaire, le calcul des variations temporelles de  l’insolation, à une latitude élevée (80 degrés nord) et sur une période de 800 000 ans, indique, d’après  une analyse spectrale, que trois périodes prédominent outre celles de l’excentricité vers 400 000 et 100 000 ans : les périodes  de 41 000, 19 000 et 23 000 ans; elles sont  importantes sur le plan de l’étude climatique et montrent que le lien entre les périodes astronomiques et les périodes climatiques est complexe.

    IV Comment s'installent les périodes glaciaires

    Le rayonnement solaire qui parvient à la distance moyenne Terre – Soleil peut être considéré comme constant.
    L'énergie reçue par la Terre varie certes entre ses passages au périhélie et à l'aphélie, et cette variation est d'autant plus importante que l'excentricité de l'orbite est grande (jusqu'à 24 %), mais lorsque la Terre parcourt une orbite entière, en une année, l'énergie totale reçue est sensiblement la même quelles que soient les conditions orbitales ou d'inclinaison de l'axe de rotation de la Terre.
    En effet, lorsque la Terre est à l'aphélie, son mouvement orbital est plus lent et ceci compense exactement la diminution du rayonnement solaire reçu qui est lui aussi inversement proportionnel au carré de la distance Terre – Soleil. Selon les mêmes principes, les deux hémisphères reçoivent au cours d'une année la même quantité d'énergie. Qu'est-ce donc qui déclenche les périodes glaciaires ?

    Notons d'abord que tout le rayonnement solaire qui atteint la Terre ne contribue pas à son climat : une partie est réfléchie et repart immédiatement vers l'espace. Cette fraction du rayonnement qui est réfléchie (l'albédo) est principalement causée par l'enneigement (l'albédo des surfaces enneigées est d'environ 80 %). L'enneigement se produit en hiver et se poursuit jusqu'au dégel au printemps et en été. Dans la période chaude où nous sommes actuellement, toute la neige tombée en hiver fond et ne s'accumule donc pas, ce qui permet à l'année qui suit de se dérouler dans les mêmes conditions. Mais imaginons qu'il y ait eu un enneigement exceptionnellement étendu, et que le printemps et l'été suivants soient anormalement froids : toute la neige en excès ne fond pas et réfléchit vers l'espace plus d'énergie qu'à l'accoutumée. La Terre se refroidit donc, et les surfaces enneigées ont tendance à s’accroître : plus il y a de neige, plus la Terre réfléchit vers l'espace l'énergie reçue du Soleil, et plus il fait froid ; une rétroaction s’amorce alors et s'auto-entretient, car plus il fait froid, plus les surfaces enneigées s'accroissent. Cet accroissement de l'enneigement n'est possible que dans l'hémisphère nord où se trouvent la majorité des terres émergées, car dans l'hémisphère sud, l'Océan Antarctique oppose une barrière à un éventuel accroissement.

    Le départ d'une ère glaciaire se situe donc dans l'hémisphère nord. Les conditions propices à l'établissement d'une glaciation sont de fortes précipitations neigeuses suivies par des étés relativement froids au cours desquels une partie croissante de cette neige persiste. Ceci se produit lorsque l'excentricité de l'orbite terrestre est forte, et que le passage à l’aphélie a lieu en été boréal : le rayonnement reçu en hémisphère nord y est alors minimum, l'été est froid, et la neige n'y fond pas en totalité. Ce processus est accentué lorsque l'axe de rotation de la Terre est peu incliné, le contraste entre les saisons étant alors moins marqué : l'hiver est alors relativement doux, ce qui favorise des précipitations neigeuses abondantes, et l'été moins chaud, ce qui empêche en partie la fonte de la neige. Par ailleurs, le système climatique terrestre comporte des interactions entre les océans, l'atmosphère et la cryosphère, qui rendent l' articulation avec les forçages orbitaux très complexes. C'est aux latitudes proches du cercle polaire boréal, où s'étendent surtout des surfaces continentales, que le processus de glaciation s’amorce. Le rayonnement qui parvient à 65°N diminue de 30 W/m2 au solstice d'été lorsqu'on passe d'une situation de forte inclinaison à une faible inclinaison, et lorsque ce solstice se produit à l'aphélie en période d'excentricité maximale, le rayonnement solaire n'y est que de 1 311 W/m2 au lieu de 1 361. De plus, ces conditions propices à l'établissement d'une époque glaciaire ne sont pas éphémères : elles s'exercent pendant plusieurs centaines d'années, car les périodicités à l’œuvre s'expriment, elles, en dizaines de milliers d'années. La rétroaction de l'albédo, ainsi que d'autres rétroactions (vapeur d'eau, gaz carbonique) et l'effet sur la circulation océanique, conduisent alors à une ère glaciaire. Le retour à un interglaciaire a lieu lorsque, contrairement aux conditions précédentes, la Terre est proche du Soleil en été boréal, et que les surfaces enneigées se réduisent, mettant ainsi en marche, mais dans le sens opposé, la rétroaction climatique de l'albédo. Ce retour s'effectue toutefois de manière beaucoup plus chaotique, avec des oscillations dites événements de  Dansgaard-Oeschger marquées par de  brusques épisodes de froid brusques épisodes de retour du froid

    V Où en sommes nous ?

    L'été boréal a actuellement lieu lorsque la Terre est proche de l'aphélie et que l'énergie qu'elle reçoit du Soleil est à son minimum. À l'opposé, en hiver, elle est proche du périhélie et l'hiver boréal est moins intense. C'est là une des conditions d'établissement d'une ère glaciaire, et c'est ce que certains mettaient en avant il y a quelques dizaines d'années pour minimiser la menace d'un réchauffement climatique dû aux émissions de gaz carbonique. Mais l'excentricité de l'orbite de la Terre est actuellement faible, et va encore diminuer au cours des quelques prochains millénaires. D'autre part, l'obliquité de l'axe de rotation de la Terre diminuera durant la prochaine dizaine de milliers d'années, tendant à diminuer le contraste entre été et hiver et ainsi à favoriser des étés boréaux relativement frais. Compte tenu de ces évolutions des paramètres orbitaux, et en attendant le passage suivant du solstice d'été à l'aphélie, l'interglaciaire actuel, l'Holocène, durera plus longtemps.

    Se superpose à cette situation de très faible forçage vers une glaciation, un changement important de la composition de l'atmosphère dû aux émissions anthropiques de gaz carbonique et d'autres gaz à effet de serre, changement d'une telle amplitude que le risque de voir les calottes glaciaires s'avancer sur nos terres agricoles est repoussé à des configurations orbitales lointaines.
    Au contraire, actuellement, et en dépit de conditions qui, sans l'action humaine, tendraient vers des étés frais et par conséquent vers une glaciation, la calotte glaciaire de l'hémisphère nord se réduit.

    Historique

    La mise en évidence du rôle des paramètres orbitaux dans l'alternance des périodes glaciaires et interglaciaires est récente, mais elle s'appuie sur des découvertes et des calculs beaucoup plus anciens. Hipparque au deuxième siècle avant J.- C. a le premier observé que la position du Soleil par rapport aux étoiles à l'équinoxe de printemps se déplaçait lentement d'est en ouest. La même observation aurait théoriquement pu être faite pour les solstices, mais il est plus facile de repérer le jour où le Soleil se couche exactement à l'ouest que celui où il culmine. C'est probablement pour cette raison que la rotation autour d'un cône de l'axe de la Terre est désignée par «précession des équinoxes» plutôt que par «précession des solstices», alors que cette dernière formulation aurait été plus parlante pour l'alternance climatique des périodes glaciaires et interglaciaires. Au temps d'Hipparque d'ailleurs, on ignorait qu'il y avait eu des épisodes glaciaires.

    Kepler en 1609 a démontré et formulé le mouvement elliptique des planètes, mais c'est surtout Newton qui, avec les lois de la gravitation universelle publiées en 1687 dans les Principia Mathematica a fourni les bases théoriques qui vont peu à peu permettre de comprendre les interactions entre les astres du système solaire et la nécessité de les prendre en compte.

    Le mathématicien suisse Euler s'attaquera lui aussi au XVIIIème siècle aux calculs astronomiques, mais c'est surtout Joseph Louis de Lagrange, puis Pierre Simon Laplace qui mettront en place les outils modernes permettant de comprendre et de prévoir avec précision les mouvement des planètes. Le premier a publié un traité général de plusieurs volumes parus en 1785 et 1786 sous les titres Théorie des variations séculaires des éléments des planètes et Théorie des variations périodiques des mouvements des planètes dans lesquels il traite de problèmes de stabilité et de perturbations, comme la question du mouvement séculaire des nœuds d'une orbite, celle de la diminution de l'obliquité d'une écliptique, celle des variations de l'excentricité et des périhélies. Le second a repris ces calculs afin de rechercher les causes des altérations dans les orbites des planètes (allant jusqu'à envisager l'influence des comètes), et en appliquant à Jupiter et Saturne le principe de la conservation de l'énergie, il met en évidence l'interaction gravitationnelle des planètes. Mais d'après lui, leurs orbites elliptiques sont immuables, or, ceci devrait conduire à des collisions de la Terre avec Mars. Tous deux en viennent à l'idée que les ellipses ne sont pas stables, et que leur excentricité varie, ce qu'ils démontrent d'abord pour Jupiter et Saturne, puis pour la Terre, avec de très longues périodes. Le Verrier s'appuiera ensuite sur leurs travaux pour calculer des orbites de planètes et annoncera la nécessité de l'existence de la planète Neptune avant que celle ci soit découverte en 1846.

    Mais jusque là il n'était pas question de relier la variabilité des orbites des planètes à des variations amples du climat dont on ignorait encore l'existence. C'est Louis Agassiz en 1840 qui donnera les preuves de l'existence de périodes anciennes très froides, seule explication à la présence de blocs de pierre caractéristiques d'un transport par des glaciers trouvés à des latitudes tempérées. Peu après, en 1875, l'écossais James Croll aura l'intuition que la variation des paramètres orbitaux est à l'origine de ces glaciations et identifiera les variations d'excentricité de l'orbite terrestre et la précession des équinoxes comme les causes principales. Il proposera en particulier une périodicité de 22 000 ans pour ces glaciations (qu'il envisagera aussi pour l'hémisphère sud, ce qui est maintenant contredit). Enfin, Milankovitch, reprenant à son tour l'hypothèse d'une influence des paramètres orbitaux sur le climat, montra que ces paramètres avaient une forte influence sur les températures d'été aux hautes latitudes de l'hémisphère nord, et que ceci pouvait être à l'origine des périodes glaciaires. Ses conclusions ne furent pas unanimement acceptées, et il fallut attendre que les paléoclimatologues accumulent des données de l'évolution des températures au cours des ères géologiques (notamment les rapports isotopiques de l'oxygène dans les foraminifères fossiles par Shackleton) pour valider les travaux de modélisation du paléoclimat parmi lesquels ceux de André Berger, travaux qui ne cessent de se perfectionner depuis.
    Ainsi Jacques Laskar a refait les calculs sur l’évolution des paramètres du système solaire en les étendant par ailleurs  le plus loin possible dans les temps géologiques, soit en pratique jusqu'aux environs de 50 millions d’années car au-delà il n’est plus possible de faire des prédictions, le mouvement chaotique du système solaire prévalant alors. 

     

     Mise à jour mars 2020

  • L'Organisation météorologique mondiale (OMM) a publié, le 10 mars 2020, un rapport sur l’état actuel du climat terrestre pour le moins alarmant.

  • Katia Laval

    1- Introduction

    Les cyclones tropicaux (appelés aussi ouragans ou typhons) sont des perturbations régionales dont l’extension est de l’ordre de plusieurs centaines de kilomètre. Les vents, violents, tournent autour du centre, appelé l'œil du cyclone. Les mouvements verticaux y sont très développés et les précipitations intenses, de plusieurs centaines de mm par jour, et avec des pics de 50 millimètres par heure. La pression au niveau de la mer est très basse, souvent inférieure à 900 hPa. Ces dépressions météorologiques prennent naissance sur les océans tropicaux ou sub-tropicaux, et s'amplifient en se déplaçant vers l'ouest et vers les latitudes plus élevées.

    Ce sont des phénomènes très intenses qui peuvent dévaster des régions, faire de nombreuses victimes et semblent se produire de manière aléatoire. Le typhon Haiyan qui s’est abattu sur les Philippines, en 2013, en est un exemple tragique. Il a été particulièrement destructeur et a provoqué des morts et des blessés par milliers et l'évacuation de centaines de milliers de personnes.

    Les vents y sont supérieurs1 à 119 km/h et peuvent atteindre 300 km/h pour les plus violents. Ainsi, lors de rafales observées pendant Haiyan, qualifié par certains de cyclone probablement  le plus puissant jamais enregistré, les estimations de vents ont été de 380 km/h. Suivant la violence, on classe les cyclones tropicaux (CT), de la catégorie 1 pour les plus faibles (de 119 km/h à 153 km/h), à la catégorie 3 pour des vents entre 178 et 210 km/h, et à la catégorie 5 pour les plus intenses (au dessus de 251 km/h)

    L'année 2017 a été particulièrement dévastatrice2 avec les ouragans Harvey, de catégorie 4, donnant lieu à des précipitations records de 1500 mm, et provoquant des inondations exceptionnelles sur le Texas, puis Irma et Maria tous deux de classe 5, qui se sont abattus sur les Antilles. Au total, six cyclones majeurs (de classe supérieure à 3) se sont succédés, dépassant largement la moyenne de 3 cyclones majeurs dans cette région. En septembre 2019, l'ouragan Dorian a dévasté les Bahamas avec une puissance dépassant celle des cyclones Irma et Maria qui avaient touché ces îles en 2017. Il a, lui aussi, été de force 5, avec des vents moyens qui ont dépassé 295 km/h. Peut-on déduire de cette succession d'événements exceptionnels que l'on assiste à une augmentation du nombre et de l'intensité des CTs ces dernières années?

    On a noté que les cyclones se développent lorsque la température de la mer est supérieure à 26°-27°C mais qu'un cisaillement du vent horizontal3 a un effet d'atténuation et même d'inhibition des CTs. Quand les vents sont inférieurs à 119 km/h, les spécialistes nomment ces dépressions des orages tropicaux ou des tempêtes tropicales.

    Décrire un CT à l'aide d'un modèle implique de représenter l'œil, cette zone de vent calme, dont l'extension est de quelques dizaines de kilomètres, et le mur du cyclone, surface où les vents sont les plus forts, qui entoure l'œil.

    Figure 1: Un cyclone. On distingue l'œil au centre, et les vents tourbillonnant autour, zone blanche recouverte de cumulonimbus.

    Leur énergie a pour origine la quantité de chaleur considérable dégagée lors de la condensation de la vapeur d’eau charriée par ces perturbations atmosphériques. Cette grande quantité de vapeur provient essentiellement de l’évaporation qui s'effectue lors du passage du CT sur les eaux chaudes océaniques, mais aussi de l'humidité de l'environnement où se déplace le cyclone.

    La dynamique des CTs est réellement complexe et les connaissances sur ces processus ont beaucoup progressé depuis une quinzaine d’années. Les études régulièrement publiées l’attestent, et donnent lieu quelquefois à des débats entre scientifiques, étant donné la difficulté de maîtriser totalement les mécanismes donnant lieu à ces événements au développement explosif.

    2- Prévision des cyclones tropicaux

    Les dommages considérables que subissent les populations lors du passage d'un CT sont atténués quand on en fait une prévision fiable. C'est pourquoi depuis plus d'une vingtaine d'années, des efforts ont été déployés pour améliorer leur prévision. Les chercheurs ont des outils de plus en plus performants: des modèles statistiques, des modèles régionaux avec une résolution inférieure à la dizaine de kilomètre pour représenter de manière réaliste un CT et étudier théoriquement ses mécanismes d'amplification ou d'atténuation, et des observations par satellites qui fournissent un suivi des CTs apparaissant chaque année sur les différents bassins océaniques. Ces études ont permis une meilleure connaissance de leurs caractéristiques. Comment mesurer l'énergie maximum d'un CT? Combien de CTs sont déclenchés chaque année? Quelles sont les caractéristiques des précipitations, des profils de température dans l'environnement du cyclone?

    En 2012, on a pu saluer la précision, sur la région de New York, de la prévision du cyclone Sandy qu’a effectuée le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT). Sa trajectoire a été prévue 6 jours à l’avance et l’erreur a été, 2 jours avant qu'il n'atteigne New York, de quelque 70 kilomètres seulement, ce qui a constitué une amélioration nette par rapport aux prévisions précédentes et a certainement permis d'épargner des vies humaines. Il faut souligner les progrès importants sur la prévision de la trajectoire des ouragans, et Sandy en est un exemple. Vers les années 1970, la prévision à 3 jours de la trajectoire des CTs en Atlantique comportait des erreurs de l'ordre de 700 km; à l'heure actuelle, ces erreurs ont été divisées par 4 et la prévision à 5 jours comporte une erreur voisine de 300 km.

    Les spécialistes arrivent à déterminer assez bien leur trajectoire quelques jours en avance, mais anticiper l’activité cyclonique d’une région quelques mois en avance serait très bénéfique pour de nombreux secteurs : la protection des bâtiments et des populations, la gestion des ressources en eau. Ces prédictions saisonnières sont effectuées par le CEPMMT (avec un modèle dont la résolution est de 36 km), cependant elles nécessitent encore des progrès pour être fiables.

    Prenons pour exemple l'étude4 qui a porté sur les prévisions qui ont été effectuées sur le Nord de l’Atlantique, quelques mois avant la saison des CTs qui va de juillet à novembre. Généralement, une seule prévision étant peu crédible, on en effectue plusieurs, qui ont pour origine des dates décalées dans le temps, et qui permettent d'être plus confiants sur les résultats. En 2010, ces essais ont été couronnés de succès, comme le montre le schéma de la figure 2. Les différentes prévisions saisonnières effectuées successivement de mars à mai, indiquaient, pour la saison suivante, un nombre probable d'ouragans de 9 à 12, bien supérieur à la valeur moyenne de 6, et ceci a été tout à fait réaliste puisque les ouragans observés ont été au nombre de 11. Ce succès a permis d'espérer que les outils utilisés pour cette détermination étaient plus performants que dans le passé. Malheureusement, l’année 2013 n'a pas permis de confirmer cette avancée. Les différentes prévisions saisonnières avaient conclu que l'année serait presque normale, avec une fréquence de CTs de 6 ou légèrement supérieure; or 2013 fut l’année où on a eu le moins de cyclones depuis que l’on a des observations globales (voir figure 2).

     

    Figure 2: Prédiction et observations (en gris: 12 en 2010 et seulement 2 en 2013) d'une saison cyclonique en Atlantique Nord. L'activité intense de la saison 2010 a été bien prédite, mais en 2013, les études n'ont pas su prévoir la très faible activité des TC. Les points représentent les prédictions par différentes méthodes, avec leur écart type décrit par une barre. Les mois initiaux de chaque jeu de prédiction sont inscrits sur la figure.

    3- Les cyclones tropicaux et les modèles climatiques

    Généralement, un modèle global de climat (les Modèles de Circulation Générale ou MCG) ne peut véritablement décrire un ouragan car la maille du modèle est de l'ordre de la centaine de kilomètre. Réduire la maille est extrêmement coûteux et par conséquent, les expériences numériques dont la résolution est suffisante sont rares.

    Pourtant, pour évaluer la capacité des MCG à représenter les CTs, quelques simulations ont pu être conduites en réduisant la taille de la maille du modèle. C'est le cas au laboratoire de Princeton, le "Geophysical Fluid Dynamics Laboratory" (GFDL)5, où les chercheurs ont fait des simulations climatiques avec un MCG dont la maille a été réduite à 50 km. Ces expériences numériques ont démontré que la physique du modèle était suffisamment performante pour que des CTs apparaissent avec des caractéristiques assez satisfaisantes. Leur développement dans les différents bassins océaniques était présent, avec une évolution maximum de juillet à novembre, conforme à la réalité, ce qui est remarquable. Mais le caractère explosif des cyclones majeurs de catégorie 4 à 5 n'a pas été simulé par ce modèle et seuls, ceux de classe 1 à 3 ont pu être représentés. Malgré cette dernière difficulté, ce résultat rassure car il montre que, seule, une résolution insuffisante empêche les MCG de mieux représenter les cyclones et leur évolution avec le changement climatique.

    Malgré leur résolution insuffisante, les MCG ont été utilisés pour approfondir les connaissances sur les CTs. Pour détecter l'apparition et l'intensité des cyclones des modèles, les scientifiques ont développé des algorithmes simples basés sur des seuils de quantités locales telles que le tourbillon de vent (cette quantité mesure la rotation du vent qui s'amplifie lors du développement d'un cyclone), la pression, et la température de la haute troposphère, ou d'autres indices définis ci dessous au paragraphe 5. Ces études ont permis de confirmer le lien entre l'existence d'une année El Nino (la Nina) et l'affaiblissement (le renforcement) de l'activité cyclonique en Atlantique6. Ces relations ont été constatées sur les observations portant sur la période allant de 1981 à 2009. Plus la maille des modèles est fine et la résolution précise et plus performante est la représentation des CTs.

    L'influence du changement climatique (CC), résultant de l'émission anthropique des gaz à effet de serre (GES) sur l'activité cyclonique a été véritablement étudiée après les années 2000, même si quelques publications avaient tenté auparavant d'explorer le sujet. On a pu noter des désaccords sur les conclusions des nombreuses publications. En utilisant l'ensemble des MCG ayant participé au 4ième rapport du GIEC, des scientifiques ont montré que, en Atlantique, et sur l'Est du Pacifique, le cisaillement de vent7 augmentait avec le CC, ce qui inhibe l'intensification des cyclones; d'autres analyses, publiées bien après 2005, ont conclu que le nombre de cyclones8 diminuait dans cette région alors que des publications en 2005 annonçaient une augmentation du nombre et de l'intensité des CTs. Le débat entre scientifiques s'est instauré, certains utilisant des modèles qui obtiennent une augmentation de l'intensité ou du nombre de cyclones, alors que d'autres trouvent l'inverse. Nous revenons plus précisément sur ces résultats dans les prochains paragraphes. 

    4- Comment déterminer l’évolution des cyclones tropicaux 

    Comment évoluent, sous l'effet du changement climatique, la fréquence et l'intensité des cyclones tropicaux, ou encore la région où ils sont produits? La réponse à cette question présente des difficultés. Elle est encore débattue par les scientifiques, qui pourtant sont bien conscients de son importance majeure pour la société, eu égard aux désastres engendrés par ces situations météorologiques. 

    Les Observations 

    Les études sur l'évolution des CTs passés présentent deux difficultés. Tout d'abord la qualité des observations, en particulier avant leur détection par les satellites et d'autre part la longueur insuffisante des données du passé auxquelles on a accès. Définir un signal statistique fiable sur des événements rares (encore plus si l'on s'intéresse aux cyclones majeurs (de catégorie supérieure à 3) nécessiterait d'avoir des séries plus longues que celles dont on dispose.

    Les CTs sont assez rares, dans les différents bassins océaniques, malgré l'impression ressentie par le public. Ainsi, en Atlantique, où on a des enregistrements les plus complets, les études n'ont pas toujours été en accord. Sur le nord de l'Atlantique (figure 2) le nombre d'ouragans est en moyenne de 6 par an, avec des écarts type de l'ordre de 3. Néanmoins, certaines années, leur nombre peut être bien supérieur, ce qui peut faire penser à une tendance sur le long terme. Ainsi, on en a observé plus de 10 en 1995, en 2005 et en 2010. L'année 2005 a comporté 15 CTs particulièrement violents, dont l'ouragan Katrina, en Nouvelle Orléans, qui a fait plus de 1300 morts et 100 milliards de dégâts. De nombreuses publications ont alors affirmé que l'on assistait à une augmentation globale du nombre de CTs en Atlantique, ou de l'intensité des cyclones majeurs, ou de leur capacité de destruction9. La question suivante  a été alors posée: une telle évolution peut elle être attribuée au changement climatique lié aux émissions des gaz à effet de serre? Ces conclusions ont été réfutées par la suite, quand on a étudié des enregistrements plus longs10. Après 2005, le nombre de cyclones a nettement décru en Atlantique et certains en ont cherché la cause. Une hypothèse a été que les variations d'aérosols de la région ont eu une influence sur l'activité des CTs, mais cette explication n'a pas convaincu tous les chercheurs. L'activité cyclonique très forte en 2017, bien qu'inférieure à celle de 200511, a relancé les recherches sur les causes de cette intensification et certains l'ont reliée à la modification des températures de surface

    en Atlantique12. Sur le Pacifique, des études ont montré que le nombre de cyclones décroissait. Des chercheurs ont émis l'hypothèse que l'augmentation du nombre de CTs en Atlantique, certaines années, pouvait être compensée par une décroissance sur l'océan Pacifique13.

    Les dernières études14 montrent que, sur l'ensemble de la planète, le nombre total annuel  de perturbations tropicales (CTs et tempêtes) est de l'ordre de 87, avec une variabilité interannuelle importante: on en a compté 69 en 2010, et 108 en 1996. Parmi ces perturbations, 48 en moyenne correspondent aux cyclones de classe 1 ou plus. De même que pour l'Atlantique, les données globales reconstituées n'ont pu démontrer une tendance à l'augmentation ou à la réduction  du nombre total d'ouragans, même si la variation décennale, avec des minimums de 29 (comme en 1977, ou en 2008-2009), apparaissant sur la Figure 3, a pu induire des interrogations, voire même l'hypothèse d'une décroissance de leur nombre total, lors de l'analyse de séries moins longues.


     

    Figure 3: Fréquence (nombre de cyclones par an) des cyclones tropicaux (en rouge) et de l'ensemble des orages et des cyclones tropicaux (en noir) sur la planète. Chaque point correspond à une moyenne glissante sur 12 mois. Knutson et al15, 2019.

    Les études théoriques

    - Les indices

    Les Modèles MCG n'ont pas la résolution suffisante pour représenter les cyclones, sauf lors de quelques expériences spécifiques déjà soulignées. C'est pourquoi les physiciens ont défini à partir des propriétés de l'environnement, des indices liés à la violence des cyclones, et qui, eux, peuvent être déterminés par les MCG. Ils ont, par exemple, défini un indice qui correspond à la limite supérieure de l’intensité du cyclone16 en tenant compte de l’état de l’environnement, et l'ont nommé « intensité potentielle » du cyclone. Cette intensité potentielle (IP) est une estimation théorique du maximum d'intensité qu'un cyclone tropical peut atteindre dans un environnement aux caractéristiques thermodynamiques données. D'autres indices ont été définis pour mieux déterminer le pouvoir destructeur d'un cyclone, tout au long de son existence17.

    La relation entre la température de surface de l’océan et l’activité cyclonique est connue depuis longtemps. On a déjà noté que les cyclones tropicaux ne se développent que si la température de la mer est supérieure à 26-27°C. Cette condition a été souvent évoquée dans les médias, en particulier lorsqu'on prédit l'évolution de l'activité cyclonique provoquée par le réchauffement climatique. En effet, si les températures océaniques sont plus fréquemment supérieures à ce seuil, cette condition se trouve plus souvent réalisée. Cependant, la température supérieure à 26-27°C, seule, ne suffit pas à engendrer un cyclone: c'est une condition nécessaire mais non suffisante.

    En fait, cet indice IP est lié à l’instabilité de l’atmosphère, ce qui implique non seulement la température de surface mais le profil de température, mesuré depuis la surface jusqu'au haut de la troposphère (vers 12 km). C'est la raison pour laquelle il n'est pas évident qu'une température de surface plus chaude renforce l'intensité des cyclones. Les études conduites à l'aide des données des Centre de Prévision l'ont démontré, comme expliqué dans le paragraphe suivant.

    - Les réanalyses

    Pour calculer cet indice et son évolution ces dernières décennies, il était nécessaire d’avoir des données continues du profil de température et d’humidité sur les bassins océaniques. Ces quantités peuvent être fournies par les réanalyses des centres de prévision18, celui des USA (NCEP/NCAR) et le Centre Européen à Reading (CEPMMT). Ces centres de prévision emmagasinent chaque jour toutes les observations, satellitaires et in situ, les passent à travers des filtres qui utilisent des Modèles de Circulation Générale (MCG) pour obtenir des analyses que l’on distribue à la communauté scientifique. Ces opérations permettent chaque jour d’avoir une analyse de l’état de l'atmosphère et de l'océan la plus réaliste, compatible avec les données et les lois auxquelles est soumis le système climatique. Les réanalyses consistent à refaire ces opérations, à postériori, sur de longues périodes antérieures, avec les algorithmes les plus récents, ce qui permet d'obtenir des séries homogènes de l'état de l'atmosphère sur plusieurs années.

    La première évaluation de cette "intensité potentielle"  a été réalisée avec les ré analyses du NCEP/NCAR, aux USA. Cette étude a montré une augmentation de l’« intensité potentielle » au cours des dernières décennies. Cela a permis d’annoncer dans les médias et le public que les cyclones tropicaux étaient plus intenses au cours de ces derniers 30 ans. Cependant, d'autres études, moins médiatisées, ont questionné la fiabilité de ces résultats. Par exemple, ils ont souligné que l'intensité potentielle de certaines zones pouvait être réduite si les températures de la haute troposphère étaient mal évaluées19. De plus, certains scientifiques ont émis l'hypothèse que le réchauffement non local, mais relatif par rapport à celui de l'ensemble du bassin, influence l'énergie des cyclones.

    Une étude similaire a ensuite été effectuée en utilisant les réanalyses du CEPMMT20 pour décrire l'environnement, et n’a pas montré de croissance de cette intensité potentielle, mais au contraire un profil quasiment plat, avec des variations décennales (Figure 4). Ce résultat, contrasté, s'expliquait par le fait que les valeurs de température de la haute troposphère obtenues par les deux jeux des deux centres de prévision étaient différentes. Pourquoi et comment crédibiliser une de ces deux études par rapport à l'autre?

     

    Figure 4: Évolution de l'intensité potentielle annuelle moyenne des orages et cyclones tropicaux, et leur tendance à long terme. Les données utilisées sont MERRA (rose), ERA interim (bleu) (2 versions du CEPMMT) et NCEP en rouge. La tendance sur les données du CEPMMT n'est pas significative.

    Les auteurs ont fait bien mieux que de constater cette différence entre les 2 jeux de données. Grâce aux progrès des suivis de cyclones tropicaux par satellites21, ils ont calculé l'indice pour chacun des cyclones observés, en suivant sa trace plutôt que de faire une étude sur les paramètres climatiques obtenus par les centres de prévision sur toute la région environnante. Et ils ont vérifié que les mesures, chaque année, de la température au sommet du cyclone observé était en accord avec les réanalyses ERA-interim du CEPMMT et était en désaccord avec ces réanalyses NCEP/NCAR. Les températures de la troposphère analysées par le CEPMMT sont donc plus réalistes que celles du NCEP pour ces deux jeux de réanalyses: l'intensité potentielle n'a pas varié significativement.

    - Résultats des MCG

    Les chercheurs ont utilisé les indices déjà décrits pour détecter des modifications des cyclones tropicaux que leurs modèles représentaient, quand ils prescrivaient une augmentation des gaz à effet de serre. Un certain nombre de publications, vers les années 2000, ont conclu à une augmentation de l'intensité des cyclones, et cela a eu une résonance importante dans les médias.

    Depuis, des développements significatifs ont permis de progresser de manière importante dans la connaissance et la représentation de ces cyclones. Tout d'abord, on a pu augmenter la résolution de certains MCG, ce qui a eu un impact considérable sur la confiance que l'on pouvait avoir sur leurs résultats. De plus, des techniques sophistiquées ont été introduites pour résoudre les échelles adaptées aux cyclones par des méthodes de désagrégation: elles consistent à associer aux MCG, des modèles régionaux, de résolution bien plus fine, de 50 km ou de 18 km22 pour mieux définir la dynamique du cyclone; certaines études ont même associé, en descendant à une échelle encore plus fine, un modèle de cyclone, à 9 km de résolution pour représenter les ouragans les plus intenses. Ces analyses ont donné lieu à un ensemble de résultats qui ont paru bien plus convaincants que les simples résultats brut obtenus par les GCM, de résolution de l'ordre de la centaine de kilomètre.

    Les exercices effectués dans le cadre du GIEC, en particulier pour le rapport AR5, publié en 2013, ont permis d'étudier cette évolution (leur intensité, leur nombre, leur trajectoire) en tenant compte de l'ensemble des MCG qui participaient au GIEC, ce qui implique une plus grande confiance accordée aux résultats.

    Il faut noter que ces évaluations comportent deux hypothèses: d'une part, que le changement du climat régional des zones tropicales est calculé de manière réaliste par les modèles et que, d'autre part, les indices qui sont utilisés soient des indices valables dans un climat plus chaud. Notons au passage une difficulté: les CTs de classes 4 et 5, plus difficiles à représenter, sont ceux qui importent le plus car, s'ils représentent 6% d'occurrence de ces événements, ils sont responsables de 50% des dommages économiques.

    S'appuyant sur ces méthodes, un grand nombre d'études ont été publiées. Elles déterminent l'évolution des cyclones en Atlantique, sur le Pacifique, ou les autres bassins; certains se sont intéressés au nombre de cyclones, d'autres à l'évolution de leur intensité. Certains ont publié des résultats pour la proportion de cyclones les plus violents (classe 4 et 5). Ces résultats présentent des accords partiels mais encore des désaccords, ce qui démontre simplement la complexité du sujet, qui n'est toujours pas maîtrisé.

    - Conclusions des spécialistes

    Étant données la complexité et la diversité des résultats, et, en même temps, l'importance de ces études vis à vis de la société, onze spécialistes internationaux du domaine, dont la compétence est reconnue, ont publié un article en commun23, en décembre 2019, pour faire le point des connaissances et décrire leurs certitudes, incertitudes, questionnements sur l'évolution des cyclones face au changement climatique. Ils se sont placés dans l'hypothèse d'une augmentation du réchauffement global de 2°C et ont analysé plus de 130 publications sur le sujet. Leurs conclusions sont les suivantes:

    - Les études scientifiques ne permettent pas d'affirmer que le nombre de CTs augmente, même si un chercheur sur les onze en est convaincu.

    - Il est possible que la proportion des CTs les plus intenses (les classes 4 et 5) augmente, au détriment des ouragans moins intenses. Les auteurs soulignent que ceci n'implique pas que le nombre total de cyclones de classe 4 et 5 augmente, mais que leur pourcentage par rapport au nombre total augmenterait dans l'hypothèse où le nombre de CTs serait réduit globalement.

    - Ils accordent une confiance moyenne ou peu de confiance aux modèles qui montrent une diminution du nombre de cyclones, même si la plupart des expériences numériques l'obtiennent. Leur argument est que cette variation n'est pas observée à l'heure actuelle. La question "pourquoi les modèles simulent en général (mais pas tous) une diminution de la fréquence des cyclones" n'a pas encore reçu de réponse tout à fait satisfaisante malgré les recherches qui ont proposé des mécanismes possibles.

    - On a observé, ces dernières années, un ralentissement du déplacement des cyclones sur leur trajectoire. Ceci a pour effet d'intensifier les dommages subis en un endroit donné et peut expliquer une partie de l'augmentation des dommages sur les zones habitées, comme cela a été constaté pour le cyclone Dorian, en 2019. Le consensus pour cette affirmation n'est pas total, cependant. Notons, de plus, que cet effet doit être distingué du fait que des évolutions socio-économiques ont provoqué une augmentation des coûts des dommages, constaté par les compagnies d'assurance.

    - Certaines publications ont émis l'hypothèse d'un déplacement vers le Nord de la région d'apparition des cyclones, et pouvant toucher Hawaï, quand cette translation a lieu sur le Pacifique. Cependant, suivant les auteurs, les zones concernées sont un peu différentes, et le consensus n'est pas établi. Bien que la latitude du maximum d'intensité des perturbations sur l'ouest du Pacifique se soit décalée depuis les années 1940, vers le Nord, cette proposition n'est pas considérée comme robuste par l'ensemble des spécialistes.

    - Il y a cependant un résultat qui est énoncé avec plus de conviction par ces chercheurs: le taux de précipitation augmentera avec le réchauffement climatique, car cet effet est basé sur une théorie thermodynamique solide, et les simulations des modèles sont en accord avec cette modification. Le fait de ne pas l'avoir détecté sur les observations tempère cette conclusion, mais elle reste affirmée par un certain nombre de ces spécialistes.

    Quand on lit attentivement chacune de leurs remarques, on est frappé par leur prudence et les marges d'incertitude qu'ils veulent porter à la connaissance des autres spécialistes climatologues. Il serait important que les médias nous aident à rapporter vers le public cette attitude rigoureuse et nuancée. 

    Conclusions

    Les études que nous avons décrites montrent, à l'évidence, que tout n'a pas été dit sur le futur des cyclones et que certaines contradictions entre chercheurs demeurent. Il est possible que de plus longues observations soient nécessaires pour démontrer ou confirmer certains résultats, comme l'évolution de l'intensité des cyclones avec le changement climatique en cours. Leur déplacement en latitude, le ralentissement du déplacement du cyclone sur sa trajectoire, ou la proportion de cyclones majeurs (car ceux de faible intensité diminuent en fréquence) donnant lieu à des dommages plus importants localement, tous ces facteurs induisent une inquiétude compréhensible.

    Il est indéniable que si la résolution des modèles globaux pouvait atteindre 10 kilomètres, voire même moins, la représentation de la convection et des cyclones en serait nettement améliorée, et partant, leur évolution provoquée par le changement climatique sur de longues simulations, évaluée avec plus de fiabilité. Deux éminents spécialistes du climat24 ont proposé que la communauté internationale des scientifiques milite pour obtenir des ordinateurs dont la puissance serait multipliée par 1 000 000, de telle sorte qu'on puisse faire des expériences numériques avec des MCG de 1 kilomètre de résolution. Ce type de développement apporterait un outil plus performant et des réponses plus fiables pour comprendre, en particulier, l'évolution de ces événements extrêmes si dévastateurs.

    1 Cette échelle (de Saffir-Simpson) étant définie en miles par heure, les valeurs limites de chaque classe ne correspondent pas à des chiffres ronds

    2 http://www.meteofrance.fr/actualites/61768048-saison-cyclonique-2017-l-omm-fait-le-bilan-pour-l-atlantique

    3 Le cisaillement est la variation de la vitesse du vent entre les hautes altitudes et les basses altitudes. Conventionnellement, on le calcule en prenant la différence du vent entre les niveaux 200 hPa et 850 hPa

    4 Vecchi, G. A. and G. Villarini. Next Season's Hurricane, Science 343, 2014

    5 Zhao M., I. Held, S-J Lin, and G. A. Vecchi. Simulations of global hurricane climatology, interannual variability, and response to global warming using a 50-km resolution GCM.Journal of Climate, 2009

    6 Depuis quelques années, on a différentié deux modes El Nino, un mode à l'est (EP), et l'autre au centre (CP) de l'océan Pacifique. Le mode EP est l'El Nino conventionnel avec des anomalies chaudes de la surface sur l'est du Pacifique tropical alors que le mode CP, noté Modoki, est un mode où les anomalies les plus chaudes sont situées au centre du Pacifique. Le lien entre les CP El Nino et les ouragans est moins bien établi que celui avec les années EP El Nino.Voir Wang et al, J. Climate, 2014

    7 Vecchi G. A. et B. J. Soden, Increased tropical Atlantic wind shear in model projections of global warming., Geophys. Research Letters, 34, 2007

    8 Zhao M. et al, An analysis of the effect of global warming on the intensity of Atlantic hurricanes using a GCM with statistical refinement, J. Climate, 23, 2010 ou encore Knutson et al, Dynamical downscaling projections of twenty-first century Atlantic hurricane activity, Journal of Climate, 2013

    9 Webster P. J., et al, Changes in tropical cyclone, number, duration, and intensity in warming environment, Science, 309, 2005. Ou Emanuel K., Increasing destructiveness of tropical cyclone over the past 30 years, Nature, 436, 2005

    10 Chan, J. C. L., Comments on "Changes in tropical cyclone, duration, and intensity in warming environment, Science, 311, 2006

    11 En 2005, la saison cyclonique reste exceptionnelle en Atlantique nord, avec 14 ouragans dont 7 majeurs

    12 Murakami H. et al, Dominant effect of relative tropical warming on major hurricane occurrence, Science, 2018

    13Wang C and S.K. Lee, Co-variability of tropical cyclones in the north Atlantic and the eastern North Pacific, Geophysical Research Letters, 36, 2009

    14 Maue, Recent historically low global tropical cyclone activity, Geophysical Research letters, 38, 2011

    15 Knutson et al, Tropical cyclones and climate change assessment; Detection and attribution, Bulletin of American Meteorological Society, Octobre 2019

    16 Emanuel K., Thermodynamic control of hurricane intensity, Nature, 401, 1999.Cet indice définit le carré du maximum de la vitesse du cyclone.

    17 Deux autres indices rendent mieux compte des dommages que le cyclone peut engendrer sur son passage. L'un mesure le cube de la vitesse du vent tout au long de la vie du cyclone (Emanuel (2005), et l'autre mesure l'énergie accumulée par le cyclone (Bell et al, 2000)

    18 Voir la Faq sur le site du "Club des Argonautes": http://www.clubdesargonautes.org/faq/modèles-numériques-météo-climat.php

    19 Vecchi G. A. et al, Impact of atmospheric temperature trends on tropical cyclone activity. Journal of Climate, 2013

    20 Kossin J. P., Validating atmospheric reanalysis data using tropical cyclones as thermometers.Bulletin of American Meteorological Society, 2014

    21 Ils ont utilisé une technique basée sur le signal infrarouge mesuré par satellite et qualifiée de "Advanced Dvorak Infrared Technique améliorée"

    22 L'imbrication d'un modèle régional dans un MCG est la méthode classique qu'utilisent les centres de prévision météorologique pour fournir aux citoyens des prévisions du temps précises au niveau régional. La NOAA utilise systématiquement un modèle régional, de 18 km de résolution, imbriqué dans un GCM pour la prévision des cyclones. Le Centre Européen CPMMT fait tous les jours une prévision probabiliste à 15 jours d'échéance de l'activité cyclonique avec une résolution de 18 km

    23 Voir Note 15

    24 Palmer T. and B. Stevens, The scientific challenge of understanding and estimating climate change, PNAS, 2019

  • Publication dans "The Guardian" : Arctic time capsule from 2018 washes up in Ireland as polar ice melts. Une histoire charmante mais inquiétante.

  • L'accord de Paris sur le climat a été signé il y a cinq ans à l' issue de la COP 21.

  • Laurent Labeyrie 

    La réponse de la calotte glaciaire groenlandaise au réchauffement anthropique constitue une des grandes interrogations scientifiques des dernières dizaines d’années, d’autant plus que la zone polaire arctique s’échauffe approximativement quatre fois plus vite que la tendance globale.
    Chaque année, la calotte perd de la masse, et la banquise disparaît de plus en plus vite en été.


    grace ice mass

    Cliquer sur l'image pour voir les pertes de masse de la glace au Groenland. Source NASA

    Les spécialistes s’accordent sur le fait que cette calotte ne pourrait subsister à long terme sur une Terre à +5°C, celle d’il y a plus de 10 millions d’années. Sa fonte complète élèverait de +7,2 m environ le niveau marin moyen. Ce serait la totalité des zones côtières et des plus grandes villes qui se verraient impactées, des centaines de millions d’habitants dont le cadre de vie disparaîtrait.
    Toutefois l’inertie des calottes de glace est considérable : les données paléoclimatiques et la modélisation à long terme des calottes glaciaires concourent à montrer qu’une fonte de la calotte groenlandaise de plusieurs mètres d’équivalent niveau de la mer n’apparaît concevable, même avec les scénarios les plus extrêmes, qu’à l’échelle de plusieurs centaines d’années. Le GIEC, dans son rapport AR5 (1) envisage pour la fin du siècle et suivant les scénarios climatiques, une fonte limitée à 20 à 30 cm équivalent niveau de la mer, mais en utilisant des modèles encore loin de pouvoir prendre en compte tous les processus significatifs des interactions glace climat. La presse, de son coté, s’est fait l’écho cette année de propos alarmistes sur des déséquilibres «irréversibles» des glaciers groenlandais.

    Qu’en est-il ?

    La calotte glaciaire, étendue sur 20° de latitude entre 61°et 81° de latitude nord, couvre environ 80% du territoire groenlandais, avec un volume voisin de 2,8 millions de km3 (soit une masse voisine de 2,5 millions de Gt) et une surface voisine de 1,7 millions de km2 (soit une épaisseur moyenne de 1 600 m) . Elle est installée dans une vaste cuvette s’enfonçant jusqu’à quelques centaines de mètres sous la surface de la mer, entourée d’un bourrelet de plateaux et montagnes de 500 à 2 000 m environ d’altitude, topographie dictée par les ré-équilibrages de la croûte terrestre sous le poids de la masse glaciaire. La calotte s'ouvre vers la mer par des glaciers entaillant ce bourrelet périphérique. Ils alimentent généralement des banquises flottantes dans des fjords, quand ils n’ont pas régressé, ancrés sur le socle en amont des fjords. 

     Carte de la calotte glaciaire groenlandaise

    Figure 1A :Épaisseur de la calotte groenlandaise
    Figure1B  : Topographie du socle, adaptées de wikipedia-Inlandsis du Groenland.
    Figure 1C : Topographie de la calotte et distribution des glaciers périphériques (MNT SRTM à 90 m), communication P. Chevallier

    Cette calotte est apparue progressivement, comme les autres calottes arctiques (nord-américaines et européennes), il y a moins de 10 millions d’années, en conséquence du refroidissement de la surface terrestre (de l’ordre de 10°C) qui a accompagné l’Ère Tertiaire (2) . Les surfaces couvertes par ces calottes, se sont progressivement étendues vers les latitudes plus basses avec l’accentuation des périodes froides des derniers millions d’années. La calotte groenlandaise est devenue semi-permanente il y a environ 3 millions d’années (le Pliocène), son volume étant modulé, comme celui des autres calottes polaires, par les variations climatiques liées aux oscillations des paramètres astronomiques de l’orbite de la Terre autour du soleil (3). Lors des principaux interglaciaires du dernier million d’années (le Pléistocène), périodes pendant laquelle les températures globales étaient supérieures de +2 à +4°C à la référence préindustrielle, le volume de la calotte groenlandaise pourrait avoir temporairement décru jusqu’à moins de 50% du volume actuel, avec une contribution de quelques mètres sur la montée du niveau de la mer (4), mais les données disponibles restent en partie ambiguës, et la modélisation très fragmentaire. Les mêmes incertitudes existent pour le dernier interglaciaire, il y a 125 000 ans (5).

    Les calottes Nord-Américaines et Européennes, elles, ont disparu à chaque interglaciaire, comme c’est le cas actuellement, pour ne laisser que quelques glaciers isolés en montagne et aux latitudes les plus nordiques. La plus grande réactivité de ces calottes se retrouve aussi en période glaciaire : la calotte Groenlandaise ne gagne alors qu’environ 50 % de volume par rapport à l’actuel (-3 à -4 m d’équivalent niveau de la mer), alors que les calottes américaines et européennes stockent ensemble pas loin de 100 m d’équivalent niveau de la mer à leur maximum d’extension. Nous sortirions progressivement de l’interglaciaire actuel, avec une nouvelle glaciation dans plusieurs dizaines de milliers d’années, si le réchauffement actuel d’origine anthropique n’en avait interrompu, au moins provisoirement, l’évolution.

    Comme pour tout glacier, la glace de la calotte est formée à partir de l'accumulation des neiges, et disparaît par la fonte estivale et l’écoulement progressif vers les vallées. La calotte se développe dans une zone pour laquelle l’apport (glaces fluant de l’amont et chutes de neige hivernales) dépasse l’export (écoulement vers l’aval de la glace et de l’eau de fonte estivale). Sa croissance est donc favorisée par l’abondance des chutes de neige en période froide. Neige et glace sont érodées par la fonte estivale de surface (ou par la fonte basale si le sous bassement (socle ou marin) est suffisamment chaud) et l’écoulement des eaux de fonte, et par le glissement des masses glaciaires vers l'océan. La vitesse de glissement du glacier dépend de sa structure (liée à son histoire), sa température (qui agit sur les propriétés mécaniques de la glace), de son poids (l’épaisseur de la glace), de la pente (faible ou même inversée dans les zones centrales, souvent forte en bordure périphérique), des frictions basales (modulées en particulier par l’existence d’eau liquide à la base), et d’obstacles éventuels au glissement (par exemple si le glacier butte sur une autre plateforme glaciaire ou s’accroche sur un sous-bassement rocheux).

    Considérons d’abord les bilans de surface accumulation de neige versus fonte estivale. Les précipitations neigeuses sont absentes des zones soumises à l’air polaire hivernal, sec et très froid, en grande partie issu de la stratosphère. La croissance des calottes uniquement sous leur influence est nulle. La neige ne tombe qu’associée à la pénétration de fronts dépressionnaires d’air plus chaud et humide, issus des latitudes plus basses ou de systèmes ayant échangé avec des eaux océaniques chaudes. La température moyenne de l’air au-dessus de la calotte ne joue donc pas le même rôle si elle est froide (en dessous de -20°C à -10°C) ou plus chaude. Tant qu’elle est froide, la probabilité de fortes chutes de neige augmente avec la température moyenne annuelle. Mais le nombre de jours de dégel augmente aussi. Au cours d’une période de réchauffement climatique comme l’actuel le basculement entre excès d’accumulation (donc croissance) et excès de fonte (donc décroissance) dépend de la variabilité saisonnière des températures et de la climatologie. Exprimée dans une relation bilan glaciaire local par rapport à la température moyenne annuelle, Ruddiman plaçait cette ligne d’équilibre entre -5°C et -10°C, la fonte de la calotte accélérant rapidement au-dessus de cette limite (Figure 2).

    Dynamique calottes glaciaires.
    Figure 2 : schéma général de la dynamique des calottes glaciaires : Balance de masse en fonction de la température moyenne annuelle, repris à partir des travaux de Ruddiman et d’Oesterman (6) (en bleu le domaine de croissance, en rouge celui de fonte), sur lequel sont replacés les domaines approchés de la variabilité climatiques de la calotte groenlandaise actuelle, pour la zone centrale (en vert) et la périphérie (en orange)

    Avec une température moyenne annuelle entre -5°C et -10°C limitée uniquement aux zones proches des bordures marines, et plus près de -20°C au centre, la calotte groenlandaise devrait suivant ce schéma être essentiellement stable ou en croissance. Les simulations de balance de masse de surface (accumulations neigeuses - fonte superficielle) réalisées dans le cadre du programme international CMIP6 (7a) montrent que c’est le cas actuellement, avec un excès de la balance de surface voisin de 300 Gt/an. Le passage à un bilan superficiel déficitaire est prévu autour de 2050. Par contre, le schéma de Ruddiman ne prend pas en compte l’écoulement glaciaire qui joue en fait un rôle considérable pour la calotte groenlandaise 7b).

    La zone particulièrement sensible au contrôle des écoulements glaciaires est celle de l’interface entre la calotte centrale, ancrée sur son socle rocheux, à écoulement lent (de l’ordre de quelques cm à quelques m/an), mais qui constitue l’essentiel de la masse glaciaire et les fleuves glaciaires et glaciers périphériques qu’elle alimente, qui peuvent s’écouler localement à des vitesses dépassant le km/an (8)  : comme nous l’avons vu, l’écoulement de ces glaciers et «fleuves glaciaires» est contraint par leur pente (souvent forte, à la sortie du bourrelet périphérique) et la température (plus élevée à l’approche de la mer). La géométrie en U des vallées glaciaires sous-jacentes, rabotées par l’érosion glaciaire depuis des millions d’années, et dont la base est proche du niveau de la mer souvent jusqu’à plus de 100 km à l’intérieur des côtes facilite aussi l’écoulement (9). Ce sont ces glaciers qui alimentent les plateformes glaciaires flottantes périphériques.

    Alors que les vitesses d’écoulement de la partie centrale de la calotte ont tendance à diminuer depuis l’an 2000, les vitesses d’écoulement dans les zones alimentant des banquises flottantes ont, elles, tendance à accélérer, en lien avec le réchauffement des eaux périphériques (10) : Les banquises fondent au contact des eaux océaniques, deviennent plus fragiles et se libèrent ainsi d’une partie de leurs ancrages sur le socle rocheux, facilitant la formation d’icebergs. Cette érosion facilite l’écoulement des glaciers en amont, les flux à l’interface glacier ancré/banquise flottante dépendant fortement de l’épaisseur de glace à l’interface (11).

    Du fait des incertitudes sur la stabilité de la calotte groenlandaise face au réchauffement climatique, elle fait l'objet de nombreuses études, en particulier par satellites, mais aussi par radar et lidar aéroportés, depuis les années 1990. Une attention particulière est portée sur la continuité des observations de suivi de l'évolution des vitesses d'écoulement, de l'altimétrie, de la gravimétrie, et de la cartographie des fontes estivales. (encart satellites d’observation).

     

    L’observation de la calotte groenlandaise par satellites à orbite polaire

    Après les premières informations obtenues par les satellites imageurs optiques au-début des années 1960, les premières mesures dédiées à l’observation des glaces remontent au début des années 1990. L’imagerie optique a en effet vite été jugée trop limitée, car elle n’est pas utilisable pendant la nuit polaire et en présence de nuages.

    Trois types de mesures sont principalement utilisés :

    L’imagerie radar à synthèse d’ouverture (SAR) permet, par suivi temporel, de cartographier l’évolution des limites englacées, et de visualiser les changements de distribution d’éléments reconnaissables de la surface glaciaire, et ainsi des vitesses d’écoulement des glaciers. La technologie SAR permet de plus, grâce au mode interférométrique de mesurer directement des variations d’altitude de la surface de glace. En Europe les missions ERS1 et 2, ENVISAT puis aujourd’hui Sentinelle 1 (Programme Copernicus) ont permis un suivi quasi continu des glaces des calottes polaires depuis 1991, en complément d’autres missions comme RADARSAT (Canada) observant en particulier les glaces depuis 1995.

    L'altimétrie, radar ou optique (lidar), permet de mesurer le profil de variation le long de la trace du satellite de l’altitude de la surface des glaces. Cette altitude est déduite de leur distance à la surface d’un satellite dont l’altitude est connue en permanence de façon précise. La distance peut-être mesurée par lidar (NASA ICESAT 2003-2009 puis ICESAT 2 2018- ) ou par radar altimètre, altimètres multi missions (ESA ERS1-2, ENVISAT puis Sentinelle 3 du programme Européen Copernicus) et tout particulièrement par la mission CRYOSAT 2 (ESA 2010- ) dont l’instrument radar a été optimisé pour les mesures sur glace (mode interférométrique) et l’orbite choisie pour le suivi des zones polaires (inclinaison de 92°).

    La gravimétrie permet de mesurer les variations de la répartition des masses de la terre : la mission GRACE (NASA et DLR, 2002-2017) suivie de GRACE-FO (lancé en 2017) fonctionne avec 2 satellites qui orbitent en tandem et mesurent les variations de leur distance respectives dues aux variations de la gravité locale. Au-dessus des zones polaires ces satellites fournissent ainsi très directement les changements affectant les masses de glace (répartition, fonte ou accumulation).

    Bulletin 2014 World Meteorological Organization

     

    Le bilan de masse total, différence entre l'accumulation de neige, et l'export dû à la fonte et aux écoulements hors des zones ancrées sur le socle continental, a ainsi pu être reconstitué à partir de 1972 pour les différentes zones du Groenland, en regroupant l'ensemble des données satellitaires disponibles depuis le programme Landsat (et celles de type altimétrie, vélocité puis gravimétriques pour les années plus récentes) et en les traitant grâce à des modèles climatiques régionaux7(Mouginot et al. 2019). Une grande variabilité décennale et régionale des bilans de masse de surface apparaît sur cette période, liée à la fois à l’apport plus ou moins important de neige issue des dépressions sub-polaires ou au contraire à des fontes estivales exceptionnelles (comme pour l’été 2019). Cette variabilité s'ajoute à une tendance marquée à la baisse de la masse glaciaire depuis les années 1980, tendance surtout marquée après 2000, avec un export de glace voisin de 500 Gt/an depuis 2010. Sur l'ensemble de la période 1972-2018, le Groenland aurait contribué pour 14 mm à la hausse du niveau de la mer global, 2/3 de cette valeur étant liée à l'augmentation de l'écoulement glaciaire, et 1/3 à la diminution du bilan de masse lié à la fonte en surface. En ce qui concerne l'aspect régional, les auteurs de cette étude montrent l'importance de plus en plus grande que prennent les écoulements glaciaires du nord du Groenland, là où le réservoir de glace est le plus large (ce ne sont pas forcément de bonnes nouvelles pour les dizaines d'années à venir) (12).

     Il faut toutefois signaler l'importance des incertitudes dans les reconstitutions de bilan de masse et leur évolution, ce qui limite les possibilités de prédiction de l'évolution à long terme de la calotte Groenlandaise. Une des principales causes d’incertitude dérive de l'insuffisance des connaissances sur les réajustements verticaux de la croûte sous glaciaire à la suite des changements de pression (épaisseur de glace) liés à l’évolution des périodes de croissance et fonte passées, ces réajustements intégrant l’ensemble de l’histoire de la calotte depuis la dernière déglaciation, il y a plus de 10 000 ans. La seconde source majeur d’incertitudes vient de la difficulté de quantifier de façon précise les rétroactions entre dynamiques océaniques, atmosphériques et glaciaires aux différentes échelles de temps. La synthèse des prédictions résultant des différents modèles climatiques et glaciaires réalisée en 2020 par Marzeion et al (13) donnerait, suivant les scénarios, une contribution de 5 à 10 cm à l’augmentation globale du niveau de la mer pour 2100 (elle-même de 0,8 à 1,6 m entre les scénarios les plus contraignant (RCP2,6 voir Scénarios GIEC) et les moins contraignant (RCP8,5). Une modélisation plus détaillée de l’écoulement des fleuves de glace a été publiée en 2019 (14), forcée par les distributions de températures issues des modèles GCM CMIP5 et des scénarios du GIEC pour 2100, extrapolés en s’appuyant sur les expériences CMIP 5 poussées jusqu’à 2300. Suivant les scénarios, la fonte de la calotte provoquerait une montée du niveau de la mer de 5 à 33 cm en fin de siècle. Les différences du simple au triple pour le scénario RCP8,5 entre ces deux synthèses donne une idée des incertitudes encore présentes dans ces estimations. Mais quels que soient les chiffres finaux, les impacts liés au réchauffement arctique et à la fonte ainsi estimée seront considérables tant pour les populations et l’économie du Groenland et des nations périphériques, que pour l’environnement et la climatologie arctiques.

    Enfin, bien que l’impact global en terme de niveau de la mer resterait assez limité au cours du XXIème siècle, on peut toutefois craindre, comme signalé en introduction, que la déglaciation du Groenland ne devienne quasi complète à l’échelle des prochains millénaires en l’absence de fortes mesures d’atténuation des émissions. 


    Notes

    1 IPCC. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (Cambridge Univ. Press, 2013). 

    2 Les fluctuations climatiques à grande échelle sont attribuées aux interactions entre évolution tectonique et climatique globale. Le refroidissement progressif de l’Ère Tertiaire fait suite au démantèlement depuis le Trias des super-continents issus de la Pangée. L’ouverture de l’Océan Atlantique, de l’océan Indien et la migration vers le pôle sud du continent Antarctique a permis le développement d’une circulation océanique péri-Antarctique et l’apparition de la calotte Antarctique il y a environ 30 millions d’années. La disparition de la grande boucle équatoriale de circulation des eaux de surface et intermédiaire séparant les continents américains nord et sud d’une part, et l’Afrique du bloc Europe-Asie d’autre part a accompagné l’évolution vers la distribution continentale actuelle, il y a environ 3 millions d’années.

    3 L’alternance des épisodes glaciaires/interglaciaires du dernier million d’années et les changements climatiques associés ont été étudiés à partir des forages sédimentaires réalisées dans les différents bassins océaniques et le forage de glace de Vostok en Antarctique, complétés par de très nombreuses autres données pour les derniers 100 à 200 00 ans. Cette alternance est principalement modulée par les oscillations de l’orbite terrestre autour du soleil et les changements de l’insolation estivale aux hautes latitudes de quelques dizaines de W/m2 qui en résultent (cycles de « Milankovitch » avec des périodicités voisines de 20 et 40 000 ans, voir la FAQ). Le creusement par l’érosion à long terme des lits et pénéplaines glaciaires a facilité l’étalement des calottes et leur stabilité, permettant la succession des grands cycles glaciaires interglaciaires de 100 000 ans de périodicité qui ont rythmé les derniers 600 000 ans. Lors des périodes de plus basse insolation estivale, les calottes s’étendent vers les latitudes moins septentrionales (en particulier sur les continents nord-américain et européens), pour régresser fortement, au contraire, lors des pics d’insolation estivale à hautes latitudes. Le début du dernier interglaciaire, il y a 125 000 ans, correspond à un maximum d’insolation estivale de l’hémisphère nord (autour de +60 w/m2 par rapport à l’actuel, en juin à notre latitude), lié au cycle de précession (24 000 ans), qui était approximativement en phase avec un maximum d‘inclinaison de l’axe de rotation (cycle de 40 000 ans) et un maximum d’excentricité de l’orbite terrestre (cycles de 100 et 400 000 ans). L’interglaciaire actuel, débuté il y a 10 000 ans, correspond à un maximum d’insolation estivale sur l’hémisphère nord (autour de 40 W/m2 par rapport à l’actuel, en juin à notre latitude) lié à l’obliquité et la précession, mais pour lequel l’excentricité est à son minimum.

    4 Schaeffer et al Greenland was nearly ice-free for extended periods during the Pleistocene, Nature, 540, 252, 2016

    5 Oppenheimer, M., B.C. Glavovic , J. Hinkel, R. van de Wal, A.K. Magnan, A. Abd-Elgawad, R. Cai, M. Cifuentes-Jara, R.M. DeConto, T. Ghosh, J. Hay, F. Isla, B. Marzeion, B. Meyssignac, and Z. Sebesvari, 2019: Sea Level Rise and Implications for Low-Lying Islands, Coasts and Communities. In: IPCC Special Report on the Ocean and Cryosphere in a Changing Climate [H.-O. Pörtner, D.C. Roberts, V. Masson-Delmotte, P. Zhai, M. Tignor, E. Poloczanska, K. Mintenbeck, A. Alegría, M. Nicolai, A. Okem, J. Petzold, B. Rama, N.M. Weyer (eds.)].

    6 Figure adaptée de la Figure 10-1 in W.F. Ruddiman Earth’s Climate Past and Future ED W.H. Freeman and Company N.Y. 2001, à partir de J. Oerlemans “The role of Ice Sheets in the Pleistocene Climate” Norsk Geologisk Tidsskrift 71 (1991) 155-61

    7a Hofer et al. Greater Greenland Ice Sheet contribution to global sea level rise in CMIP6 NATURE COMMUNICATIONS (2020) 11:6289 //doi.org/10.1038/s41467-020-20011-8 

    7b J. Mouginot, et al. Forty-six years of Greenland Ice Sheet mass balance from 1972 to 2018. PNAS (2019 ) vol. 116 no. 19 9239–9244 doi/10.1073/pnas.190424ant2116 )

    8 Peyaud V. Rôle de la dynamique des calottes glaciaires dans les grands changements climatiques des périodes glaciaires-interglaciaires. Climatologie. Université Joseph-Fourier - Grenoble I, 2006.

    9 Morlighem, M et al. Deeply incised submarine glacial valleys beneath the Greenland ice sheet Nat. Geosci. MAY 2014, DOI: 10.1038/NGEO2167

    10 Tedstone, A., Nienow, P., Gourmelen, N. et al. Decadal slowdown of a land-terminating sector of the Greenland Ice Sheet despite warming. Nature 526, 692–695 (2015). https://doi.org/10.1038/nature15722

    11 Schoof C. Ice sheet grounding line dynamics: Steady states, stability, and hysteresis Journal of Geophysical Research, V. 112, F03S28, doi:10.1029/2006JF000664, 2007
    Rignot, E. and 6 others. 2008. Recent Antarctic ice mass loss from radar interferometry and regional climate modelling. Nature Geosci., 1(2), 106–110

    12 Les médias ont répercuté cet été 2020 des nouvelles assez « catastrophistes » de la fonte de la calotte, qui serait devenue « irréversible ». Cette inquiétude est liée à une interprétation incomplète de l’étude sur la dynamique des glaciers côtiers réalisée par King et ses coauteurs (ref ci-dessous). Ils montrent, à partir d’une nouvelle synthèse de données prenant en compte en particulier les déplacements des falaises frontales glaciaires en limite marine, que celles-ci régressent de plus en plus vite vers l’intérieur des fjords sous l’influence du réchauffement côtier (14% d’accélération en 30 ans, surtout après les années 2000). L’écoulement des glaciers périphériques s’est accéléré en réponse (en particulier dans la période 2000-2003). Cette érosion apparaît relativement constante depuis 2003, ce qui fait penser aux auteurs que ce nouveau régime d’érosion des glaciers côtiers peut se poursuivre indépendamment du forçage climatique. Mais nulle part, les auteurs envisagent que ce processus se transmette à l’ensemble des glaciers ancrés sur le socle des zones centrales de la calotte, et annonce sa destruction finale!
    Michalea D. King, Ian M. Howat, Salvatore G. Candela, Myoung J. Noh, Seonsgu Jeong, Brice P. Y. Noël, Michiel R. van den Broeke, Bert Wouter & Adelaide Negrete Dynamic ice loss from the Greenland Ice Sheet driven by sustained glacier retreat. Communication Earth and Environment (2020) 1:1 //doi.org/10.1038/s43247-020-0001-2

    13 Marzeion, B., Hock, R., Anderson, B., Bliss, A., Champollion, N., Fujita, K., et al. (2020). Partitioning the uncertainty of ensemble projections of global glacier mass change. Earth's Future. 8, e2019EF001470. https://doi. org/10.1029/2019EF001470

    14 Aschwanden A. et al Contribution of the Greenland Ice Sheet to sea level over the next millennium Sci. Adv. 2019;5: eaav9396 19 June 2019

  • Dans un ouvrage collectif du Club des Argonautes (Livre "Climat, une planète et des hommes", publié au Cherche Midi en 2011) le philosophe Jean Pierre Dupuy déclarait :

  • Le HCC a rendu public le 23 février 2021 un rapport où il n'hésite pas à détailler les insuffisances et les incohérences de ce projet.

  •  Jean Pailleux 

    Les mots «météorologie» (ou «météo»), «climat» et «climatologie» ont pour l'homme de la rue des définitions courantes qui sont plus restrictives que les définitions des scientifiques. Ce sont généralement ces définitions courantes qui apparaissent en premier dans les dictionnaires et encyclopédies. Les définitions scientifiques sont plus larges car l'étude des phénomènes atmosphériques amène à s'intéresser à beaucoup d'autres milieux que l'atmosphère.

    «Météorologie» au sens le plus courant

    «La météorologie est l'étude des phénomènes atmosphériques et de leurs lois, notamment en vue de la prévision du temps». (Petit Larousse).

    Un dictionnaire équivalent en langue anglaise donne une définition très proche : «Meteorology: science of the weather; study of the earth's atmosphere and its change».

    Comme indiqué dans le «Dictionnaire Culturel des Sciences» (édition du Seuil), l'acception commune tend à confondre la météo avec la prévision du temps, plus spécialement du «temps sensible» qui gouverne nos impressions humaines. C'est une définition qui ne sort du milieu atmosphérique que pour étudier ses conséquences humaines les plus directes (sols gelés, inondations, etc...).

    «Météorologie» au sens le plus scientifique

    «La météorologie est la science de l'atmosphère». Cette définition, la plus concise, est donnée par l'Encyclopedia Universalis qui ajoute : «Plus exactement elle étudie les processus physiques qui en déterminent l'évolution et rend compte des phénomènes essentiellement observés dans sa partie la plus basse».

    C'est presque aussi la définition que nous (les argonautes) avons retenue pour notre rubrique «Glossaire» : «Science des phénomènes atmosphériques qui permet de prévoir l’évolution du temps sur une durée courte (quelques jours) en fonction de conditions initiales bien déterminées

    L'atmosphère étant un système ouvert, la météorologie (science de l'atmosphère) doit s'intéresser aux nombreux phénomènes interactifs avec les milieux connexes à l'atmosphère: océan, cryosphère, biosphère, surfaces continentales, espace... Pour étudier les processus physiques pertinents, la météorologie doit les analyser et les traiter à toutes les échelles de temps.

    «Climat» et «climatologie» au sens le plus courant

    D'après sa définition grecque rappelée dans le glossaire : «climat», du grec «klima» (inclinaison), en référence à l'inclinaison de l'axe de la Terre qui fait que le climat varie en fonction de la latitude, le climat est «l' ensemble des qualités de l’atmosphère d’un lieu sur une longue durée».
    «Le climat est l'ensemble des phénomènes météorologiques qui caractérise l'état moyen de l'atmosphère et son évolution en un lieu donné» (Petit Larousse).

    Un dictionnaire équivalent en langue anglaise indique : «Climate: weather conditions of a place or an area»; et : «Climatology : science of climate».

    Au sens le plus restrictif le climat est donc un sous-ensemble de la météorologie, dans lequel on ne retient que les caractéristiques moyennes (sur un mois au moins), ou encore les grandes échelles temporelles (du mois jusqu'à plusieurs millions d'années). Ceci est exprimé dans le Dictionnaire Culturel des Sciences de la façon suivante (qui a l'inconvénient d'introduire une notion encore plus complexe, «l'effet papillon») : «Le climat est ce qu'il reste du temps météorologique lorsqu'on le débarrasse de ses caprices que nul ne peut prévoir au-delà de l'horizon qu'assigne l'effet papillon». Le terme de «climatologie» a eu longtemps pour les météorologistes un sens assez restrictif : l'établissement et l'étude de statistiques relatives aux éléments du climat.

    «Climat» et «climatologie» au sens le plus scientifique

    Mais plus généralement on entend par le mot «climatologie», «la science qui donne une description systématique et une explication de la répartition des climats» (Source: Encyclopedia Universalis).

    On pourrait préciser que la climatologie cherche maintenant à expliquer non seulement la répartition géographique des climats, mais aussi leur évolution au fil des décennies et des siècles, surtout depuis qu'une évolution lente du climat de la planète (vers le réchauffement) est devenue évidente. Pour prendre en compte cette évolution lente, certains ont introduit la notion de «climatologie dynamique». Quant à l'évolution du passé, elle a fait l'objet d'un énorme travail de reconstitution de la part des historiens, glaciologues, sédimentologistes, etc..., travail documenté dans de nombreux ouvrages.

    A l'échelle de la décennie ou du siècle, l'évolution de l'atmosphère est largement pilotée par celle des océans (gelés ou pas), des surfaces continentales (couvertes de glace ou pas) et de toute la biosphère. Elle dépend aussi dans une plus faible mesure de facteurs astronomiques tels que l'évolution du rayonnement solaire ou des caractéristiques géométriques de l'orbite terrestre. Pour étudier, comprendre et prévoir l'évolution du climat (souvent en s'aidant de la modélisation numérique), le scientifique est amené à traiter beaucoup de processus physiques extérieurs à l'atmosphère, y compris par exemple ceux affectant l'océan profond et l'hydrologie (lacs, fleuves, glaciers, réserves continentales d'eau profonde) , en fait tous les processus affectant ce qu'on appelle « le système climatique ».

    Pour le météorologue chargé de la prévision du temps à quelques jours d'échéance, il n'est pas nécessaire de s'intéresser en détail à tous ces milieux connexes à l'atmosphère, vu qu'ils évoluent en général beaucoup plus lentement que l'atmosphère elle-même. On peut alors se contenter de modéliser très simplement ces milieux connexes. Ainsi, dans les modèles de prévision opérationnels l'état de l'océan est supposé constant sauf parfois dans sa partie superficielle. La température de surface (qui pilote directement les échanges d’énergie et de matière entre l’océan et l’atmosphère) y est souvent maintenue constante. Mais dans les modèles de prévision les plus modernes, elle est devenue une variable évolutive issue d’un couplage avec un modèle d’océan. La situation est identique pour le vent qui dépend de la rugosité de l’océan qu’un modèle ad hoc peut faire évoluer en fonction de la hauteur des vagues. Sur les continents, la plupart des variables sont aussi maintenues constantes dans un modèle de prévision (végétation, étendue des glaciers, état du sol...), à l'exception notable de la température et de l'humidité des surfaces continentales qui peuvent présenter de fortes variations diurnes, ainsi que de l'épaisseur du manteau neigeux lorsqu'il recouvre le sol.

    Ainsi l'ensemble des processus physiques intéressant le météorologiste est souvent plus restreint que celui intéressant le climatologiste. Le «système météorologique» (limité à la prévision du temps) peut donc être vu comme un sous-ensemble du «système climatique», contrairement à l'acception courante du mot «climat» qui peut être vu comme un sous-ensemble de la météorologie.

    Dans le langage des mathématiciens et modélisateurs

    Pour les modélisateurs les simulations de l'évolution du temps (ou des phénomènes météorologiques) se différencient des simulations de l'évolution du climat par le jeu des "conditions initiales" et des "conditions aux limites". L'état de l'atmosphère observée à un instant donné sera pris comme l'état (ou condition) initial du système atmosphérique pour un modèle numérique qui calculera son évolution au cours du temps et fera ainsi une prévision météorologique. Notons que ces calculs s'appliquent à un système physique qui déborde un peu au-delà de l'atmosphère puisque un tel modèle «météorologique» doit obligatoirement simuler l'évolution de la température et de l'humidité des surfaces continentales qui, sur quelques heures ou quelques jours, sont des variables qui varient très vite (souvent plus vite que les températures atmosphériques elles-mêmes). On est là dans le domaine de la prévision du temps et de la météorologie.

    Mais pour cela le modèle devra cependant fixer l'état de la plupart des milieux extérieurs à l'atmosphère, comme l'océan dans sa quasi-totalité, la végétation, la composition des sols, etc..., qui l'encadrent et conditionnent son état moyen; ce sont les "conditions aux limites" du système météorologique. Dans une simulation du seul système météorologique, les "conditions aux limites" sont invariantes et fixées.

    Mais on sait que la prévision météorologique n'a plus de sens au bout d'une dizaine de jours car l'atmosphère, système physique chaotique, possède la propriété d' "oublier" rapidement ses conditions initiales. Ce sont alors
    ses "conditions aux limites" qui prennent de l'importance et qui déterminent l'état statistique moyen de l'atmosphère : son climat. On est là dans le domaine de la modélisation climatique et de la climatologie. Notons enfin qu'il n'y a pas de différence fondamentale entre un modèle de prévision météorologique et un modèle de simulation climatique même si la mise en œuvre pratique des calculs est très différente. Ce sont les mêmes lois physiques et les mêmes équations qui y pilotent l'évolution de l'atmosphère. Simplement, dans les modèles météorologiques, il y a beaucoup de variables d'état du système qui sont des conditions aux limites fixes, et qui deviennent une partie des conditions initiales (donc évoluant dans le temps) dans le même modèle étendu au système climatique.

    Voir aussi la FAQ : Qu’est-ce que le climat ? 

    Mise à jour  février 2021.   

  • Olivier Talagrand, Jean Pailleux, Yves Dandonneau et le Club des Argonautes 

     

    Résumé en langage courant

    Depuis plusieurs décennies, la qualité des prévisions météorologiques ne cesse de s’améliorer progressivement. À quoi cette amélioration est-elle due ? Quelles sont les limites actuelles ? À quoi ces limites sont-elles dues, et peut-on encore les reculer ? À plus longue échéance, est-il possible de prévoir les étés humides et les hivers doux ? Et qu’en est-il du climat dans 30, 50 ou 100 ans, objet désormais de débats et de préoccupations intenses ? Ce sont là quelques-unes des questions auxquelles cette note est destinée à fournir des éléments de réponse, tout en dressant un bref bilan des connaissances actuelles.

    Les prévisions au jour le jour sont actuellement utiles jusqu’à une huitaine de jours, contre cinq jours il y a une trentaine d’années. Les prévisions météorologiques s’appuient nécessairement sur la connaissance des conditions de départ, qui s’est considérablement améliorée avec le développement des réseaux d’observations, satellites notamment. L’augmentation de la puissance de calcul a aussi permis de calculer l’évolution de l’atmosphère et de l’océan sur des grilles plus fines, plus proches de la taille des phénomènes, et d’introduire dans ces calculs davantage de processus. Toutefois, ces améliorations butent sur un constat : des variations infimes des conditions initiales conduisent à des prévisions très différentes, ce qu’on exprime souvent par : «le battement d’aile d’un papillon peut déclencher un cyclone au loin dix jours plus tard». L’atmosphère présente des instabilités, dont l’évolution est très difficile à prévoir. Malgré ces limites, la prévision de l’évolution du climat global à long terme est possible, car elle dépend davantage de l’évolution des flux d’énergie que des conditions initiales. Ainsi peut-on modéliser la réponse du climat de la Terre à l’augmentation de la teneur en gaz carbonique de l’atmosphère. Enfin, il existe dans le climat actuel des modes de variabilité, comme El Niño, ou l’oscillation nord atlantique, auxquels sont attachés des types de temps, permettant de proposer des prévisions saisonnières.

    Sommaire

    1. La prévision météorologique aujourd'hui
    2. La sensibilité aux conditions initiales
    3. La prévisibilité climatique
    4. La prévisibilité mensuelle et saisonnière
    5. Conclusion

     1 - La prévision météorologique aujourd’hui

    La Figure 1, qui est une version actualisée d’une figure incluse dans une FAQ antérieure (Que sont les modèles numériques de circulation de l’atmosphère et de l’océan? Comment sont-ils construits et utilisés ?), présente l’évolution de la qualité des prévisions produites depuis 1981 par le Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT).
    Ces prévisions sont issues d’un modèle numérique qui, mis en route à partir des conditions observées un jour donné, calcule de proche en proche l’évolution de l’écoulement atmosphérique sur les jours suivants. Le diagnostic présenté porte sur le géopotentiel (altitude) de la surface isobare 500 hPa, qui sépare l’atmosphère en deux couches de masses à peu près égales. Cette quantité, et ses variations spatiales, constituent une représentation relativement simple, et utile, de l’écoulement atmosphérique à grande échelle.

    La quantité portée sur l’axe vertical de la Figure est (en termes un peu simplifiés) le coefficient de corrélation statistique entre les géopotentiels prévu et observé à un instant donné. Ce coefficient prendrait la valeur 1 pour une prévision parfaite, et la valeur 0 pour une prévision choisie au hasard dans l’ensemble des états possibles. Plus il est élevé, et plus la prévision du modèle est bonne. Les différentes courbes de la figure présentent à partir du haut l’évolution de la corrélation à 3, 5, 7 et 10 jours d’échéance. Pour chacune de ces échéances, deux courbes, séparées par une bande de couleur, montrent la corrélation sur les hémisphères boréal (courbe du haut) et austral (courbe du bas) respectivement.

    fig 1

    Figure 1. Variations depuis 1981 de la qualité des prévisions du géopotentiel à 500 hPa effectuées par le CEPMMT (ECMWF en anglais) (voir explications dans le texte ; noter que l’échelle verticale est dilatée dans la partie supérieure de la Figure) (source : ECMWF).

    On voit que la qualité des prévisions s’est lentement mais régulièrement améliorée, dans les deux hémisphères, à toutes les échéances présentées. Cette amélioration est due à l’augmentation de la quantité et de la qualité des observations, ainsi qu’à celle de la qualité du modèle numérique utilisé. L’amélioration du modèle est elle-même due en grande partie à l’augmentation de la puissance des moyens de calcul.

    Si donc la prévision météorologique est difficile, il est clair qu’elle peut être améliorée. Mais quelles sont au départ les difficultés ? Pourquoi peut-on prévoir les éclipses plusieurs siècles à l’avance, mais ne peut-on pas prévoir précisément la pluie quelques jours à l’avance ? La complexité du système atmosphérique, où interagissent en permanence absorption et émission de rayonnement, changements de phase de l‘eau et échanges de chaleur associés, échanges d’eau et d’énergie avec le milieu sous-jacent, ainsi que d’innombrables autres processus, y est certainement pour quelque chose. Et l’amélioration de la qualité des prévisions visible sur la Figure 1 est précisément due, en partie, à l’introduction progressive dans les modèles numériques d’une quantité croissante de ces nombreux processus.

    2 - La sensibilité aux conditions initiales

    Mais il y a beaucoup plus fondamental, comme l’a montré un travail célèbre effectué en 1963, au début de l’ère du calcul électronique scientifique, par le météorologiste et mathématicien états-unien E. N. Lorenz. Celui-ci (comme déjà raconté dans la note Théologie et atmosphère) avait développé un modèle numérique de petite dimension (3 en l’occurrence, alors que la dimension de certains des modèles actuels de prévision météorologique dépasse le milliard), qui donnait une représentation idéalisée du phénomène de convection thermique se produisant dans une couche fluide chauffée par sa face inférieure. Effectuant un nouveau calcul à partir de résultats intermédiaires qu’il avait conservés en mémoire, il constata que ce nouveau calcul produisait des résultats tout à fait différents de ceux du calcul d’origine. Il crut d’abord à une erreur de codage, qu’il ne put trouver, et finit par comprendre que le problème venait de ce que les résultats intermédiaires à partir desquels il avait refait son calcul avaient une précision moins grande que celle du calcul d’origine. Retirer les dernières décimales des résultats intermédiaires (ou plus précisément, dans le cas présent, leurs derniers chiffres binaires) avait totalement transformé les résultats de la prévision. Partant d’une observation fortuite (on parle de plus en plus, suivant l’anglais, de sérendipité), et poursuivant sa réflexion, E. N. Lorenz avait mis en évidence la sensibilité des prévisions aux conditions initiales. Sensibilité décrite par l’image du désormais célèbre effet papillon. Un papillon bat des ailes. La perturbation qu’il crée dans l’air ambiant s’amplifie et gagne progressivement des échelles spatiales de plus en plus grandes, avec la conséquence qu’un cyclone apparaît une dizaine de jours plus tard là où rien ne se serait passé si le papillon n’avait pas battu des ailes.

    La sensibilité aux conditions initiales n’était d’ailleurs pas une notion pleinement nouvelle. Le mathématicien Henri Poincaré avait écrit en 1908, dans son livre Science et Méthode, précisément à propos de la météorologie, les lignes suivantes :

    "Pourquoi les météorologistes ont-ils tant de peine à prédire le temps avec quelque certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard, de sorte que bien des gens trouvent tout naturel de prier pour avoir la pluie ou le beau temps, alors qu’ils jugeraient ridicule de demander une éclipse par une prière ? Nous voyons que les grandes perturbations se produisent généralement dans les régions où l’atmosphère est en équilibre instable. Les météorologistes voient bien que cet équilibre est instable, qu’un cyclone va naître quelque part ; mais où, ils sont hors d’état de le dire ; un dixième de degré en plus ou en moins en un point quelconque, le cyclone éclate ici et non pas là, et il étend ses ravages sur des contrées qu’il aurait épargnées. Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées, ni assez précises, et c’est pour cela que tout semble dû à l’intervention du hasard."

    Mais il s’agissait de la part d’Henri Poincaré d’une intuition, fondée sur sa grande expérience scientifique, plutôt que d’une pleine découverte. Lorenz, lui, avait mis en évidence la sensibilité aux conditions initiales de façon pleinement objective.

    Passer d’un système idéalisé à trois paramètres, simulant la convection thermique, à l’atmosphère dans sa totalité constituait certes un pas audacieux, qu’E. N. Lorenz franchit néanmoins. Il alla même plus loin. Augmenter la résolution spatiale des conditions initiales diminue l’erreur initiale de la prévision. Mais, sur la base de considérations quant à la vitesse à laquelle une perturbation de petite échelle spatiale se propage progressivement vers des échelles plus grandes, Lorenz conclut que le taux de croissance de l’erreur augmenterait du même coup, et suffisamment rapidement pour qu’il y ait une limite ultime à la prévision. Il estima cette limite à une quinzaine de jours.

    Cette conclusion a été largement confirmée, directement ou indirectement, par de nombreux travaux ultérieurs. La Figure 2 présente le résultat d’une prévision d’ensemble récemment effectuée au CEPMMT (voir encart). On y voit dans la partie supérieure le résultat de 52 prévisions numériques effectuées, pour la même date, à échéance de 7 jours. La quantité représentée est le champ de pression au niveau de la mer sur l‘Europe occidentale (le modèle utilisé est, lui, global). À la résolution de la figure, les différences entre les conditions initiales de ces différentes prévisions seraient invisibles à l’œil.

    Prévisions d'ensemble

    Figure 2. Prévision d’ensemble produite par le CEPMMT (ECMWF en anglais), à échéance de 7 jours, pour le 12 Avril 2021. Le champ représenté est la pression au niveau de la mer sur l’Europe. La partie supérieure de la figure présente 52 prévisions effectuées à partir de conditions initiales différentes et de petites perturbations dans la ‘physique’ du modèle de prévision. Les trois cartes du bas présentent, à gauche, deux des prévisions de l’ensemble, agrandies pour améliorer leur lisibilité et, à droite, la "vérification’ observée" à l’échéance de la prévision (source : ECMWF).

    Mais on voit que les champs montrés sur la figure, même si beaucoup d’entre eux ont une structure similaire, avec une zone de hautes pressions dans la région considérée, présentent néanmoins des différences marquées. Les éléments 14 et 46 (agrandis dans la partie inférieure de la figure) sont par exemple tout à fait différents, particulièrement dans les latitudes élevées. Ces deux éléments sont eux-mêmes très différents de la "vérification observée" à l’échéance de la prévision, représentée en bas à droite de la figure. La sensibilité aux conditions initiales est présente, sinon dans l’atmosphère elle-même (l’expérience directe serait difficile à effectuer …), du moins dans les modèles numériques, qui constituent, de loin, le meilleur outil dont nous disposons pour la prévision météorologique. 

    Les prévisions d’ensemble

    Le document présenté en figure 2 (appelé souvent document «timbres poste» ) est un outil de base utilisé par les prévisionnistes pour évaluer d’un simple coup d’œil l’incertitude associée à une prévision numérique d’un événement météorologique particulier sur un domaine donné. Associé à d’autres documents plus synthétiques issus de la même prévision d’ensemble, (et avec la carte de vérification en moins!), il permet d’effectuer des prévisions probabilistes, comme d’estimer la probabilité d’un événement extrême. Les documents du CEPMMT sont accessibles en temps réel sur le lien suivant (en choisissant dans le menu de la colonne de gauche «Medium» pour « Range » et «Combined» pour «Product type») : Charts catalogue

    Depuis le début des années 1990, la prévision d’ensemble est utilisée quotidiennement dans beaucoup de centres météorologiques. Le site web «meteociel» rassemble une vaste collection de documents provenant de différents modèles opérationnels et de différents systèmes de prévision d’ensemble, permettant de suivre en temps réel la prévision du temps en mode déterministe ou en mode probabiliste.
    Ainsi, le menu de la colonne de gauche permet de visualiser les deux principaux modèles opérationnels aujourd’hui à Météo-France, «Arpège» et «Arome», ainsi que les systèmes de prévision d’ensemble associés. Ces derniers sont répertoriés dans le menu météociel sous les noms «PEARP» et «PE-AROME».

    L'expérience montre que, si la dispersion des prévisions d’ensemble varie d'une situation à l'autre, elle est fiable, en ce sens que l'erreur de la prévision centrale est statistiquement petite quand la dispersion est petite, et grande quand la dispersion est grande.

     

    Une étude systématique a récemment été effectuée sur deux parmi les meilleurs modèles numériques actuels de prévision météorologique (Zhang et al., 2019). La prévisibilité de chacun des modèles a été évaluée par comparaison de prévisions effectuées par le même modèle à partir de conditions initiales très voisines, à des résolutions spatiales différentes. La qualité des prévisions de l’écoulement des latitudes moyennes ne s’améliore plus au-delà d’une quinzaine de jours, quelle que soit la résolution spatiale utilisée. Comme anticipé par Lorenz, augmenter la résolution spatiale des conditions initiales conduit à des gains de plus en plus faibles, et finalement à une saturation, la croissance des erreurs augmentant à mesure que l’échelle spatiale diminue.

    On peut constater que cette limite d’une quinzaine de jours se situe encore bien au-delà de l’échéance visible sur la Figure 1. Celle-ci suggère que des progrès significatifs sont encore possibles (mais probablement au coût élevé requis par une augmentation significative des moyens d’observations et de calcul).

    Le travail de Lorenz de 1963, même s’il ne constituait pas une découverte totalement nouvelle, eut un immense impact qui s’étendit bien au-delà des sciences de l’atmosphère, et fut à l’origine du développement, théorique, numérique et expérimental, de ce que l’on appelle la théorie du chaos déterministe. Ce développement doit évidemment beaucoup à la disponibilité de moyens de calcul puissants. On sait maintenant que la sensibilité aux conditions initiales et la prévisibilité finie sont en fait omniprésentes dans le monde physique. On s’est par exemple ainsi rendu compte que la prévisibilité des mouvements des planètes, longtemps considérée comme l’archétype même du succès de la prévision déterministe, était aussi limitée, mais à des échéances de dizaines ou centaines de millions d’années, bien plus longues que celle de l’histoire des sociétés humaines (cette prévisibilité finie des mouvements des planètes avait d’ailleurs été pressentie, elle aussi, par H. Poincaré dans son livre Science et Méthode ; voir la note Théologie et atmosphère citée plus haut). Le travail de Lorenz a clairement montré que déterminisme mathématique n’implique pas nécessairement prévisibilité de fait.

    Par quels mécanismes une petite erreur initiale s’amplifie-t-elle jusqu’à contaminer l’écoulement atmosphérique dans son entier ? Les mouvements de l’atmosphère (ainsi que ceux de l’océan) résultent d’instabilités, causées elles-mêmes par l’échauffement différentiel entre différentes parties du fluide. Dans le cas de l’atmosphère, une instabilité locale, mais importante, est l’instabilité convective, qui résulte de l’absorption du rayonnement solaire par le milieu sous-jacent (continent ou océan), et de l’échauffement qui en résulte. Des mouvements ascendants rapides apparaissent dans l’atmosphère, qui transportent de la chaleur vers le haut, et sont compensés par des mouvements de subsidence d’extension horizontale plus grande. Les mouvements ascendants sont à l’origine des formations nuageuses que sont les cumulus, et des orages qui les accompagnent. Peu affectés en général par la rotation terrestre, ils s’étendent sur des échelles horizontales de quelques kilomètres ou dizaines de kilomètres, et des échelles temporelles de quelques heures. L’instabilité convective est l’un des processus par lequel une erreur très localisée se propage à des échelles plus grandes.

    Un autre processus important est l’instabilité barocline, qui résulte, elle, du gradient de température entre les hautes et les basses latitudes. Fortement influencée par la rotation terrestre, elle est à l’origine des zones de hautes et de basses pressions qui dominent la météorologie des latitudes moyennes. Les mouvements associés ont des échelles spatiales typiques de quelques milliers de kilomètres, et des échelles temporelles de quelques jours. Ils transportent globalement de l’énergie depuis les basses latitudes vers les latitudes plus élevées. La figure 3 présente un exemple idéalisé d’instabilité barocline. Pour un état de l’atmosphère donné, représenté sur la figure 3a (le champ représenté est, comme pour la figure 1, le géopotentiel de la surface isobare 500 hPa), on a déterminé, à l’aide d’un modèle numérique de l’écoulement, la perturbation qui croîtrait le plus rapidement sur une période de 36 heures (le mode singulier dominant). Cette perturbation virtuelle, localisée à l’endroit le plus instable de l’écoulement pour l’état considéré, est représentée sur la figure 3b. Et ce qu’elle devient au bout de 36 heures est représenté sur la figure 3c. Son extension spatiale s’est étendue. Mais surtout son amplitude a augmenté, avec un taux d’amplification globale de 5,4. C’est l’amplification permanente de petites incertitudes de ce genre, plus petites que la précision des observations de départ, qui conduit à la dégradation rapide des prévisions météorologiques. Ce sont d’ailleurs ces instabilités, beaucoup plus que les imperfections propres des modèles numériques en tant que tels, qui sont là importantes. Comme le montre le travail de Zhang et al., un modèle parfait, en ce sens qu’il rendrait exactement compte des lois physiques qui régissent l’écoulement, conduirait aux mêmes résultats.

    fig 3a

    fig 3bc

    Figure 3.  Un exemple de croissance de l’erreur sous l‘effet de l’instabilité barocline. a. Géopotentiel à 500hPa de la situation considérée. b. Structure de la perturbation initiale s’amplifiant le plus rapidement sur 36h. c. Évolution correspondante au bout de 36h (courtoisie L. Descamps, Météo-France)

    Pour autant, si les deux processus d’instabilité décrits ci-dessus contribuent de façon significative à l’amplification d’une petite erreur initiale locale, toutes les prévisions ne se dégradent pas à la même vitesse. Certaines situations sont plus prévisibles que d’autres, et c’est bien pour cela que les grands services météorologiques produisent des prévisions d’ensemble, du type de celle qui a été présentée sur la Figure 2, afin de prévoir l’’erreur du jour’. La vaste question de la prévisibilité des différentes situations atmosphériques, et de l’échéance à laquelle différents phénomènes (tornades, cyclones tropicaux, tempêtes associées à des dépressions, …) peuvent être prévus, est de la plus grande importance pour la météorologie quotidienne. Elle mériterait des développements détaillés qui pourraient faire l'objet d'un nouvel article. et n’est pas discutée dans la présente note.

    Indépendamment de l’incertitude présente dans les conditions initiales d’une prévision, les modèles, on l’a dit, ne sont pas parfaits, et ne peuvent jamais être des simulateurs exacts de l’atmosphère. Et les erreurs de modélisation, même si elles ne sont pas principalement responsables de la croissance rapide initiale des erreurs de prévision, ont aussi leur impact. Les modèles s’améliorent progressivement par l’augmentation de leur résolution spatiale et du nombre de processus physiques qu’ils sont capables de simuler.  Mais il reste des limitations. On en trouve beaucoup, par exemple, dans le cycle de l’eau et les multiples effets qui lui sont associés : échanges d’énergie dus aux changements de phases, effets radiatifs des multiples types de nuages, échange d’eau avec le milieu sous-jacent, etc.  Il y aura toujours de telles limitations, qui s’ajouteront à l’instabilité fondamentale de l’écoulement atmosphérique. 

    Le lecteur désireux d’en savoir plus sur les performances actuelles des prévisions météorologiques pourra trouver des informations sur les sites du CEPMMT (forecast)  ou de Météo-France (modèles de prévision).

    3.  La prévisibilité climatique

    S’il existe une limite ultime d’une quinzaine de jours, comment peut-on prétendre prévoir le climat plusieurs décennies à l’avance, comme il est fait par exemple dans les rapports successifs du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) ? C’est là une objection qui a effectivement été opposée aux travaux du GIEC. On peut simplement remarquer que le cycle des saisons est prévisible bien au-delà d’une quinzaine de jours. Et cette remarque fournit elle-même la réponse : le cycle des saisons est déterminé par la quantité d’énergie reçue du Soleil, et non par l’état actuel de l’atmosphère.
    C’est là toute la différence entre météorologie et climat, déjà discutée dans une autre FAQ du site des Argonautes (Quelle est la différence entre «météorologie» et «climatologie»). Cette différence peut être expliquée, de façon certes simplifiée mais non fondamentalement erronée, sur une phénomène aussi banal que l’ébullition d’une casserole d’eau. L’ébullition produit un ensemble turbulent de bulles qui grossissent et éclatent, au-dessus desquelles se forment des volutes de gouttelettes d’eau. L’évolution des bulles et des volutes individuelles est imprévisible et impossible à contrôler. Mais le taux global d’évaporation est, lui, prévisible et contrôlable si l’on peut agir précisément sur la quantité de chaleur transmise à la masse d’eau, et sur la température et la ventilation de l’air environnant. Dans cette comparaison simple, les bulles et les volutes d’eau constituent la ‘météorologie’, tandis que le taux d’évaporation qui en résulte constitue le ‘climat’.

    Ce qui détermine le climat de la Terre, ce sont fondamentalement les flux d’énergie entre les différentes composantes du système terrestre (atmosphère, océans, cryosphère et compartiments internes à ces composantes)  : absorption de l’énergie reçue du Soleil, puis transport et échange de cette énergie entre les différentes composantes du système, et réémission finale vers l’espace extérieur.

    Les flux instantanés dépendent de l’état présent du système, mais leurs valeurs statistiques à long terme sont déterminées par tout un ensemble d’éléments, tels que la composition de l’atmosphère et de l’océan, la position des montagnes et des continents, les propriétés du sol, la quantité d’eau disponible, et beaucoup d’autres encore. C’est ainsi que l’on peut affirmer que l’augmentation du contenu de l’atmosphère en CO2, en augmentant l’absorption par l’atmosphère du rayonnement infrarouge émis par le sol et les couches inférieures, conduit à un échauffement global de l’atmosphère et des océans. Ce ne sont pas les mêmes causes qui déterminent le temps qu’il fera dans une semaine, et ce que sera le climat, moyenné sur dix ou vingt ans, dans cinquante ou cent ans de maintenant.

    Peut-on alors prévoir, par exemple, l’occurrence d’un nouvel âge glaciaire ? La figure 4 montre les variations de la température de l’atmosphère sur les 400 000 dernières années, obtenues à partir d’un carottage effectué dans la calotte antarctique. On y voit des oscillations plus ou moins régulières, mais particulièrement un cycle d’environ 100 000 ans, qui est en accord avec la théorie astronomique des variations des climats (voir la FAQ Quelle est la cause de l'alternance de périodes chaudes et de glaciations sur Terre lors du dernier million d'années ?).
    Nous sortons actuellement d’une phase chaude, et l’on peut donc s’attendre, après le réchauffement actuel dû aux activités humaines, à un nouvel âge glaciaire dans 80 à 100 000 ans de maintenant. Dans notre compréhension actuelle, les âges glaciaires commencent quand les paramètres orbitaux de la Terre favorisent un enneigement hivernal abondant dans l’hémisphère nord, suivi d’un été relativement frais. L’effet d’albédo de la neige favorise le maintien de celle-ci pendant l’été, et l’amplification de l’enneigement. Si donc les conditions d’apparition d’un âge glaciaire semblent assez prévisibles, la chute de neige particulière, ou la séquence de chutes, qui l’enclenchera est évidemment, elle, imprévisible.

    fig 4

    Figure 4. Variations de la température de l’atmosphère sur les 400 000 dernières années, telles que déduites du carottage Vostok en Antarctique (figure extraite de Petit et al., 1999). Échelle horizontale : date dans le passé, en milliers d’années (le présent est à l’extrémité droite de l’axe).

    Pour la prévision météorologique, une connaissance précise de l’état initial est indispensable. Pour la prévision du climat, une telle connaissance n’est pas nécessaire, au moins dans notre compréhension actuelle : ce sont les flux d’énergie, définis par l’insolation et les échanges internes au système climatique, qui importent.

    4. La prévisibilité mensuelle et saisonnière

    Si le cycle des saisons est évidemment prévisible, il n’en reste pas moins que les saisons varient d’une année à l’autre. Il y a des hivers rudes et des hivers doux, des étés pluvieux et des étés caniculaires. Quelle est l'origine de ces variations et, surtout, sont-elles prévisibles ? Plusieurs oscillations, plus ou moins régulières, ont été mises en évidence sur des échelles temporelles allant de quelques mois à quelques années. La plus connue de ces oscillations est probablement le phénomène El Niño. Tous les trois à cinq ans environ, vers la fin du mois de décembre, le courant froid (courant de Humboldt) qui remonte habituellement du Sud au large des côtes du Pérou est remplacé par des eaux chaudes habituellement situées plus à l’Ouest. Ce phénomène est dû à un affaiblissement des alizés, qui soufflent vers l’Ouest. Il est associé à un basculement de la pression atmosphérique sur l’Océan Pacifique Équatorial (baisse de pression à l’Est et augmentation à l’Ouest), qu’on appelle l’Oscillation Australe. Le phénomène El Niño, dont les effets se font ressentir sur un an ou plus, modifie significativement la météorologie locale, et particulièrement les précipitations. Mais, au-delà, il a un impact sur les deux continents américains, l’Asie, l’Océan Atlantique et même l’Europe.

    D’autres oscillations plus ou moins régulières sont observées à différentes échelles de temps et d’espace. L’oscillation de Madden-Julian module la pluviosité des océans tropicaux sur des périodes de 40 à 50 jours. L’oscillation Nord-Atlantique, sur des temps typiques d’une dizaine d’années, modifie la position et la trajectoire des dépressions et des anticyclones de l’Océan Atlantique. Des ‘régimes de temps’ lui sont plus ou moins corrélés, qui possèdent statistiquement des durées de vie et des transitions mutuelles préférentielles. C’est un de ces régimes de temps, associé à la présence d’un anticyclone sur l’Europe du Nord, qui produit par exemple les vagues de froid intenses qui frappent quelquefois en hiver l’Europe occidentale.

    Toutes ces oscillations résultent d’interactions, pour la plupart encore mal comprises, entre l’océan et l’atmosphère. Ces interactions induisent des modes de variabilité qui n’existeraient pas si l’atmosphère ou l’océan étaient seuls. C’est le cas en particulier du phénomène El Niño.

    Ces oscillations diverses ne sont guère prévisibles à l’avance. Mais, une fois établies, elles possèdent un certain de degré de prévisibilité statistique quant à leur évolution et à leur durée. Et certaines situations permettent plus qu’une prévision purement statistique : on a pu montrer par exemple, a posteriori, que la canicule qui a frappé l’Europe Occidentale, et particulièrement la France, au mois d’août 2003 était due en partie à un déficit de pluviométrie du printemps précédent, qui avait rendu le sol particulièrement sec. Il y a là un élément de prévisibilité potentielle.

    Les ressources de la modélisation numérique ont bien entendu été mises en œuvre pour les échéances mensuelles et saisonnières. Des modèles couplant océan et atmosphère sont intégrés sur ces échéances. La définition des conditions initiales des prévisions est ici encore importante. Ces modèles possèdent une prévisibilité faible, mais réelle. Cette prévisibilité est le plus visible sur des prévisions d’ensemble, dont les moyennes contiennent un signal statistique identifiable, par exemple sur la température ou la pluviosité des mois à venir. Les prévisions d’ensemble mensuelles et saisonnières effectuées par le CEPMMT peuvent être examinées en temps réel grâce à différents produits disponibles sur le web suivant (choisir le type de produits dans le menu de la colonne de gauche) : ECMWF-open charts

    Mais il n’en reste pas moins que les processus physiques qui déterminent les fluctuations atmosphériques sur des échelles mensuelles, saisonnières  ou annuelles  restent très mal connus,  et que la prévision de ces fluctuations reste la ‘zone grise’ de la prévision.

    5. Conclusion

    La prévisibilité de l’atmosphère et de l’océan est fondamentalement une question d’échelles spatiales et temporelles. Sans simplification excessive, on peut dire que plus l’échelle spatiale est grande, plus la prévisibilité temporelle est élevée. Mais les processus physiques qui déterminent la prévisibilité et ses limites varient avec les échelles considérées. Pour la météorologie ordinaire, où l’on peut considérer que l’atmosphère est un fluide homogène dans le temps et dans l’espace, c’est la croissance chaotique d’incertitudes initiales de petite échelle spatiale qui limite la prévisibilité. Si l’atmosphère était un fluide homogène situé au-dessus d’un milieu homogène, sans fluctuations des flux d’énergie qu’il reçoit, sa prévisibilité resterait entièrement limitée aux quinze jours que l’on a dit. Le cas d’un océan isolé serait probablement le même, avec des échelles temporelles pouvant atteindre, pour la circulation profonde, des valeurs séculaires. Mais l’atmosphère et l’océan, et le système climatique dans son ensemble, ne sont homogènes ni dans l’espace ni dans le temps. En plus du cycle saisonnier, évident, des phénomènes physiques spécifiques sont présents aux différentes échelles, et leur ajoutent une certaine prévisibilité : interactions (mal comprises, mais présentes) entre l’océan et l’atmosphère aux échelles mensuelles, saisonnières et interannuelles, variations aux échelles millénaires, encore plus mal comprises (mais clairement visibles sur la Figure 4 où elles se superposent au cycle dominant de 100 000 ans), variations des paramètres orbitaux de la Terre aux échelles climatiques. À plus longue échéance encore, ce sont la tectonique et la position des continents qui importent.

    Le problème de la prévisibilité de l’atmosphère et de l’océan, on le voit, est partiellement résolu, mais partiellement seulement. Et il est d’autant plus important de s’employer à le résoudre au mieux que l’on sait désormais qu’il a des implications majeures pour le devenir des sociétés humaines.

    Références

    Petit, J.-R.,J. Jouzel, D. Raynaud, N. I. Barkov, J.-M. Barnola, I. Basile, M. L.Bender, J.A. Chappellaz, J. C. Davis, G.Delaygue, M. Delmotte, V.Kotlyakov, M. R. Legrand, V. Ya.Lipenkov, C. Lorius, L. Pepin, C. Ritz, E. S. Saltzman et M. Stiévenard, 1999, Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica. Nature, 399(6735), 429-436, 399(6735), 429-436, 399(6735), 429-436

    Zhang, F., Y. Q. Sun, L. Magnusson, R. Buizza, S.-J. Lin, J.-H. Chen, et K. Emanuel, 2019: What is the predictability limit of midlatitude weather? J. Atmos. Sci., 76, 1077–1091, 76, 1077–1091.

     

  • Habituellement, les catastrophes climatiques nous surprennent,

  • L’effet de serre et le réchauffement climatique

    La Terre reçoit en permanence de l’énergie rayonnée par le Soleil, et elle rayonne vers l’espace.

  • Le GIEC a publié le 9 août 2021 le premier volet de son sixième rapport d’évaluation
  • Le Prix Nobel de Physique 2021 a été attribué pour moitié, conjointement, aux climatologues Syukuro Manabe, un Américano-Japonais, et Klaus Hasselmann, un Allemand

  • En 2007, le 4ème rapport du GT I du GIEC, (sur les bases scientifiques de l'étude de la perturbation en cours du climat),

  • Le changement climatique n’a jamais été l’axe principal de mon activité pendant ma carrière à Météo-France,

  • Aux hautes latitudes de l'hémisphère nord, le réchauffement du climat est beaucoup plus rapide qu' aux latitudes tropicales.

Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner
Unknown
Unknown
Accepter
Décliner
Sauvegarder