Glossaire      Témoignages      Fantaisie      Qu'avons-nous lu ?       Conférences 

trait

Jean Pailleux, Serge Planton , José Gonella et le Club des Argonautes - Avril 2021

Circulation atmosphérique et mécanismes liés au vortex polaire

Structure des vortex polaires

Vortex polaire et trou d'ozone

Vortex polaire, réchauffement brutal de la stratosphère, vagues de froid

Vortex polaire, vagues de froid et changement climatique

Vortex polaire, ses liens avec les oscillations atlantique, pacifique, quasi-biénnale, Madden-Julian, El Niño…

Bibliographie


Circulation atmosphérique et mécanismes liés au vortex polaire

Le moteur des mouvements de l'atmosphère est le rayonnement solaire qui, chauffant très inégalement les diverses latitudes du globe terrestre, induit divers échanges d’énergie et diverses circulations dans l’atmosphère terrestre. Les forces induites par la rotation de la Terre et par les contrastes thermiques modifient ces circulations en créant plusieurs courants de vent fort soufflant d'ouest en est, appelés «jets» ou «courants-jets» ou «jet-streams». Ces courants sont des éléments caractéristiques de la circulation générale atmosphérique ; ils sont en évolution permanente à toutes les échelles de temps, plus particulièrement à l'échelle inter-saisonnière.

Près des pôles, chaque hiver, la surface terrestre et les masses d'air restent de longs mois dans la nuit. Les couches atmosphériques se refroidissent et, plus denses, se stabilisent progressivement à partir du sol. Une «inversion de température»(1) se crée, de plus en plus épaisse, allant même parfois jusqu'à rejoindre la tropopause avant la fin de l'hiver et le retour du soleil. On obtient alors assez souvent un anticyclone au sol surmonté d'un air très froid sur 10 km d'épaisseur, se traduisant par une dépression très creuse en altitude au-dessus d'une dizaine de kilomètres. Autour de cette dépression d'altitude circule d'ouest en est le vortex polaire, un jet de vent très fort, visible jusque dans la stratosphère vers 40 ou 50 km d'altitude.

Vortex polaire

Vortex polaires (à gauche nord, à droite sud) matérialisés par les lignes de courant à 10 hPa (vers 30 km d'altitude) coloriées par la force du vent. Les données sont extraites du modèle américain GFS de la NOAA, à gauche pour l'hiver boréal (2 janvier 2018), à droite pour l'hiver austral (14 juillet 2018). Sources : NOAA et earth.nullschool.net.

Structure des vortex polaires

Le vortex antarctique a souvent une structure horizontale assez circulaire autour du pôle sud, à l’image de la répartition continent-océan plutôt symétrique autour du pôle. Le vortex arctique est généralement plus étiré et décentré par rapport au pôle nord du fait de la géographie et des contrastes thermiques entre océans et continents. En effet, la symétrie de révolution autour du pôle nord est souvent rompue sous l'effet des deux masses continentales (Eurasie et Amérique du nord) qui se refroidissent plus vite que les océans en hiver et qui présentent plusieurs chaînes montagneuses.

Les vortex polaires sont des structures assez stables dans la stratosphère à 30 km d'altitude. Mais leur structure verticale est très hétérogène. Plus l'altitude diminue, plus le vortex est affecté par la géographie de la surface, qui engendre des ondes courtes, c'est-à-dire des méandres se superposant au courant-jet ouest-est. Vers 10 km d'altitude, le vortex correspond au jet-stream bien connu des aviateurs, et plus bas encore, les méandres correspondent aux ondes de Rossby et aux perturbations météorologiques classiques qui ont une durée de vie de quelques jours. Au niveau du sol, la variabilité spatio-temporelle (du vent, de la température) est encore plus forte du fait de l'influence des nombreux effets locaux.

La circulation générale atmosphérique moyenne est souvent représentée par quatre courants jets : un jet polaire et un jet subtropical dans chaque hémisphère. Mais il ne s'agit que d'un schéma moyen avec beaucoup de variabilité, en particulier entre les hémisphères nord et sud, et entre été et hiver : les jets peuvent se dédoubler et se multiplier en plusieurs branches, fusionner entre eux, accélérer en se rétrécissant pour donner de très forts vents d'ouest sur plusieurs milliers de kilomètres, ou encore se disperser en de multiples méandres. Les méandres et perturbations associées peuvent se traduire par des «gouttes froides» : isolements d'air froid polaire en altitude, quasi-stationnaires en position géographique ou se déplaçant dans n'importe quelle direction.

Courants polaires

Représentation schématique des différents courants jets atmosphériques. Source : Wikipedia.

 Vortex polaire et trou d'ozone

La destruction progressive de la couche d'ozone stratosphérique sous l'influence de certains gaz comme les chlorofluorocarbures (CFC) a été identifiée dans les années 1980. Elle s'est avérée particulièrement nette au-dessus de l'Antarctique, sous la forme du «trou d'ozone». Le vortex polaire antarctique est un des facteurs dynamiques contribuant à la formation de ce trou d'ozone. C'est en septembre - octobre (sortie de la nuit polaire antarctique) que le vortex stratosphérique contient la plus faible quantité d'ozone. Depuis plus de 30 ans et la mise en œuvre du protocole de Montréal, une surveillance régulière du trou d'ozone et du vortex antarctique est effectuée, en particulier dans la période de l'année proche de l'équinoxe de printemps austral. L'interdiction des gaz destructeurs de l'ozone s'est avérée assez efficace pour stopper la destruction de l'ozone et résorber le trou d'ozone antarctique.
Voir site de l'INSU  Détecter la reconstitution de la couche d’ozone.

 Vortex polaire, réchauffement brutal de la stratosphère, vagues de froid

Le vortex stratosphérique polaire peut se scinder en deux ou plusieurs blocs, chacun amenant sa réserve d'air froid sous-jacent jusqu'à des latitudes très éloignées du pôle. L'éclatement du vortex polaire stratosphérique nord avec basculement vers un continent froid en hiver est un phénomène rapide. Il se passe généralement en deux ou trois jours et est associé à un réchauffement brutal de la stratosphère sur toute une partie de la calotte polaire (réchauffement spectaculaire, excédant souvent les 40°C). Pour le vortex polaire, c'est une baisse soudaine d'activité hivernale, fréquente dans l'hémisphère nord en janvier-février, plus rare dans l'hémisphère sud du fait du caractère plus arrondi du vortex. Ce phénomène extrême est connu sous le nom de «Réchauffement stratosphérique soudain» (SSW, Sudden Stratospheric Warming, en anglais). Il est généralement assez bien prévu par les modèles de prévision météorologiques (une semaine ou plus à l'avance) malgré son caractère brutal (occurrence en deux ou trois jours).

Le basculement de l'air froid polaire vers des latitudes plus basses correspond généralement à une vague de froid touchant d'abord le continent nord américain ou eurasiatique, avec un courant jet caractérisé par un méandre nord-sud très prononcé, l'écoulement nord-sud du méandre pouvant amener l'air polaire froid jusqu'à des latitudes subtropicales. L'onde associée à ce méandre peut contenir un écoulement sud-nord d'air chaud tout aussi prononcé, se traduisant par une période hivernale particulièrement chaude à la même latitude que celle de la vague de froid, mais quelques milliers de kilomètres plus à l'est. Cette onde peut rester quasi-stationnaire pendant plusieurs jours, impliquant un froid extrême sur une région et un chaud extrême sur une autre région. Elle peut aussi se déplacer lentement ou éclater en plusieurs méandres (ou ondes de plus petites taille).

Au début du mois de février 2021, une vague de froid a touché l’Europe septentrionale, en particulier la moitié Nord-Est de la France, comme documenté sur la carte suivante issue du web de l’association «infoclimat» présentant les températures à 7h UTC le 10 février 2021.
En utilisant les boutons en haut de la carte, on peut suivre finement (de jour en jour, d’heure en heure) l’évolution de cette vague de froid sur la France et son voisinage.

Cette vague de froid est consécutive à un basculement du vortex polaire et au réchauffement stratosphérique soudain qui lui est associé. Notons que le processus de basculement vers l’Eurasie du vortex stratosphérique a débuté vers le 1er janvier, soit bien avant l’arrivée de la vague de froid sur l’Europe occidentale. Voir le document suivant produit par l’ESA contenant une animation du vent stratosphérique.

Aeolus Polar Vortex

Remarquons que ce suivi du vortex polaire nord a été réalisé en utilisant uniquement les données de vent du lidar de la mission Aeolus de l'ESA à l'exclusion de tout autre type d'observation. Aeolus est une mission exploratoire (série Earth Explorer de l'ESA) visant à tester les capacités d'un lidar spatial à observer des profils de vent: voir la News de septembre 2018 du site du Club des Argonautes.

Malgré les limitations intrinsèques à Aeolus (faible couverture spatiale, observation d'une seule composante du vent), les grandes ondes de la circulation atmosphériques sont assez bien décrites par les seules observations stratosphériques du lidar spatial. Elles arrivent à restituer correctement l'éclatement et le basculement du vortex polaire sur une période de quelques semaines.

Vortex polaire, vagues de froid et changement climatique

Keckhut et al. (2013) expliquent pourquoi et comment le changement climatique contribue à refroidir la stratosphère du fait de l'accroissement de la concentration des gaz à effet de serre dans les couches plus basses de l'atmosphère, et aussi de la diminution de la concentration en ozone dans certaines couches stratosphériques. Ce refroidissement varie avec l'altitude pour culminer vers 45 km. Il varie aussi avec la latitude. Le vortex stratosphérique et son basculement associé au réchauffement soudain ne sont observés correctement que depuis quelques décennies. On note que ce phénomène se produit environ un hiver sur deux, et le nombre total d'événements est trop faible pour discerner une variation de la fréquence des SSW sur ces dernières décennies, variation que l'on pourrait attribuer au changement climatique. Au contraire, près de la surface terrestre, l'effet du changement climatique est un réchauffement, beaucoup mieux connu, mieux observé et mieux caractérisé que le refroidissement stratosphérique. Ce réchauffement est plus marqué sur la calotte polaire arctique que sur le reste de la Terre, phénomène connu sous le nom "d'Amplification Arctique" (AA).

Quel impact peut-on attendre du réchauffement climatique sur les vagues de froid hivernales, en particulier celles que l'on note à la suite d'un SSW ? Une étude de Judah Cohen concerne les vagues de froid qui ont touché l'Amérique du nord, faisant suite à de forts épisodes neigeux, sur la période 1980–2020. L'étude en dénombre 5 de 1981 à 1990, 5 de 1991 à 2000, 9 de 2001 à 2010, et 27 de 2011 à 2020, donc une légère progression sur les 4 dernières décennies. Notons que cette étude ne caractérise ni la durée, ni l’intensité, mais seulement la fréquence des vagues de froid. Ces épisodes neigeux sont généralement associés à un flux d’air arctique dirigé vers le sud du continent nord-américain, à l'est des Rocheuses, flux accentué (ou même initié) par la chaîne montagneuse qui bloque les vents d'ouest dans la partie inférieure de la troposphère. Cohen et al. (2020) écrit : "Observational studies overwhelmingly support that Arctic Amplification is contributing to winter continental cooling.". Cet article (qui est une synthèse de plusieurs études et de plusieurs autres articles, 138 publications citées en référence !) indique qu’en examinant les réanalyses des dernières décennies, on arrive à établir un lien entre le réchauffement climatique et un refroidissement local des latitudes tempérées. Ce type de résultat contredit l’idée intuitive que le réchauffement climatique implique forcément une réduction de la fréquence des vagues de froid aux latitudes moyennes. Cette idée intuitive est avancée par certains pour nier la réalité du changement climatique, chaque fois qu’une vague de froid frappe durement des régions habitées de l’hémisphère nord.

Toutefois ce lien (entre réchauffement climatique et vagues de froid des latitudes tempérées) ne se retrouve pas dans la plupart des simulations obtenues avec les modèles climatiques étudiés par Cohen et al. (2020) qui écrit aussi : "Divergent conclusions between model and observational studies, and even intramodel studies, continue to obfuscate a clear understanding of how the Arctic Amplification (AA) is influencing midlatitude weather.".

Un article de Cattiaux et al. (2016) traite quant à lui de la sinuosité de la circulation aux moyennes latitudes sur le passé récent et dans un futur affecté par le réchauffement climatique. Les auteurs commencent par définir une métrique caractérisant la sinuosité de la circulation à partir d’une ligne d’égale altitude du géopotentiel à 500 hPa. Ils montrent ensuite que la sinuosité a augmenté au cours des dernières décennies, résultat qui paraît cohérent avec l’augmentation de la fréquence des vagues de froid sur le continent nord-américain amenant de l’air froid arctique jusqu’à des latitudes très sud. Par contre, les modèles de l’exercice de simulations CMIP5 qui représentent relativement bien ce critère, projettent une diminution de la sinuosité avec le changement climatique correspondant à un scénario de fortes émissions (RCP8,5). Ils interprètent ce résultat par l’effet de l’extension en latitude du climat tropical réduisant la zone de déplacement du jet stream des moyennes latitudes (mécanisme qui paraît contradictoire avec une augmentation des vagues d’air arctique se déplaçant à des latitudes très sud). Ces projections des modèles sont modulées par leur représentation de l’intensité de l’AA, ceux qui simulent une plus forte réduction de la sinuosité en hiver étant ceux qui simulent une plus faible AA accompagnée d’une réduction de la fréquence des blocages propices au vagues de froid. Pour ces auteurs, l’augmentation récente de la sinuosité de la circulation en contradiction avec les projections pourrait être interprétée par la variabilité climatique naturelle ou par la conséquence d’un forçage dans le climat récent qui ne sera plus dominant dans le climat futur.

Sur les 4 dernières décennies, on observe donc une augmentation de la sinuosité de la circulation aux moyennes latitudes ainsi qu’une augmentation du nombre de vagues de froid sur l’Amérique du nord, mais aucun mécanisme identifié ne permet de l’attribuer au changement climatique. De plus une majorité de simulations climatiques indiquent plutôt qu’un climat plus chaud tend à réduire cette sinuosité. Le sujet est à l’étude chez plusieurs chercheurs et le prochain rapport du GIEC pourra peut-être préciser cet aspect.

Vortex polaire, ses liens avec les oscillations atlantique, pacifique, quasi-biénnale, Madden-Julian, El Niño…

La dynamique des vortex polaires est liée à celle de plusieurs oscillations caractéristiques de la circulation atmosphérique globale, dont l’aspect prévisibilité est abordé dans une FAQ du Club des Argonautes (La prévisibilité de l’atmosphère et de l’océan)  :

Nous ne détaillons pas ici les mécanismes attachés à chacune de ces oscillations. Nous indiquons seulement quelques résultats ou études affectant l’évolution du vortex polaire nord.

  • Une étude de Hamouda et al. (2021) porte sur le comportement du vortex polaire et sur son évolution sous l’effet du changement climatique. Elle montre que les oscillations AO et NAO sont actuellement bien corrélées entre elles, et que sous l’effet du changement climatique, elles deviendraient plus indépendantes, favorisant les ruptures du vortex polaire, d’autant plus que le Pacifique deviendrait plus chaud et plus tempétueux en hiver du fait des forts contrastes thermiques avec le continent asiatique froid.
  • Lee et al. (2020) examine les relations des phases ENSO et MJO avec le climat de l’Eurasie et de l’Atlantique, en particulier avec la circulation atmosphérique aux latitudes moyennes et hautes de l’hémisphère nord. Les auteurs indiquent qu’une rupture du vortex polaire, et donc le déclenchement d’un SSW, est plus probable dans la phase « Niña » que « Niño » de l’ENSO, résultat qui est conforté par Butler et al. (2015) montrant que la quasi-décennie 1990-98 n’a pratiquement pas vu de SSW, alors qu’il s’agit d’une période à dominante Niño.

Même si aucune de ces études ne permet à ce stade de caractériser l’effet du changement climatique sur les SSW et les vagues de froid continentales de l’hémisphère nord, il semble bien que les études portant sur la prévisibilité à toute échéance de ces oscillations sont une bonne piste de recherche.


Note

(1) Inversion de température : En météorologie, on parle d'inversion de température pour désigner une couche atmosphérique dans laquelle la température est croissante avec l'altitude. En moyenne la température décroît de 6,5°C par km avec l'altitude (atmosphère dite « standard ») jusqu'à la tropopause. Retour.


Bibliographie

Butler, A. H., D. J. Seidel, S. C. Hardiman, N. Butchart, T. Birner, A. Match, 2015: Defining sudden stratospheric warmings. BAMS, November 2015. DOI:10.1175/BAMS-D-13-00173.1

Cattiaux, J., Y. Peings, D. Saint-Martin, N. Trou-Kechout and S.J. Vavrus, 2016: Sinuosity of midlatitude atmospheric flow in a warming world. Geophysical Research Letters, 43, 8259–8268, doi:10.1002/2016GL070309.

Cohen, J., X. Zhang, J. Francis, T. Jung, R. Kwok, J. Overland, T. J. Ballinger, U. S. Bhatt, H. W. Chen, D. Coumou, S. Feldstein, H. Gu, D. Handorf, G. Henderson, M. Ionita, M. Kretschmer, F. Laliberte, S. Lee, H. W. Linderholm, W. Maslowski1, Y. Peings, K. Pfeiffer, I. Rigor, T. Semmler, J. Stroeve, P. C. Taylor, S. Vavrus, T. Vihma, S. Wang, M. Wendisch, Y. Wu and J. Yoon, 2020 : Divergent consensuses on Arctic amplification - influence on midlatitude severe winter weather. Nature Climate Change, Vol. 10, January 2020, pages 20-29.

Hamouda, M., C. Pasquero and E. Tziperman, 2021 : Decoupling of the Arctic Oscillation and North
Atlantic Oscillation in a warmer climate. Nature Climate Change, Vol. 11, February 2021, pages 137-142.

Keckhut, P., A. Hauchecorne, C. Claud, B. Funatsu, G. Angot, 2013: Refroidissement de la stratosphère. Détection réussie mais quantification encore incertaine. La Météorologie, N°82, août 2013, pages 31-37.

Lee, R. W., S. J. Woolnough, A. J. Charlton-Perez and F. Vitart, 2019: ENSO modulation of MJO teleconnections to the North Atlantic and Europe. Geophysical Research Letters, 46, 13,535–13,545.

 

Olivier Talagrand, Jean Pailleux, Yves Dandonneau et le Club des Argonautes - Avril 2021

 

Résumé en langage courant

Depuis plusieurs décennies, la qualité des prévisions météorologiques ne cesse de s’améliorer progressivement. À quoi cette amélioration est-elle due ? Quelles sont les limites actuelles ? À quoi ces limites sont-elles dues, et peut-on encore les reculer ? À plus longue échéance, est-il possible de prévoir les étés humides et les hivers doux ? Et qu’en est-il du climat dans 30, 50 ou 100 ans, objet désormais de débats et de préoccupations intenses ? Ce sont là quelques-unes des questions auxquelles cette note est destinée à fournir des éléments de réponse, tout en dressant un bref bilan des connaissances actuelles.

Les prévisions au jour le jour sont actuellement utiles jusqu’à une huitaine de jours, contre cinq jours il y a une trentaine d’années. Les prévisions météorologiques s’appuient nécessairement sur la connaissance des conditions de départ, qui s’est considérablement améliorées avec le développement des réseaux d’observations, satellites notamment. L’augmentation de la puissance de calcul a aussi permis de calculer l’évolution de l’atmosphère et de l’océan sur des grilles plus fines, plus proches de la taille des phénomènes, et d’introduire dans ces calculs davantage de processus. Toutefois, ces améliorations butent sur un constat : des variations infimes des conditions initiales conduisent à des prévisions très différentes, ce qu’on exprime souvent par : «le battement d’aile d’un papillon peut déclencher un cyclone au loin dix jours plus tard». L’atmosphère présente des instabilités, dont l’évolution est très difficile à prévoir. Malgré ces limites, la prévision de l’évolution du climat global à long terme est possible, car elle dépend davantage de l’évolution des flux d’énergie que des conditions initiales. Ainsi peut on modéliser la réponse du climat de la Terre à l’augmentation de la teneur en gaz carbonique de l’atmosphère. Enfin, il existe dans le climat actuel des modes de variabilité, comme El Niño, ou l’oscillation nord atlantique, auxquels sont attachés des types de temps, permettant de proposer des prévisions saisonnières.

Sommaire

1. La prévision météorologique aujourd'hui
2. La sensibilité aux conditions initiales
3. La prévisibilité climatique
4. La prévisibilité mensuelle et saisonnière
5. Conclusion

 1 - La prévision météorologique aujourd’hui

La Figure 1, qui est une version actualisée d’une figure incluse dans une FAQ antérieure (Que sont les modèles numériques de circulation de l’atmosphère et de l’océan? Comment sont-ils construits et utilisés ?), présente l’évolution de la qualité des prévisions produites depuis 1981 par le Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT).
Ces prévisions sont issues d’un modèle numérique qui, mis en route à partir des conditions observées un jour donné, calcule de proche en proche l’évolution de l’écoulement atmosphérique sur les jours suivants. Le diagnostic présenté porte sur le géopotentiel (altitude) de la surface isobare 500 hPa, qui sépare l’atmosphère en deux couches de masses à peu près égales. Cette quantité, et ses variations spatiales, constituent une représentation relativement simple, et utile, de l’écoulement atmosphérique à grande échelle.

La quantité portée sur l’axe vertical de la Figure est (en termes un peu simplifiés) le coefficient de corrélation statistique entre les géopotentiels prévu et observé à un instant donné. Ce coefficient prendrait la valeur 1 pour une prévision parfaite, et la valeur 0 pour une prévision choisie au hasard dans l’ensemble des états possibles. Plus il est élevé, et plus la prévision du modèle est bonne. Les différentes courbes de la figure présentent à partir du haut l’évolution de la corrélation à 3, 5, 7 et 10 jours d’échéance. Pour chacune de ces échéances, deux courbes, séparées par une bande de couleur, montrent la corrélation sur les hémisphères boréal (courbe du haut) et austral (courbe du bas) respectivement.

fig 1

Figure 1. Variations depuis 1981 de la qualité des prévisions du géopotentiel à 500 hPa effectuées par le CEPMMT (ECMWF en anglais) (voir explications dans le texte ; noter que l’échelle verticale est dilatée dans la partie supérieure de la Figure) (source : ECMWF).

On voit que la qualité des prévisions s’est lentement mais régulièrement améliorée, dans les deux hémisphères, à toutes les échéances présentées. Cette amélioration est due à l’augmentation de la quantité et de la qualité des observations, ainsi qu’à celle de la qualité du modèle numérique utilisé. L’amélioration du modèle est elle-même due en grande partie à l’augmentation de la puissance des moyens de calcul.

Si donc la prévision météorologique est difficile, il est clair qu’elle peut être améliorée. Mais quelles sont au départ les difficultés ? Pourquoi peut-on prévoir les éclipses plusieurs siècles à l’avance, mais ne peut-on pas prévoir précisément la pluie quelques jours à l’avance ? La complexité du système atmosphérique, où interagissent en permanence absorption et émission de rayonnement, changements de phase de l‘eau et échanges de chaleur associés, échanges d’eau et d’énergie avec le milieu sous-jacent, ainsi que d’innombrables autres processus, y est certainement pour quelque chose. Et l’amélioration de la qualité des prévisions visible sur la Figure 1 est précisément due, en partie, à l’introduction progressive dans les modèles numériques d’une quantité croissante de ces nombreux processus.

2 - La sensibilité aux conditions initiales

Mais il y a beaucoup plus fondamental, comme l’a montré un travail célèbre effectué en 1963, au début de l’ère du calcul électronique scientifique, par le météorologiste et mathématicien états-unien E. N. Lorenz. Celui-ci (comme déjà raconté dans la note Théologie et atmosphère) avait développé un modèle numérique de petite dimension (3 en l’occurrence, alors que la dimension de certain des modèles actuels de prévision météorologique dépasse le milliard), qui donnait une représentation idéalisée du phénomène de convection thermique se produisant dans une couche fluide chauffée par sa face inférieure. Effectuant un nouveau calcul à partir de résultats intermédiaires qu’il avait conservés en mémoire, il constata que ce nouveau calcul produisait des résultats tout à fait différents de ceux du calcul d’origine. Il crut d’abord à une erreur de codage, qu’il ne put trouver, et finit par comprendre que le problème venait de ce que les résultats intermédiaires à partir desquels il avait refait son calcul avaient une précision moins grande que celle du calcul d’origine. Retirer les dernières décimales des résultats intermédiaires (ou plus précisément, dans le cas présent, leurs derniers chiffres binaires) avait totalement transformé les résultats de la prévision. Partant d’une observation fortuite (on parle de plus en plus, suivant l’anglais, de sérendipité), et poursuivant sa réflexion, E. N. Lorenz avait mis en évidence la sensibilité des prévisions aux conditions initiales. Sensibilité décrite par l’image du désormais célèbre effet papillon. Un papillon bat des ailes. La perturbation qu’il crée dans l’air ambiant s’amplifie et gagne progressivement des échelles spatiales de plus en plus grandes, avec la conséquence qu’un cyclone apparaît une dizaine de jours plus tard là où rien ne se serait passé si le papillon n’avait pas battu des ailes.

La sensibilité aux conditions initiales n’était d’ailleurs pas une notion pleinement nouvelle. Le mathématicien Henri Poincaré avait écrit en 1908, dans son livre Science et Méthode, précisément à propos de la météorologie, les lignes suivantes :

"Pourquoi les météorologistes ont-ils tant de peine à prédire le temps avec quelque certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard, de sorte que bien des gens trouvent tout naturel de prier pour avoir la pluie ou le beau temps, alors qu’ils jugeraient ridicule de demander une éclipse par une prière ? Nous voyons que les grandes perturbations se produisent généralement dans les régions où l’atmosphère est en équilibre instable. Les météorologistes voient bien que cet équilibre est instable, qu’un cyclone va naître quelque part ; mais où, ils sont hors d’état de le dire ; un dixième de degré en plus ou en moins en un point quelconque, le cyclone éclate ici et non pas là, et il étend ses ravages sur des contrées qu’il aurait épargnées. Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées, ni assez précises, et c’est pour cela que tout semble dû à l’intervention du hasard."

Mais il s’agissait de la part d’Henri Poincaré d’une intuition, fondée sur sa grande expérience scientifique, plutôt que d’une pleine découverte. Lorenz, lui, avait mis en évidence la sensibilité aux conditions initiales de façon pleinement objective.

Passer d’un système idéalisé à trois paramètres, simulant la convection thermique, à l’atmosphère dans sa totalité constituait certes un pas audacieux, qu’E. N. Lorenz franchit néanmoins. Il alla même plus loin. Augmenter la résolution spatiale des conditions initiales diminue l’erreur initiale de la prévision. Mais, sur la base de considérations quant à la vitesse à laquelle une perturbation de petite échelle spatiale se propage progressivement vers des échelles plus grandes, Lorenz conclut que le taux de croissance de l’erreur augmenterait du même coup, et suffisamment rapidement pour qu’il y ait une limite ultime à la prévision. Il estima cette limite à une quinzaine de jours.

Cette conclusion a été largement confirmée, directement ou indirectement, par de nombreux travaux ultérieurs. La Figure 2 présente le résultat d’une prévision d’ensemble récemment effectuée au CEPMMT (voir encart). On y voit dans la partie supérieure le résultat de 52 prévisions numériques effectuées, pour la même date, à échéance de 7 jours. La quantité représentée est le champ de pression au niveau de la mer sur l‘Europe occidentale (le modèle utilisé est, lui, global). À la résolution de la figure, les différences entre les conditions initiales de ces différentes prévisions seraient invisibles à l’œil.

Prévisions d'ensemble

Figure 2. Prévision d’ensemble produite par le CEPMMT (ECMWF en anglais), à échéance de 7 jours, pour le 12 Avril 2021. Le champ représenté est la pression au niveau de la mer sur l’Europe. La partie supérieure de la figure présente 52 prévisions effectuées à partir de conditions initiales différentes et de petites perturbations dans la ‘physique’ du modèle de prévision. Les trois cartes du bas présentent, à gauche, deux des prévisions de l’ensemble, agrandies pour améliorer leur lisibilité et, à droite, la "vérification’ observée" à l’échéance de la prévision (source : ECMWF).

Mais on voit que les champs montrés sur la figure, même si beaucoup d’entre eux ont une structure similaire, avec une zone de hautes pressions dans la région considérée, présentent néanmoins des différences marquées. Les éléments 14 et 46 (agrandis dans la partie inférieure de la figure) sont par exemple tout à fait différents, particulièrement dans les latitudes élevées. Ces deux éléments sont eux-mêmes très différents de la "vérification observée" à l’échéance de la prévision, représentée en bas à droite de la figure. La sensibilité aux conditions initiales est présente, sinon dans l’atmosphère elle-même (l’expérience directe serait difficile à effectuer …), du moins dans les modèles numériques, qui constituent, de loin, le meilleur outil dont nous disposons pour la prévision météorologique. 

Les prévisions d’ensemble

Le document présenté en figure 2 (appelé souvent document «timbres poste» ) est un outil de base utilisé par les prévisionnistes pour évaluer d’un simple coup d’œil l’incertitude associée à une prévision numérique d’un événement météorologique particulier sur un domaine donné. Associé à d’autres documents plus synthétiques issus de la même prévision d’ensemble, (et avec la carte de vérification en moins!), il permet d’effectuer des prévisions probabilistes, comme d’estimer la probabilité d’un événement extrême. Les documents du CEPMMT sont accessibles en temps réel sur le lien suivant (en choisissant dans le menu de la colonne de gauche «Medium» pour « Range » et «Combined» pour «Product type») : Charts catalogue

Depuis le début des années 1990, la prévision d’ensemble est utilisée quotidiennement dans beaucoup de centres météorologiques. Le site web «meteociel» rassemble une vaste collection de documents provenant de différents modèles opérationnels et de différents systèmes de prévision d’ensemble, permettant de suivre en temps réel la prévision du temps en mode déterministe ou en mode probabiliste.
Ainsi, le menu de la colonne de gauche permet de visualiser les deux principaux modèles opérationnels aujourd’hui à Météo-France, «Arpège» et «Arome», ainsi que les systèmes de prévision d’ensemble associés. Ces derniers sont répertoriés dans le menu météociel sous les noms «PEARP» et «PE-AROME».

L'expérience montre que, si la dispersion des prévisions d’ensemble varie d'une situation à l'autre, elle est fiable, en ce sens que l'erreur de la prévision centrale est statistiquement petite quand la dispersion est petite, et grande quand la dispersion est grande.

 

Une étude systématique a récemment été effectuée sur deux parmi les meilleurs modèles numériques actuels de prévision météorologique (Zhang et al., 2019). La prévisibilité de chacun des modèles a été évaluée par comparaison de prévisions effectuées par le même modèle à partir de conditions initiales très voisines, à des résolutions spatiales différentes. La qualité des prévisions de l’écoulement des latitudes moyennes ne s’améliore plus au-delà d’une quinzaine de jours, quelle que soit la résolution spatiale utilisée. Comme anticipé par Lorenz, augmenter la résolution spatiale des conditions initiales conduit à des gains de plus en plus faibles, et finalement à une saturation, la croissance des erreurs augmentant à mesure que l’échelle spatiale diminue.

On peut constater que cette limite d’une quinzaine de jours se situe encore bien au-delà de l’échéance visible sur la Figure 1. Celle-ci suggère que des progrès significatifs sont encore possibles (mais probablement au coût élevé requis par une augmentation significative des moyens d’observations et de calcul).

Le travail de Lorenz de 1963, même s’il ne constituait pas une découverte totalement nouvelle, eut un immense impact qui s’étendit bien au-delà des sciences de l’atmosphère, et fut à l’origine du développement, théorique, numérique et expérimental, de ce que l’on appelle la théorie du chaos déterministe. Ce développement doit évidemment beaucoup à la disponibilité de moyens de calcul puissants. On sait maintenant que la sensibilité aux conditions initiales et la prévisibilité finie sont en fait omniprésentes dans le monde physique. On s’est par exemple ainsi rendu compte que la prévisibilité des mouvements des planètes, longtemps considérée comme l’archétype même du succès de la prévision déterministe, était aussi limitée, mais à des échéances de dizaines ou centaines de millions d’années, bien plus longues que celle de l’histoire des sociétés humaines (cette prévisibilité finie des mouvements des planètes avait d’ailleurs été pressentie, elle aussi, par H. Poincaré dans son livre Science et Méthode ; voir la note Théologie et atmosphère citée plus haut). Le travail de Lorenz a clairement montré que déterminisme mathématique n’implique pas nécessairement prévisibilité de fait.

Par quels mécanismes une petite erreur initiale s’amplifie-t-elle jusqu’à contaminer l’écoulement atmosphérique dans son entier ? Les mouvements de l’atmosphère (ainsi que ceux de l’océan) résultent d’instabilités, causées elles-mêmes par l’échauffement différentiel entre différentes parties du fluide. Dans le cas de l’atmosphère, une instabilité locale, mais importante, est l’instabilité convective, qui résulte de l’absorption du rayonnement solaire par le milieu sous-jacent (continent ou océan), et de l’échauffement qui en résulte. Des mouvements ascendants rapides apparaissent dans l’atmosphère, qui transportent de la chaleur vers le haut, et sont compensés par des mouvements de subsidence d’extension horizontale plus grande. Les mouvements ascendants sont à l’origine des formations nuageuses que sont les cumulus, et des orages qui les accompagnent. Peu affectés en général par la rotation terrestre, ils s’étendent sur des échelles horizontales de quelques kilomètres ou dizaines de kilomètres, et des échelles temporelles de quelques heures. L’instabilité convective est l’un des processus par lequel une erreur très localisée se propage à des échelles plus grandes.

Un autre processus important est l’instabilité barocline, qui résulte, elle, du gradient de température entre les hautes et les basses latitudes. Fortement influencée par la rotation terrestre, elle est à l’origine des zones de hautes et de basses pressions qui dominent la météorologie des latitudes moyennes. Les mouvements associés ont des échelles spatiales typiques de quelques milliers de kilomètres, et des échelles temporelles de quelques jours. Ils transportent globalement de l’énergie depuis les basses latitudes vers les latitudes plus élevées. La figure 3 présente un exemple idéalisé d’instabilité barocline. Pour un état de l’atmosphère donné, représenté sur la figure 3a (le champ représenté est, comme pour la figure 1, le géopotentiel de la surface isobare 500 hPa), on a déterminé, à l’aide d’un modèle numérique de l’écoulement, la perturbation qui croîtrait le plus rapidement sur une période de 36 heures (le mode singulier dominant). Cette perturbation virtuelle, localisée à l’endroit le plus instable de l’écoulement pour l’état considéré, est représentée sur la figure 3b. Et ce qu’elle devient au bout de 36 heures est représenté sur la figure 3c. Son extension spatiale s’est étendue. Mais surtout son amplitude a augmenté, avec un taux d’amplification globale de 5,4. C’est l’amplification permanente de petites incertitudes de ce genre, plus petites que la précision des observations de départ, qui conduit à la dégradation rapide des prévisions météorologiques. Ce sont d’ailleurs ces instabilités, beaucoup plus que les imperfections propres des modèles numériques en tant que tels, qui sont là importantes. Comme le montre le travail de Zhang et al., un modèle parfait, en ce sens qu’il rendrait exactement compte des lois physiques qui régissent l’écoulement, conduirait aux mêmes résultats.

fig 3a

fig 3bc

Figure 3.  Un exemple de croissance de l’erreur sous l‘effet de l’instabilité barocline. a. Géopotentiel à 500hPa de la situation considérée. b. Structure de la perturbation initiale s’amplifiant le plus rapidement sur 36h. c. Évolution correspondante au bout de 36h (courtoisie L. Descamps, Météo-France)

Pour autant, si les deux processus d’instabilité décrits ci-dessus contribuent de façon significative à l’amplification d’une petite erreur initiale locale, toutes les prévisions ne se dégradent pas à la même vitesse. Certaines situations sont plus prévisibles que d’autres, et c’est bien pour cela que les grands services météorologiques produisent des prévisions d’ensemble, du type de celle qui a été présentée sur la Figure 2, afin de prévoir l’’erreur du jour’. La vaste question de la prévisibilité des différentes situations atmosphériques, et de l’échéance à laquelle différents phénomènes (tornades, cyclones tropicaux, tempêtes associées à des dépressions, …) peuvent être prévus, est de la plus grande importance pour la météorologie quotidienne. Elle mériterait des développements détaillés qui pourraient faire l'objet d'un nouvel article. et n’est pas discutée dans la présente note.

Indépendamment de l’incertitude présente dans les conditions initiales d’une prévision, les modèles, on l’a dit, ne sont pas parfaits, et ne peuvent jamais être des simulateurs exacts de l’atmosphère. Et les erreurs de modélisation, même si elles ne sont pas principalement responsables de la croissance rapide initiale des erreurs de prévision, ont aussi leur impact. Les modèles s’améliorent progressivement par l’augmentation de leur résolution spatiale et du nombre de processus physiques qu’ils sont capables de simuler.  Mais il reste des limitations. On en trouve beaucoup, par exemple, dans le cycle de l’eau et les multiples effets qui lui sont associés : échanges d’énergie dus aux changements de phases, effets radiatifs des multiples types de nuages, échange d’eau avec le milieu sous-jacent, etc.  Il y aura toujours de telles limitations, qui s’ajouteront à l’instabilité fondamentale de l’écoulement atmosphérique. 

Le lecteur désireux d’en savoir plus sur les performances actuelles des prévisions météorologiques pourra trouver des informations sur les sites du CEPMMT (forecast)  ou de Météo-France (modèles de prévision).

3.  La prévisibilité climatique

S’il existe une limite ultime d’une quinzaine de jours, comment peut-on prétendre prévoir le climat plusieurs décennies à l’avance, comme il est fait par exemple dans les rapports successifs du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) ? C’est là une objection qui a effectivement été opposée aux travaux du GIEC. On peut simplement remarquer que le cycle des saisons est prévisible bien au-delà d’une quinzaine de jours. Et cette remarque fournit elle-même la réponse : le cycle des saisons est déterminé par la quantité d’énergie reçue du Soleil, et non par l’état actuel de l’atmosphère.
C’est là toute la différence entre météorologie et climat, déjà discutée dans une autre FAQ du site des Argonautes (Quelle est la différence entre «météorologie» et «climatologie»). Cette différence peut être expliquée, de façon certes simplifiée mais non fondamentalement erronée, sur une phénomène aussi banal que l’ébullition d’une casserole d’eau. L’ébullition produit un ensemble turbulent de bulles qui grossissent et éclatent, au-dessus desquelles se forment des volutes de gouttelettes d’eau. L’évolution des bulles et des volutes individuelles est imprévisible et impossible à contrôler. Mais le taux global d’évaporation est, lui, prévisible et contrôlable si l’on peut agir précisément sur la quantité de chaleur transmise à la masse d’eau, et sur la température et la ventilation de l’air environnant. Dans cette comparaison simple, les bulles et les volutes d’eau constituent la ‘météorologie’, tandis que le taux d’évaporation qui en résulte constitue le ‘climat’.

Ce qui détermine le climat de la Terre, ce sont fondamentalement les flux d’énergie entre les différentes composantes du système terrestre (atmosphère, océans, cryosphère et compartiments internes à ces composantes)  : absorption de l’énergie reçue du Soleil, puis transport et échange de cette énergie entre les différentes composantes du système, et réémission finale vers l’espace extérieur.

Les flux instantanés dépendent de l’état présent du système, mais leurs valeurs statistiques à long terme sont déterminées par tout un ensemble d’éléments, tels que la composition de l’atmosphère et de l’océan, la position des montagnes et des continents, les propriétés du sol, la quantité d’eau disponible, et beaucoup d’autres encore. C’est ainsi que l’on peut affirmer que l’augmentation du contenu de l’atmosphère en CO2, en augmentant l’absorption par l’atmosphère du rayonnement infrarouge émis par le sol et les couches inférieures, conduit à un échauffement global de l’atmosphère et des océans. Ce ne sont pas les mêmes causes qui déterminent le temps qu’il fera dans une semaine, et ce que sera le climat, moyenné sur dix ou vingt ans, dans cinquante ou cent ans de maintenant.

Peut-on alors prévoir, par exemple, l’occurrence d’un nouvel âge glaciaire ? La figure 4 montre les variations de la température de l’atmosphère sur les 400 000 dernières années, obtenues à partir d’un carottage effectué dans la calotte antarctique. On y voit des oscillations plus ou moins régulières, mais particulièrement un cycle d’environ 100 000 ans, qui est en accord avec la théorie astronomique des variations des climats (voir la FAQ Quelle est la cause de l'alternance de périodes chaudes et de glaciations sur Terre lors du dernier million d'années ?).
Nous sortons actuellement d’une phase chaude, et l’on peut donc s’attendre, après le réchauffement actuel dû aux activités humaines, à un nouvel âge glaciaire dans 80 à 100 000 ans de maintenant. Dans notre compréhension actuelle, les âges glaciaires commencent quand les paramètres orbitaux de la Terre favorisent un enneigement hivernal abondant dans l’hémisphère nord, suivi d’un été relativement frais. L’effet d’albédo de la neige favorise le maintien de celle-ci pendant l’été, et l’amplification de l’enneigement. Si donc les conditions d’apparition d’un âge glaciaire semblent assez prévisibles, la chute de neige particulière, ou la séquence de chutes, qui l’enclenchera est évidemment, elle, imprévisible.

fig 4

Figure 4. Variations de la température de l’atmosphère sur les 400 000 dernières années, telles que déduites du carottage Vostok en Antarctique (figure extraite de Petit et al., 1999). Échelle horizontale : date dans le passé, en milliers d’années (le présent est à l’extrémité droite de l’axe).

Pour la prévision météorologique, une connaissance précise de l’état initial est indispensable. Pour la prévision du climat, une telle connaissance n’est pas nécessaire, au moins dans notre compréhension actuelle : ce sont les flux d’énergie, définis par l’insolation et les échanges internes au système climatique, qui importent.

4. La prévisibilité mensuelle et saisonnière

Si le cycle des saisons est évidemment prévisible, il n’en reste pas moins que les saisons varient d’une année à l’autre. Il y a des hivers rudes et des hivers doux, des étés pluvieux et des étés caniculaires. Quelle est l'origine de ces variations et, surtout, sont-elles prévisibles ? Plusieurs oscillations, plus ou moins régulières, ont été mises en évidence sur des échelles temporelles allant de quelques mois à quelques années. La plus connue de ces oscillations est probablement le phénomène El Niño. Tous les trois à cinq ans environ, vers la fin du mois de décembre, le courant froid (courant de Humboldt) qui remonte habituellement du Sud au large des côtes du Pérou est remplacé par des eaux chaudes habituellement situées plus à l’Ouest. Ce phénomène est dû à un affaiblissement des alizés, qui soufflent vers l’Ouest. Il est associé à un basculement de la pression atmosphérique sur l’Océan Pacifique Équatorial (baisse de pression à l’Est et augmentation à l’Ouest), qu’on appelle l’Oscillation Australe. Le phénomène El Niño, dont les effets se font ressentir sur un an ou plus, modifie significativement la météorologie locale, et particulièrement les précipitations. Mais, au-delà, il a un impact sur les deux continents américains, l’Asie, l’Océan Atlantique et même l’Europe.

D’autres oscillations plus ou moins régulières sont observées à différentes échelles de temps et d’espace. L’oscillation de Madden-Julian module la pluviosité des océans tropicaux sur des périodes de 40 à 50 jours. L’oscillation Nord-Atlantique, sur des temps typiques d’une dizaine d’années, modifie la position et la trajectoire des dépressions et des anticyclones de l’Océan Atlantique. Des ‘régimes de temps’ lui sont plus ou moins corrélés, qui possèdent statistiquement des durées de vie et des transitions mutuelles préférentielles. C’est un de ces régimes de temps, associé à la présence d’un anticyclone sur l’Europe du Nord, qui produit par exemple les vagues de froid intenses qui frappent quelquefois en hiver l’Europe occidentale.

Toutes ces oscillations résultent d’interactions, pour la plupart encore mal comprises, entre l’océan et l’atmosphère. Ces interactions induisent des modes de variabilité qui n’existeraient pas si l’atmosphère ou l’océan étaient seuls. C’est le cas en particulier du phénomène El Niño.

Ces oscillations diverses ne sont guère prévisibles à l’avance. Mais, une fois établies, elles possèdent un certain de degré de prévisibilité statistique quant à leur évolution et à leur durée. Et certaines situations permettent plus qu’une prévision purement statistique : on a pu montrer par exemple, a posteriori, que la canicule qui a frappé l’Europe Occidentale, et particulièrement la France, au mois d’août 2003 était due en partie à un déficit de pluviométrie du printemps précédent, qui avait rendu le sol particulièrement sec. Il y a là un élément de prévisibilité potentielle.

Les ressources de la modélisation numérique ont bien entendu été mises en œuvre pour les échéances mensuelles et saisonnières. Des modèles couplant océan et atmosphère sont intégrés sur ces échéances. La définition des conditions initiales des prévisions est ici encore importante. Ces modèles possèdent une prévisibilité faible, mais réelle. Cette prévisibilité est le plus visible sur des prévisions d’ensemble, dont les moyennes contiennent un signal statistique identifiable, par exemple sur la température ou la pluviosité des mois à venir. Les prévisions d’ensemble mensuelles et saisonnières effectuées par le CEPMMT peuvent être examinées en temps réel grâce à différents produits disponibles sur le web suivant (choisir le type de produits dans le menu de la colonne de gauche) : ECMWF-open charts

Mais il n’en reste pas moins que les processus physiques qui déterminent les fluctuations atmosphériques sur des échelles mensuelles, saisonnières  ou annuelles  restent très mal connus,  et que la prévision de ces fluctuations reste la ‘zone grise’ de la prévision.

5. Conclusion

La prévisibilité de l’atmosphère et de l’océan est fondamentalement une question d’échelles spatiales et temporelles. Sans simplification excessive, on peut dire que plus l’échelle spatiale est grande, plus la prévisibilité temporelle est élevée. Mais les processus physiques qui déterminent la prévisibilité et ses limites varient avec les échelles considérées. Pour la météorologie ordinaire, où l’on peut considérer que l’atmosphère est un fluide homogène dans le temps et dans l’espace, c’est la croissance chaotique d’incertitudes initiales de petite échelle spatiale qui limite la prévisibilité. Si l’atmosphère était un fluide homogène situé au-dessus d’un milieu homogène, sans fluctuations des flux d’énergie qu’il reçoit, sa prévisibilité resterait entièrement limitée aux quinze jours que l’on a dit. Le cas d’un océan isolé serait probablement le même, avec des échelles temporelles pouvant atteindre, pour la circulation profonde, des valeurs séculaires. Mais l’atmosphère et l’océan, et le système climatique dans son ensemble, ne sont homogènes ni dans l’espace ni dans le temps. En plus du cycle saisonnier, évident, des phénomènes physiques spécifiques sont présents aux différentes échelles, et leur ajoutent une certaine prévisibilité : interactions (mal comprises, mais présentes) entre l’océan et l’atmosphère aux échelles mensuelles, saisonnières et interannuelles, variations aux échelles millénaires, encore plus mal comprises (mais clairement visibles sur la Figure 4 où elles se superposent au cycle dominant de 100 000 ans), variations des paramètres orbitaux de la Terre aux échelles climatiques. À plus longue échéance encore, ce sont la tectonique et la position des continents qui importent.

Le problème de la prévisibilité de l’atmosphère et de l’océan, on le voit, est partiellement résolu, mais partiellement seulement. Et il est d’autant plus important de s’employer à le résoudre au mieux que l’on sait désormais qu’il a des implications majeures pour le devenir des sociétés humaines.

Références

Petit, J.-R., J. Jouzel, D. Raynaud, N. I. Barkov, J.-M. Barnola, I. Basile, M. L. Bender, J. A. Chappellaz, J. C. Davis, G. Delaygue, M. Delmotte, V. Kotlyakov, M. R. Legrand, V. Ya. Lipenkov, C. Lorius, L. Pepin, C. Ritz, E. S. Saltzman et M. Stiévenard, 1999, Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica. Nature, 399(6735), 429-436, 399(6735), 429-436, 399(6735), 429-436

Zhang, F., Y. Q. Sun, L. Magnusson, R. Buizza, S.-J. Lin, J.-H. Chen, et K. Emanuel, 2019: What is the predictability limit of midlatitude weather? J. Atmos. Sci., 76, 1077–1091, 76, 1077–1091.

 

Yves Dandonneau, d'après les propos échangés par les Argonautes - décembre 2019 - mise à jour mars 2020

Résumé en langage courant

Comment périodes chaudes et glaciations alternent elles sur Terre?

La Terre n'a pas toujours connu le climat qui règne depuis 12 000 ans et qui caractérise la période actuelle, nommée l'holocène. Ce sont les géologues qui, les premiers, en ont trouvé que la Terre avait connu des périodes glaciaires au cours desquelles une grande partie de l'Europe du nord avait été, à plusieurs reprises, recouverte de glace, après avoir identifié dans des plaines qui connaissent maintenant un climat tempéré des alignements des moraines telles qu'on voit à l'extrémité des glaciers de montagne.

Comment cela a-t-il pu se produire, alors que la chaleur fournie par le Soleil au système climatique terrestre change très peu ?

Les explications les plus probables ont été avancées par les astronomes, qui ont mis en avant le rôle des variations des paramètres de la rotation de la Terre autour du Soleil.

L'explication donnée par les climatologues met en avant le rôle des rétroactions : sous le climat actuel, chaque hiver de l'hémisphère nord voit la calotte enneigée de l'arctique s'étendre. A la sortie de l'hiver, cette neige blanche réfléchit vers l'espace une partie du rayonnement solaire qui est ainsi perdue par le système climatique de la Terre. Cependant, avec l'allongement de la durée des jours et la montée du Soleil, elle finit par fondre en grande partie. Mais si l'excentricité de l'orbite terrestre est forte, que l'été a lieu lorsque la Terre est au plus loin du Soleil, et que de surcroît l'axe de rotation de la Terre est peu incliné, alors, il peut arriver que la neige tombée en hiver dans l'hémisphère nord ne fonde pas en totalité en été : davantage de neige, moins de rayonnement solaire absorbé par le système climatique, la rétroaction (dite « rétroaction de l'albédo ») s'enclenche et conduit à une ère glaciaire.

Les ères glaciaires durent plus longtemps que les interglaciaires. Conformément aux précédents interglaciaires, celui que nous connaissons devrait donc s'achever dans quelques milliers d'années. Mais il se pourrait que nous bénéficiions encore longtemps du climat favorable qui a permis le développement de l'humanité. En effet, d'une part l'excentricité de l'orbite terrestre est actuellement très faible et le restera pendant encore plusieurs dizaines de milliers d'années, et d'autre part, en émettant massivement du gaz carbonique qui s'accumule dans l'atmosphère, nous avons mis en marche un réchauffement du climat dont les effets seront très longs à s'atténuer.

 

En savoir plus... 

Quelle est la cause de l'alternance de périodes chaudes et de glaciations sur Terre lors du dernier million d'années?

La température qui règne à la surface de la Terre dépend de l'énergie reçue du Soleil, et de la façon dont la Terre l'absorbe avant de la réémettre vers l'espace.  Le rayonnement émis par le Soleil augmente très lentement depuis la formation du système solaire, mais pour les variations climatiques qui nous intéressent, nous pouvons le considérer comme constant.
À la distance moyenne de l'orbite terrestre (149,6 millions de km), ce rayonnement est de 1 361 W/m2 d'après les estimations les plus récentes , soit, à la surface de la Terre, compte tenu de sa sphéricité, une moyenne de 340,25 W/m2.

Les variations climatiques de la Terre au cours du temps sont liées aux variations des paramètres de la rotation de la Terre autour du soleil :

  • l'ellipticité (ou excentricité) de l'orbite,
  • l'inclinaison de l'axe de rotation de la Terre sur le plan de son orbite (écliptique),
  • et la rotation de cet axe autour d'une perpendiculaire au plan de l'écliptique.

C'est l'astronome serbe Milutin Milankovitch qui a le premier montré en 1924 comment ces variations orbitales pouvaient influencer le climat de la Terre. Le météorologue belge André Berger a repris sa théorie en détail et a définitivement montré sa validité.

I.- L'excentricité de l'orbite terrestre

L'orbite de la Terre autour du Soleil n'est pas un cercle parfait, mais une ellipse dont le Soleil occupe un des foyers, et qui est perturbée par l'attraction des autres planètes et de la Lune.
L'excentricité de cette ellipse, définie comme le rapport de l'écart entre les deux foyers au grand axe de l'ellipse, varie. Puisque les mouvements de la Lune et de chacune des planètes sont périodiques, leur combinaison fait apparaître des périodes dans les variations de l'excentricité.
La variation de plus grande amplitude a une période de 400 000 ans, d'autres périodes apparaissant entre 90 000 et 120 000 ans.
Plus l'excentricité est grande, plus l'orbite s'allonge. Sa valeur qui varie de 0,005 à 0,06 est actuellement faible, soit 0,017 (pour un cercle parfait, cette valeur serait nulle). Ainsi, lors de sa rotation autour du Soleil, la distance de la Terre au Soleil varie, ainsi que l'énergie qu'elle en reçoit puisque celle-ci est inversement proportionnelle au carré de la distance (Figure 1).
Lorsqu'elle est au plus près du Soleil (147 millions de km au périhélie, actuellement vers le 5 janvier) le rayonnement solaire à la distance de la Terre est maximum, soit environ 1 410 W/m2. À l'opposé, il est minimum lorsque l'éloignement est maximum (142 millions de km à l'aphélie, actuellement vers le 5 juillet), et vaut alors environ 1 318 W/m2.
La variation relative de l’énergie reçue du Soleil au cours d'une année entre le périhélie et l'aphélie est égale à quatre fois l'excentricité (soit, actuellement, 6,8 %, mais cette variation atteint jusqu'à 24 % lorsque l'excentricité est maximale). Le mouvement orbital, plus lent au passage à l’aphélie conformément à la loi des aires de Kepler, compense les variations d’insolation, de telle sorte que la quantité d’énergie totale reçue au cours de l’année reste la même pour chacun des deux hémisphères.

Figure 1 : Lorsque l'orbite de la Terre autour du Soleil est quasi-circulaire, le rayonnement (en dégradé rouge) reçu par la Terre varie peu d'une saison à l'autre. Lorsque l'orbite est excentrée, le rayonnement reçu au périhélie est plus fort qu'à l'aphélie.

II L'inclinaison de l'axe de rotation de la Terre

L'axe de rotation de la Terre sur elle-même est incliné par rapport au plan de l'écliptique. L'angle entre l'axe et la perpendiculaire au plan de l'écliptique est actuellement de 23,5°, et sous l'influence des autres planètes et de la lune, il varie de 22° à 24,5°, avec une période voisine de 41 000 ans.
L'inclinaison de l'axe de rotation de la Terre est la cause de l'existence des saisons (Figure 2), et plus cette inclinaison est forte, plus le contraste entre les saisons est élevé. Elle définit en particulier une zone, au delà des cercles polaires que le rayonnement solaire n'atteint pas durant quelques semaines autour des solstices d'hiver, tandis qu'elle est éclairée 24h/24 aux solstices d'été.
La latitude des cercles polaires est le complément à 90° de l'inclinaison et varie donc de 65,5° à 68°.
Dans l'hémisphère nord, à ces latitudes, il y a une majorité de terres émergées, qui sont couvertes de glace à la sortie de l'hiver. Milutin Milankovitch avait choisi la latitude 65°N pour mettre en évidence le rôle des paramètres astronomiques dans l'alternance de périodes chaudes et de périodes glaciaires : à cette latitude, le rayonnement solaire reçu au solstice d'été à la surface de la Terre augmente d'environ 30 W/m2 lorsque l'inclinaison de l'axe de rotation de la Terre passe de sa valeur minimale à sa valeur maximale.

Figure 2 : Une obliquité faible réduit la zone limitée par les cercles polaires et atténue les contrastes entre les saisons. Lorsque l'obliquité est forte au contraire, le contraste des saisons est renforcé, et la zone affectée par la nuit polaire s'agrandit. Près du pôle nord où les continents dominent, cette nuit polaire s'accompagne d'un enneigement.

III La précession des équinoxes

L'axe de rotation de la Terre sur elle-même est actuellement dirigé vers l'étoile polaire, mais cela n'est pas immuable : dans environ 12 000 ans, il pointera vers l'étoile Véga.
En fait, tout en gardant le même angle avec le plan de l'écliptique, cet axe tourne lentement en décrivant un cône, comme on l'observe en regardant les mouvements d'une toupie (figure 3 A).
Une conséquence est qu'une position d'équinoxe de l'axe de rotation de la Terre se reproduit 20 minutes avant que la Terre ait fait un tour complet du Soleil. Ainsi, l'année telle que nous la définissons, commodément basée sur le cycle des saisons, est plus courte de 20 minutes que l'année sidérale qui correspond à une rotation complète de la Terre autour du Soleil. En conséquence, la position des solstices et des équinoxes n’est pas fixe sur la trajectoire de la Terre autour du Soleil et il en résulte que périhélie et aphélie occupent des positions variables dans le cycle des saisons.
Ainsi actuellement le périhélie se situe début janvier et l’aphélie début juillet. C’était l’inverse il y a un peu plus de 10 000 ans. À raison de 20 minutes par an, un cycle complet devrait durer environ 26 000 ans.
Mais un autre mouvement intervient simultanément : le grand axe de l'orbite terrestre tourne de telle sorte que périhélie et aphélie se déplacent eux aussi, de telle sorte que la période liée à la précession des équinoxes est d'environ 21 000 ans.

Figure 3 :
(A) L'axe de rotation de la Terre décrit un cône en 25 800 ans.
(B) Le solstice d'été parcourt l'orbite de la Terre autour du Soleil, en passant notamment par le périhélie et l'aphélie. La durée de ce parcours n'est cependant pas 25 800 ans, mais environ 21 000 ans (voir l'encart sur les périodicités)

Périodes

L'orbite de la Terre autour du Soleil est une ellipse dont le Soleil occupe un foyer, et l'excentricité de cette ellipse varie, de même que l'orientation de son grand axe. De plus, la Lune et les autres planètes, en particulier Jupiter et Saturne, les plus massives, exercent leur attraction sur la Terre, en fonction de leurs propres orbites.
Venus tourne autour du Soleil en 225 jours, Mars en un peu moins de 2 ans, Jupiter en un peu moins de 12 ans, et Saturne en 29 ans.
Dans un système aussi complexe, il n'y a pas de périodicité bien établie. Toutefois, il se dégage des intervalles de temps correspondant à chacun des paramètres orbitaux.
L'excentricité de l'orbite terrestre varie avec une période dominante de 400 000 ans, et d'autres périodes entre 90 000 et 120 000 ans avec une moyenne vers 100 000 ans. L'inclinaison de l'axe de rotation de la Terre varie avec une période de 41 000 ans environ.
En raison de la précession des équinoxes, l'emplacement sur l'orbite où l'axe de rotation de la Terre pointe vers le Soleil au solstice d'été boréal (appelons ce point E) se déplace, et fait le tour de l'orbite terrestre en 25 800 ans environ. Au cours de ce périple, il passe par l'aphélie, et par le périhélie. Mais pendant cette longue durée, le grand axe de l'orbite de la Terre (ou : axe des apsides, les apsides étant le périhélie et l'aphélie) tourne lui aussi, en sens inverse. Après être passé par l'aphélie, le point E y passera donc de nouveau avant d'avoir effectué un tour complet d'orbite. La période de rotation du grand axe des apsides est d'environ 135 000 ans. En combinant cette période avec celle de la précession des équinoxes, on calcule, que d'un passage à l'autre du solstice d'été à l'aphélie, il s'écoule environ 21 700 ans. C'est cette période qui est pertinente pour le climat.

 

Aucun de ces paramètres orbitaux à lui seul n'est capable de donner lieu à une ère glaciaire. C'est lorsque leurs effets se superposent qu'une glaciation peut s'initier, et le forçage le plus intense interviendrait lorsque l'excentricité est maximale (tous les 400 000 ans, ou tous les 90 000 à 100 000 ans), alors que l'axe de rotation est peu incliné (tous les 41 000 ans), et que le solstice d'été boréal a lieu à l'aphélie (tous les 21 700 ans).
Conformément aux travaux d’André Berger ou de Jacques Laskar sur le système solaire, le calcul des variations temporelles de  l’insolation, à une latitude élevée (80 degrés nord) et sur une période de 800 000 ans, indique, d’après  une analyse spectrale, que trois périodes prédominent outre celles de l’excentricité vers 400 000 et 100 000 ans : les périodes  de 41 000, 19 000 et 23 000 ans; elles sont  importantes sur le plan de l’étude climatique et montrent que le lien entre les périodes astronomiques et les périodes climatiques est complexe.

IV Comment s'installent les périodes glaciaires

Le rayonnement solaire qui parvient à la distance moyenne Terre – Soleil peut être considéré comme constant.
L'énergie reçue par la Terre varie certes entre ses passages au périhélie et à l'aphélie, et cette variation est d'autant plus importante que l'excentricité de l'orbite est grande (jusqu'à 24 %), mais lorsque la Terre parcourt une orbite entière, en une année, l'énergie totale reçue est sensiblement la même quelles que soient les conditions orbitales ou d'inclinaison de l'axe de rotation de la Terre.
En effet, lorsque la Terre est à l'aphélie, son mouvement orbital est plus lent et ceci compense exactement la diminution du rayonnement solaire reçu qui est lui aussi inversement proportionnel au carré de la distance Terre – Soleil. Selon les mêmes principes, les deux hémisphères reçoivent au cours d'une année la même quantité d'énergie. Qu'est-ce donc qui déclenche les périodes glaciaires ?

Notons d'abord que tout le rayonnement solaire qui atteint la Terre ne contribue pas à son climat : une partie est réfléchie et repart immédiatement vers l'espace. Cette fraction du rayonnement qui est réfléchie (l'albédo) est principalement causée par l'enneigement (l'albédo des surfaces enneigées est d'environ 80 %). L'enneigement se produit en hiver et se poursuit jusqu'au dégel au printemps et en été. Dans la période chaude où nous sommes actuellement, toute la neige tombée en hiver fond et ne s'accumule donc pas, ce qui permet à l'année qui suit de se dérouler dans les mêmes conditions. Mais imaginons qu'il y ait eu un enneigement exceptionnellement étendu, et que le printemps et l'été suivants soient anormalement froids : toute la neige en excès ne fond pas et réfléchit vers l'espace plus d'énergie qu'à l'accoutumée. La Terre se refroidit donc, et les surfaces enneigées ont tendance à s’accroître : plus il y a de neige, plus la Terre réfléchit vers l'espace l'énergie reçue du Soleil, et plus il fait froid ; une rétroaction s’amorce alors et s'auto-entretient, car plus il fait froid, plus les surfaces enneigées s'accroissent. Cet accroissement de l'enneigement n'est possible que dans l'hémisphère nord où se trouvent la majorité des terres émergées, car dans l'hémisphère sud, l'Océan Antarctique oppose une barrière à un éventuel accroissement.

Le départ d'une ère glaciaire se situe donc dans l'hémisphère nord. Les conditions propices à l'établissement d'une glaciation sont de fortes précipitations neigeuses suivies par des étés relativement froids au cours desquels une partie croissante de cette neige persiste. Ceci se produit lorsque l'excentricité de l'orbite terrestre est forte, et que le passage à l’aphélie a lieu en été boréal : le rayonnement reçu en hémisphère nord y est alors minimum, l'été est froid, et la neige n'y fond pas en totalité. Ce processus est accentué lorsque l'axe de rotation de la Terre est peu incliné, le contraste entre les saisons étant alors moins marqué : l'hiver est alors relativement doux, ce qui favorise des précipitations neigeuses abondantes, et l'été moins chaud, ce qui empêche en partie la fonte de la neige. Par ailleurs, le système climatique terrestre comporte des interactions entre les océans, l'atmosphère et la cryosphère, qui rendent l' articulation avec les forçages orbitaux très complexes. C'est aux latitudes proches du cercle polaire boréal, où s'étendent surtout des surfaces continentales, que le processus de glaciation s’amorce. Le rayonnement qui parvient à 65°N diminue de 30 W/m2 au solstice d'été lorsqu'on passe d'une situation de forte inclinaison à une faible inclinaison, et lorsque ce solstice se produit à l'aphélie en période d'excentricité maximale, le rayonnement solaire n'y est que de 1 311 W/m2 au lieu de 1 361. De plus, ces conditions propices à l'établissement d'une époque glaciaire ne sont pas éphémères : elles s'exercent pendant plusieurs centaines d'années, car les périodicités à l’œuvre s'expriment, elles, en dizaines de milliers d'années. La rétroaction de l'albédo, ainsi que d'autres rétroactions (vapeur d'eau, gaz carbonique) et l'effet sur la circulation océanique, conduisent alors à une ère glaciaire. Le retour à un interglaciaire a lieu lorsque, contrairement aux conditions précédentes, la Terre est proche du Soleil en été boréal, et que les surfaces enneigées se réduisent, mettant ainsi en marche, mais dans le sens opposé, la rétroaction climatique de l'albédo. Ce retour s'effectue toutefois de manière beaucoup plus chaotique, avec des oscillations dites événements de  Dansgaard-Oeschger marquées par de  brusques épisodes de froid brusques épisodes de retour du froid

V Où en sommes nous ?

L'été boréal a actuellement lieu lorsque la Terre est proche de l'aphélie et que l'énergie qu'elle reçoit du Soleil est à son minimum. À l'opposé, en hiver, elle est proche du périhélie et l'hiver boréal est moins intense. C'est là une des conditions d'établissement d'une ère glaciaire, et c'est ce que certains mettaient en avant il y a quelques dizaines d'années pour minimiser la menace d'un réchauffement climatique dû aux émissions de gaz carbonique. Mais l'excentricité de l'orbite de la Terre est actuellement faible, et va encore diminuer au cours des quelques prochains millénaires. D'autre part, l'obliquité de l'axe de rotation de la Terre diminuera durant la prochaine dizaine de milliers d'années, tendant à diminuer le contraste entre été et hiver et ainsi à favoriser des étés boréaux relativement frais. Compte tenu de ces évolutions des paramètres orbitaux, et en attendant le passage suivant du solstice d'été à l'aphélie, l'interglaciaire actuel, l'Holocène, durera plus longtemps.

Se superpose à cette situation de très faible forçage vers une glaciation, un changement important de la composition de l'atmosphère dû aux émissions anthropiques de gaz carbonique et d'autres gaz à effet de serre, changement d'une telle amplitude que le risque de voir les calottes glaciaires s'avancer sur nos terres agricoles est repoussé à des configurations orbitales lointaines.
Au contraire, actuellement, et en dépit de conditions qui, sans l'action humaine, tendraient vers des étés frais et par conséquent vers une glaciation, la calotte glaciaire de l'hémisphère nord se réduit.

Historique

La mise en évidence du rôle des paramètres orbitaux dans l'alternance des périodes glaciaires et interglaciaires est récente, mais elle s'appuie sur des découvertes et des calculs beaucoup plus anciens. Hipparque au deuxième siècle avant J.- C. a le premier observé que la position du Soleil par rapport aux étoiles à l'équinoxe de printemps se déplaçait lentement d'est en ouest. La même observation aurait théoriquement pu être faite pour les solstices, mais il est plus facile de repérer le jour où le Soleil se couche exactement à l'ouest que celui où il culmine. C'est probablement pour cette raison que la rotation autour d'un cône de l'axe de la Terre est désignée par «précession des équinoxes» plutôt que par «précession des solstices», alors que cette dernière formulation aurait été plus parlante pour l'alternance climatique des périodes glaciaires et interglaciaires. Au temps d'Hipparque d'ailleurs, on ignorait qu'il y avait eu des épisodes glaciaires.

Kepler en 1609 a démontré et formulé le mouvement elliptique des planètes, mais c'est surtout Newton qui, avec les lois de la gravitation universelle publiées en 1687 dans les Principia Mathematica a fourni les bases théoriques qui vont peu à peu permettre de comprendre les interactions entre les astres du système solaire et la nécessité de les prendre en compte.

Le mathématicien suisse Euler s'attaquera lui aussi au XVIIIème siècle aux calculs astronomiques, mais c'est surtout Joseph Louis de Lagrange, puis Pierre Simon Laplace qui mettront en place les outils modernes permettant de comprendre et de prévoir avec précision les mouvement des planètes. Le premier a publié un traité général de plusieurs volumes parus en 1785 et 1786 sous les titres Théorie des variations séculaires des éléments des planètes et Théorie des variations périodiques des mouvements des planètes dans lesquels il traite de problèmes de stabilité et de perturbations, comme la question du mouvement séculaire des nœuds d'une orbite, celle de la diminution de l'obliquité d'une écliptique, celle des variations de l'excentricité et des périhélies. Le second a repris ces calculs afin de rechercher les causes des altérations dans les orbites des planètes (allant jusqu'à envisager l'influence des comètes), et en appliquant à Jupiter et Saturne le principe de la conservation de l'énergie, il met en évidence l'interaction gravitationnelle des planètes. Mais d'après lui, leurs orbites elliptiques sont immuables, or, ceci devrait conduire à des collisions de la Terre avec Mars. Tous deux en viennent à l'idée que les ellipses ne sont pas stables, et que leur excentricité varie, ce qu'ils démontrent d'abord pour Jupiter et Saturne, puis pour la Terre, avec de très longues périodes. Le Verrier s'appuiera ensuite sur leurs travaux pour calculer des orbites de planètes et annoncera la nécessité de l'existence de la planète Neptune avant que celle ci soit découverte en 1846.

Mais jusque là il n'était pas question de relier la variabilité des orbites des planètes à des variations amples du climat dont on ignorait encore l'existence. C'est Louis Agassiz en 1840 qui donnera les preuves de l'existence de périodes anciennes très froides, seule explication à la présence de blocs de pierre caractéristiques d'un transport par des glaciers trouvés à des latitudes tempérées. Peu après, en 1875, l'écossais James Croll aura l'intuition que la variation des paramètres orbitaux est à l'origine de ces glaciations et identifiera les variations d'excentricité de l'orbite terrestre et la précession des équinoxes comme les causes principales. Il proposera en particulier une périodicité de 22 000 ans pour ces glaciations (qu'il envisagera aussi pour l'hémisphère sud, ce qui est maintenant contredit). Enfin, Milankovitch, reprenant à son tour l'hypothèse d'une influence des paramètres orbitaux sur le climat, montra que ces paramètres avaient une forte influence sur les températures d'été aux hautes latitudes de l'hémisphère nord, et que ceci pouvait être à l'origine des périodes glaciaires. Ses conclusions ne furent pas unanimement acceptées, et il fallut attendre que les paléoclimatologues accumulent des données de l'évolution des températures au cours des ères géologiques (notamment les rapports isotopiques de l'oxygène dans les foraminifères fossiles par Shackleton) pour valider les travaux de modélisation du paléoclimat parmi lesquels ceux de André Berger, travaux qui ne cessent de se perfectionner depuis.
Ainsi Jacques Laskar a refait les calculs sur l’évolution des paramètres du système solaire en les étendant par ailleurs  le plus loin possible dans les temps géologiques, soit en pratique jusqu'aux environs de 50 millions d’années car au-delà il n’est plus possible de faire des prédictions, le mouvement chaotique du système solaire prévalant alors. 

Laurent Labeyrie - décembre 2020

La réponse de la calotte glaciaire groenlandaise au réchauffement anthropique constitue une des grandes interrogations scientifiques des dernières dizaines d’années, d’autant plus que la zone polaire arctique s’échauffe approximativement quatre fois plus vite que la tendance globale.
Chaque année, la calotte perd de la masse, et la banquise disparaît de plus en plus vite en été.

Source NASA

Les spécialistes s’accordent sur le fait que cette calotte ne pourrait subsister à long terme sur une Terre à +5°C, celle d’il y a plus de 10 millions d’années. Sa fonte complète élèverait de +7,2 m environ le niveau marin moyen. Ce serait la totalité des zones côtières et des plus grandes villes qui se verraient impactées, des centaines de millions d’habitants dont le cadre de vie disparaîtrait.
Toutefois l’inertie des calottes de glace est considérable : les données paléoclimatiques et la modélisation à long terme des calottes glaciaires concourent à montrer qu’une fonte de la calotte groenlandaise de plusieurs mètres d’équivalent niveau de la mer n’apparaît concevable, même avec les scénarios les plus extrêmes, qu’à l’échelle de plusieurs centaines d’années. Le GIEC, dans son rapport AR5 (1) envisage pour la fin du siècle et suivant les scénarios climatiques, une fonte limitée à 20 à 30 cm équivalent niveau de la mer, mais en utilisant des modèles encore loin de pouvoir prendre en compte tous les processus significatifs des interactions glace climat. La presse, de son coté, s’est fait l’écho cette année de propos alarmistes sur des déséquilibres «irréversibles» des glaciers groenlandais.

Qu’en est-il ?

La calotte glaciaire, étendue sur 20° de latitude entre 61°et 81° de latitude nord, couvre environ 80% du territoire groenlandais, avec un volume voisin de 2,8 millions de km3 (soit une masse voisine de 2,5 millions de Gt) et une surface voisine de 1,7 millions de km2 (soit une épaisseur moyenne de 1 600 m) . Elle est installée dans une vaste cuvette s’enfonçant jusqu’à quelques centaines de mètres sous la surface de la mer, entourée d’un bourrelet de plateaux et montagnes de 500 à 2 000 m environ d’altitude, topographie dictée par les ré-équilibrages de la croûte terrestre sous le poids de la masse glaciaire. La calotte s'ouvre vers la mer par des glaciers entaillant ce bourrelet périphérique. Ils alimentent généralement des banquises flottantes dans des fjords, quand ils n’ont pas régressé, ancrés sur le socle en amont des fjords. 

 Carte de la calotte glaciaire groenlandaise

Figure 1A : Épaisseur de la calotte groenlandaise
Figure1B  : Topographie du socle, adaptées de wikipedia-Inlandsis du Groenland.
Figure 1C : Topographie de la calotte et distribution des glaciers périphériques (MNT SRTM à 90 m), communication P. Chevallier

Cette calotte est apparue progressivement, comme les autres calottes arctiques (nord-américaines et européennes), il y a moins de 10 millions d’années, en conséquence du refroidissement de la surface terrestre (de l’ordre de 10°C) qui a accompagné l’Ère Tertiaire (2) . Les surfaces couvertes par ces calottes, se sont progressivement étendues vers les latitudes plus basses avec l’accentuation des périodes froides des derniers millions d’années. La calotte groenlandaise est devenue semi-permanente il y a environ 3 millions d’années (le Pliocène), son volume étant modulé, comme celui des autres calottes polaires, par les variations climatiques liées aux oscillations des paramètres astronomiques de l’orbite de la Terre autour du soleil (3). Lors des principaux interglaciaires du dernier million d’années (le Pléistocène), périodes pendant laquelle les températures globales étaient supérieures de +2 à +4°C à la référence préindustrielle, le volume de la calotte groenlandaise pourrait avoir temporairement décru jusqu’à moins de 50% du volume actuel, avec une contribution de quelques mètres sur la montée du niveau de la mer (4), mais les données disponibles restent en partie ambiguës, et la modélisation très fragmentaire. Les mêmes incertitudes existent pour le dernier interglaciaire, il y a 125 000 ans (5).

Les calottes Nord-Américaines et Européennes, elles, ont disparu à chaque interglaciaire, comme c’est le cas actuellement, pour ne laisser que quelques glaciers isolés en montagne et aux latitudes les plus nordiques. La plus grande réactivité de ces calottes se retrouve aussi en période glaciaire : la calotte Groenlandaise ne gagne alors qu’environ 50 % de volume par rapport à l’actuel (-3 à -4 m d’équivalent niveau de la mer), alors que les calottes américaines et européennes stockent ensemble pas loin de 100 m d’équivalent niveau de la mer à leur maximum d’extension. Nous sortirions progressivement de l’interglaciaire actuel, avec une nouvelle glaciation dans plusieurs dizaines de milliers d’années, si le réchauffement actuel d’origine anthropique n’en avait interrompu, au moins provisoirement, l’évolution.

Comme pour tout glacier, la glace de la calotte est formée à partir de l'accumulation des neiges, et disparaît par la fonte estivale et l’écoulement progressif vers les vallées. La calotte se développe dans une zone pour laquelle l’apport (glaces fluant de l’amont et chutes de neige hivernales) dépasse l’export (écoulement vers l’aval de la glace et de l’eau de fonte estivale). Sa croissance est donc favorisée par l’abondance des chutes de neige en période froide. Neige et glace sont érodées par la fonte estivale de surface (ou par la fonte basale si le sous bassement (socle ou marin) est suffisamment chaud) et l’écoulement des eaux de fonte, et par le glissement des masses glaciaires vers l'océan. La vitesse de glissement du glacier dépend de sa structure (liée à son histoire), sa température (qui agit sur les propriétés mécaniques de la glace), de son poids (l’épaisseur de la glace), de la pente (faible ou même inversée dans les zones centrales, souvent forte en bordure périphérique), des frictions basales (modulées en particulier par l’existence d’eau liquide à la base), et d’obstacles éventuels au glissement (par exemple si le glacier butte sur une autre plateforme glaciaire ou s’accroche sur un sous-bassement rocheux).

Considérons d’abord les bilans de surface accumulation de neige versus fonte estivale. Les précipitations neigeuses sont absentes des zones soumises à l’air polaire hivernal, sec et très froid, en grande partie issu de la stratosphère. La croissance des calottes uniquement sous leur influence est nulle. La neige ne tombe qu’associée à la pénétration de fronts dépressionnaires d’air plus chaud et humide, issus des latitudes plus basses ou de systèmes ayant échangé avec des eaux océaniques chaudes. La température moyenne de l’air au-dessus de la calotte ne joue donc pas le même rôle si elle est froide (en dessous de -20°C à -10°C) ou plus chaude. Tant qu’elle est froide, la probabilité de fortes chutes de neige augmente avec la température moyenne annuelle. Mais le nombre de jours de dégel augmente aussi. Au cours d’une période de réchauffement climatique comme l’actuel le basculement entre excès d’accumulation (donc croissance) et excès de fonte (donc décroissance) dépend de la variabilité saisonnière des températures et de la climatologie. Exprimée dans une relation bilan glaciaire local par rapport à la température moyenne annuelle, Ruddiman plaçait cette ligne d’équilibre entre -5°C et -10°C, la fonte de la calotte accélérant rapidement au-dessus de cette limite (Figure 2).

Dynamique calottes glaciaires.
Figure 2 : schéma général de la dynamique des calottes glaciaires : Balance de masse en fonction de la température moyenne annuelle, repris à partir des travaux de Ruddiman et d’Oesterman (6) (en bleu le domaine de croissance, en rouge celui de fonte), sur lequel sont replacés les domaines approchés de la variabilité climatiques de la calotte groenlandaise actuelle, pour la zone centrale (en vert) et la périphérie (en orange)

Avec une température moyenne annuelle entre -5°C et -10°C limitée uniquement aux zones proches des bordures marines, et plus près de -20°C au centre, la calotte groenlandaise devrait suivant ce schéma être essentiellement stable ou en croissance. Les simulations de balance de masse de surface (accumulations neigeuses - fonte superficielle) réalisées dans le cadre du programme international CMIP6 (7a) montrent que c’est le cas actuellement, avec un excès de la balance de surface voisin de 300 Gt/an. Le passage à un bilan superficiel déficitaire est prévu autour de 2050. Par contre, le schéma de Ruddiman ne prend pas en compte l’écoulement glaciaire qui joue en fait un rôle considérable pour la calotte groenlandaise 7b).

La zone particulièrement sensible au contrôle des écoulements glaciaires est celle de l’interface entre la calotte centrale, ancrée sur son socle rocheux, à écoulement lent (de l’ordre de quelques cm à quelques m/an), mais qui constitue l’essentiel de la masse glaciaire et les fleuves glaciaires et glaciers périphériques qu’elle alimente, qui peuvent s’écouler localement à des vitesses dépassant le km/an (8)  : comme nous l’avons vu, l’écoulement de ces glaciers et «fleuves glaciaires» est contraint par leur pente (souvent forte, à la sortie du bourrelet périphérique) et la température (plus élevée à l’approche de la mer). La géométrie en U des vallées glaciaires sous-jacentes, rabotées par l’érosion glaciaire depuis des millions d’années, et dont la base est proche du niveau de la mer souvent jusqu’à plus de 100 km à l’intérieur des côtes facilite aussi l’écoulement (9). Ce sont ces glaciers qui alimentent les plateformes glaciaires flottantes périphériques.

Alors que les vitesses d’écoulement de la partie centrale de la calotte ont tendance à diminuer depuis l’an 2000, les vitesses d’écoulement dans les zones alimentant des banquises flottantes ont, elles, tendance à accélérer, en lien avec le réchauffement des eaux périphériques (10) : Les banquises fondent au contact des eaux océaniques, deviennent plus fragiles et se libèrent ainsi d’une partie de leurs ancrages sur le socle rocheux, facilitant la formation d’icebergs. Cette érosion facilite l’écoulement des glaciers en amont, les flux à l’interface glacier ancré/banquise flottante dépendant fortement de l’épaisseur de glace à l’interface (11).

Du fait des incertitudes sur la stabilité de la calotte groenlandaise face au réchauffement climatique, elle fait l'objet de nombreuses études, en particulier par satellites, mais aussi par radar et lidar aéroportés, depuis les années 1990. Une attention particulière est portée sur la continuité des observations de suivi de l'évolution des vitesses d'écoulement, de l'altimétrie, de la gravimétrie, et de la cartographie des fontes estivales. (encart satellites d’observation).

 

L’observation de la calotte groenlandaise par satellites à orbite polaire

Après les premières informations obtenues par les satellites imageurs optiques au-début des années 1960, les premières mesures dédiées à l’observation des glaces remontent au début des années 1990. L’imagerie optique a en effet vite été jugée trop limitée, car elle n’est pas utilisable pendant la nuit polaire et en présence de nuages.

Trois types de mesures sont principalement utilisés :

L’imagerie radar à synthèse d’ouverture (SAR) permet, par suivi temporel, de cartographier l’évolution des limites englacées, et de visualiser les changements de distribution d’éléments reconnaissables de la surface glaciaire, et ainsi des vitesses d’écoulement des glaciers. La technologie SAR permet de plus, grâce au mode interférométrique de mesurer directement des variations d’altitude de la surface de glace. En Europe les missions ERS1 et 2, ENVISAT puis aujourd’hui Sentinelle 1 (Programme Copernicus) ont permis un suivi quasi continu des glaces des calottes polaires depuis 1991, en complément d’autres missions comme RADARSAT (Canada) observant en particulier les glaces depuis 1995.

L'altimétrie, radar ou optique (lidar), permet de mesurer le profil de variation le long de la trace du satellite de l’altitude de la surface des glaces. Cette altitude est déduite de leur distance à la surface d’un satellite dont l’altitude est connue en permanence de façon précise. La distance peut-être mesurée par lidar (NASA ICESAT 2003-2009 puis ICESAT 2 2018- ) ou par radar altimètre, altimètres multi missions (ESA ERS1-2, ENVISAT puis Sentinelle 3 du programme Européen Copernicus) et tout particulièrement par la mission CRYOSAT 2 (ESA 2010- ) dont l’instrument radar a été optimisé pour les mesures sur glace (mode interférométrique) et l’orbite choisie pour le suivi des zones polaires (inclinaison de 92°).

La gravimétrie permet de mesurer les variations de la répartition des masses de la terre : la mission GRACE (NASA et DLR, 2002-2017) suivie de GRACE-FO (lancé en 2017) fonctionne avec 2 satellites qui orbitent en tandem et mesurent les variations de leur distance respectives dues aux variations de la gravité locale. Au-dessus des zones polaires ces satellites fournissent ainsi très directement les changements affectant les masses de glace (répartition, fonte ou accumulation).

Bulletin 2014 World Meteorological Organization

 

Le bilan de masse total, différence entre l'accumulation de neige, et l'export dû à la fonte et aux écoulements hors des zones ancrées sur le socle continental, a ainsi pu être reconstitué à partir de 1972 pour les différentes zones du Groenland, en regroupant l'ensemble des données satellitaires disponibles depuis le programme Landsat (et celles de type altimétrie, vélocité puis gravimétriques pour les années plus récentes) et en les traitant grâce à des modèles climatiques régionaux7(Mouginot et al. 2019). Une grande variabilité décennale et régionale des bilans de masse de surface apparaît sur cette période, liée à la fois à l’apport plus ou moins important de neige issue des dépressions sub-polaires ou au contraire à des fontes estivales exceptionnelles (comme pour l’été 2019). Cette variabilité s'ajoute à une tendance marquée à la baisse de la masse glaciaire depuis les années 1980, tendance surtout marquée après 2000, avec un export de glace voisin de 500 Gt/an depuis 2010. Sur l'ensemble de la période 1972-2018, le Groenland aurait contribué pour 14 mm à la hausse du niveau de la mer global, 2/3 de cette valeur étant liée à l'augmentation de l'écoulement glaciaire, et 1/3 à la diminution du bilan de masse lié à la fonte en surface. En ce qui concerne l'aspect régional, les auteurs de cette étude montrent l'importance de plus en plus grande que prennent les écoulements glaciaires du nord du Groenland, là où le réservoir de glace est le plus large (ce ne sont pas forcément de bonnes nouvelles pour les dizaines d'années à venir) (12).

 Il faut toutefois signaler l'importance des incertitudes dans les reconstitutions de bilan de masse et leur évolution, ce qui limite les possibilités de prédiction de l'évolution à long terme de la calotte Groenlandaise. Une des principales causes d’incertitude dérive de l'insuffisance des connaissances sur les réajustements verticaux de la croûte sous glaciaire à la suite des changements de pression (épaisseur de glace) liés à l’évolution des périodes de croissance et fonte passées, ces réajustements intégrant l’ensemble de l’histoire de la calotte depuis la dernière déglaciation, il y a plus de 10 000 ans. La seconde source majeur d’incertitudes vient de la difficulté de quantifier de façon précise les rétroactions entre dynamiques océaniques, atmosphériques et glaciaires aux différentes échelles de temps. La synthèse des prédictions résultant des différents modèles climatiques et glaciaires réalisée en 2020 par Marzeion et al (13) donnerait, suivant les scénarios, une contribution de 5 à 10 cm à l’augmentation globale du niveau de la mer pour 2100 (elle-même de 0,8 à 1,6 m entre les scénarios les plus contraignant (RCP2,6 voir Scénarios GIEC) et les moins contraignant (RCP8,5). Une modélisation plus détaillée de l’écoulement des fleuves de glace a été publiée en 2019 (14), forcée par les distributions de températures issues des modèles GCM CMIP5 et des scénarios du GIEC pour 2100, extrapolés en s’appuyant sur les expériences CMIP 5 poussées jusqu’à 2300. Suivant les scénarios, la fonte de la calotte provoquerait une montée du niveau de la mer de 5 à 33 cm en fin de siècle. Les différences du simple au triple pour le scénario RCP8,5 entre ces deux synthèses donne une idée des incertitudes encore présentes dans ces estimations. Mais quels que soient les chiffres finaux, les impacts liés au réchauffement arctique et à la fonte ainsi estimée seront considérables tant pour les populations et l’économie du Groenland et des nations périphériques, que pour l’environnement et la climatologie arctiques.

Enfin, bien que l’impact global en terme de niveau de la mer resterait assez limité au cours du XXIème siècle, on peut toutefois craindre, comme signalé en introduction, que la déglaciation du Groenland ne devienne quasi complète à l’échelle des prochains millénaires en l’absence de fortes mesures d’atténuation des émissions. 


Notes

1 IPCC. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change (Cambridge Univ. Press, 2013). 

2 Les fluctuations climatiques à grande échelle sont attribuées aux interactions entre évolution tectonique et climatique globale. Le refroidissement progressif de l’Ère Tertiaire fait suite au démantèlement depuis le Trias des super-continents issus de la Pangée. L’ouverture de l’Océan Atlantique, de l’océan Indien et la migration vers le pôle sud du continent Antarctique a permis le développement d’une circulation océanique péri-Antarctique et l’apparition de la calotte Antarctique il y a environ 30 millions d’années. La disparition de la grande boucle équatoriale de circulation des eaux de surface et intermédiaire séparant les continents américains nord et sud d’une part, et l’Afrique du bloc Europe-Asie d’autre part a accompagné l’évolution vers la distribution continentale actuelle, il y a environ 3 millions d’années.

3 L’alternance des épisodes glaciaires/interglaciaires du dernier million d’années et les changements climatiques associés ont été étudiés à partir des forages sédimentaires réalisées dans les différents bassins océaniques et le forage de glace de Vostok en Antarctique, complétés par de très nombreuses autres données pour les derniers 100 à 200 00 ans. Cette alternance est principalement modulée par les oscillations de l’orbite terrestre autour du soleil et les changements de l’insolation estivale aux hautes latitudes de quelques dizaines de W/m2 qui en résultent (cycles de « Milankovitch » avec des périodicités voisines de 20 et 40 000 ans, voir la FAQ). Le creusement par l’érosion à long terme des lits et pénéplaines glaciaires a facilité l’étalement des calottes et leur stabilité, permettant la succession des grands cycles glaciaires interglaciaires de 100 000 ans de périodicité qui ont rythmé les derniers 600 000 ans. Lors des périodes de plus basse insolation estivale, les calottes s’étendent vers les latitudes moins septentrionales (en particulier sur les continents nord-américain et européens), pour régresser fortement, au contraire, lors des pics d’insolation estivale à hautes latitudes. Le début du dernier interglaciaire, il y a 125 000 ans, correspond à un maximum d’insolation estivale de l’hémisphère nord (autour de +60 w/m2 par rapport à l’actuel, en juin à notre latitude), lié au cycle de précession (24 000 ans), qui était approximativement en phase avec un maximum d‘inclinaison de l’axe de rotation (cycle de 40 000 ans) et un maximum d’excentricité de l’orbite terrestre (cycles de 100 et 400 000 ans). L’interglaciaire actuel, débuté il y a 10 000 ans, correspond à un maximum d’insolation estivale sur l’hémisphère nord (autour de 40 W/m2 par rapport à l’actuel, en juin à notre latitude) lié à l’obliquité et la précession, mais pour lequel l’excentricité est à son minimum.

4 Schaeffer et al Greenland was nearly ice-free for extended periods during the Pleistocene, Nature, 540, 252, 2016

5 Oppenheimer, M., B.C. Glavovic , J. Hinkel, R. van de Wal, A.K. Magnan, A. Abd-Elgawad, R. Cai, M. Cifuentes-Jara, R.M. DeConto, T. Ghosh, J. Hay, F. Isla, B. Marzeion, B. Meyssignac, and Z. Sebesvari, 2019: Sea Level Rise and Implications for Low-Lying Islands, Coasts and Communities. In: IPCC Special Report on the Ocean and Cryosphere in a Changing Climate [H.-O. Pörtner, D.C. Roberts, V. Masson-Delmotte, P. Zhai, M. Tignor, E. Poloczanska, K. Mintenbeck, A. Alegría, M. Nicolai, A. Okem, J. Petzold, B. Rama, N.M. Weyer (eds.)].

6 Figure adaptée de la Figure 10-1 in W.F. Ruddiman Earth’s Climate Past and Future ED W.H. Freeman and Company N.Y. 2001, à partir de J. Oerlemans “The role of Ice Sheets in the Pleistocene Climate” Norsk Geologisk Tidsskrift 71 (1991) 155-61

7a Hofer et al. Greater Greenland Ice Sheet contribution to global sea level rise in CMIP6 NATURE COMMUNICATIONS (2020) 11:6289 //doi.org/10.1038/s41467-020-20011-8 

7b J. Mouginot, et al. Forty-six years of Greenland Ice Sheet mass balance from 1972 to 2018. PNAS (2019 ) vol. 116 no. 19 9239–9244 doi/10.1073/pnas.190424ant2116 )

8 Peyaud V. Rôle de la dynamique des calottes glaciaires dans les grands changements climatiques des périodes glaciaires-interglaciaires. Climatologie. Université Joseph-Fourier - Grenoble I, 2006.

9 Morlighem, M et al. Deeply incised submarine glacial valleys beneath the Greenland ice sheet Nat. Geosci. MAY 2014, DOI: 10.1038/NGEO2167

10 Tedstone, A., Nienow, P., Gourmelen, N. et al. Decadal slowdown of a land-terminating sector of the Greenland Ice Sheet despite warming. Nature 526, 692–695 (2015). https://doi.org/10.1038/nature15722

11 Schoof C. Ice sheet grounding line dynamics: Steady states, stability, and hysteresis Journal of Geophysical Research, V. 112, F03S28, doi:10.1029/2006JF000664, 2007
Rignot, E. and 6 others. 2008. Recent Antarctic ice mass loss from radar interferometry and regional climate modelling. Nature Geosci., 1(2), 106–110

12 Les médias ont répercuté cet été 2020 des nouvelles assez « catastrophistes » de la fonte de la calotte, qui serait devenue « irréversible ». Cette inquiétude est liée à une interprétation incomplète de l’étude sur la dynamique des glaciers côtiers réalisée par King et ses coauteurs (ref ci-dessous). Ils montrent, à partir d’une nouvelle synthèse de données prenant en compte en particulier les déplacements des falaises frontales glaciaires en limite marine, que celles-ci régressent de plus en plus vite vers l’intérieur des fjords sous l’influence du réchauffement côtier (14% d’accélération en 30 ans, surtout après les années 2000). L’écoulement des glaciers périphériques s’est accéléré en réponse (en particulier dans la période 2000-2003). Cette érosion apparaît relativement constante depuis 2003, ce qui fait penser aux auteurs que ce nouveau régime d’érosion des glaciers côtiers peut se poursuivre indépendamment du forçage climatique. Mais nulle part, les auteurs envisagent que ce processus se transmette à l’ensemble des glaciers ancrés sur le socle des zones centrales de la calotte, et annonce sa destruction finale!
Michalea D. King, Ian M. Howat, Salvatore G. Candela, Myoung J. Noh, Seonsgu Jeong, Brice P. Y. Noël, Michiel R. van den Broeke, Bert Wouter & Adelaide Negrete Dynamic ice loss from the Greenland Ice Sheet driven by sustained glacier retreat. Communication Earth and Environment (2020) 1:1 //doi.org/10.1038/s43247-020-0001-2

13 Marzeion, B., Hock, R., Anderson, B., Bliss, A., Champollion, N., Fujita, K., et al. (2020). Partitioning the uncertainty of ensemble projections of global glacier mass change. Earth's Future. 8, e2019EF001470. https://doi. org/10.1029/2019EF001470

14 Aschwanden A. et al Contribution of the Greenland Ice Sheet to sea level over the next millennium Sci. Adv. 2019;5: eaav9396 19 June 2019

Quel fonctionnement et quel devenir ?

Pierre Chevallier et Bernard Pouyaud (1) - janvier 2020

La question des glaciers continentaux revient très souvent dans la discussion sur le changement climatique. Ils servent tour à tour d’argumentaires ou de témoins pour des questions aussi diverses que la montée du niveau des mers, l’accélération de la croissance de la température, la diminution, voire la disparition, des réservoirs d’eau douce qu’ils constituent, les risques qu’ils induisent, etc. Ils sont même parfois utilisés comme contre-arguments par les climato-sceptiques, constatant leur avancement dans certaines, mais très rares, régions du globe.

 

Glacier de la Cordillère Royale (Bolivie) et sa lagune terminale – 2000

Cette note n’abordera pas toutes ces questions, mais s’attachera à expliquer schématiquement comment fonctionne un glacier ; elle éclairera les principaux concepts utilisés par les scientifiques à la base de l’information diffusée dans les médias ; enfin elle discutera de leur contribution aux ressources en eau disponibles pour les usages sociétaux et ce qu’il faut en attendre pour le futur.

Certains de ces points sont à rapprocher de questions évoquées dans les deux ouvrages du Club des Argonautes, en particulier dans la section «Que devient une goutte d’eau ?» de «Climat, une planète et des hommes» (2) et dans la section «L’eau va-t-elle manquer ?» de «Climat, le temps d’agir». (3)

Deux FAQ du Club peuvent également être consultées en complément du propos tenu ici :

Enfin, cette note est restreinte aux systèmes glaciaires continentaux des régions tempérées et tropicales, c’est à dire comprises entre les deux cercles polaires arctique et antarctique  ; de plus, elle ne détaillera pas les spécificités des nombreux types de glaciers. Les lecteurs qui veulent explorer plus avant le sujet pourront consulter, entre autres, l’ouvrage de Francou et Vincent (2007) (4). Ceux qui sont à la recherche de données pourront consulter le site du "World Glacier Monitoring Service".

1. Comment fonctionne un glacier ?

Température et précipitation

De manière schématique, un glacier naît d’un stock de neige qui en vieillissant se densifie et se transforme en glace, laquelle s’écoule par gravité selon la pente du substratum sur lequel il s’est déposé.

Il y a donc deux grandeurs climatiques qui conditionnent son existence : d’une part, les précipitations et, d’autre part, les températures de l’air suffisamment basses pour que :

  1. les précipitations soient sous forme solide (neige), et
  2. le couvert neigeux se maintienne suffisamment longtemps pour se constituer progressivement en masse de glace se perpétuant au - delà du cycle climatique annuel.

Températures et précipitations sont au cœur des questionnements liés au changement climatique. Et c’est pour cela que les glaciers, qui en sont très étroitement dépendants, constituent des témoins privilégiés de ces changements.

Les glaciers sont présents le plus souvent sur des chaînes montagneuses pour la raison simple que les altitudes plus élevées favorisent les températures basses pendant des périodes longues du cycle climatique et donc la présence d’eau sous forme solide, neige ou glace. Sur les glaciers continentaux, et en particulier sur les régions tropicales, le profil de température présente une variation verticale d'environ 6°C/km. La température est en sus le paramètre que les modèles de circulation générale ou régionale représentent le mieux, et, par conséquent, il est le paramètre sur lesquels les différents modèles s’appuient et s’accordent le plus généralement.

Il n’en est pas de même des précipitations qui sont beaucoup plus sensibles aux conditions locales de circulation atmosphérique et où l’équilibre des phases solide, liquide et gazeuse de l’eau suit les principes de la thermodynamique (Voir article Wikipedia). En très haute montagne en particulier, les différences d’altitudes se traduisent par des différences significatives de pression atmosphérique qui interfèrent avec cet équilibre (5). On ne peut pas dégager de loi générale de la distribution altitudinale des précipitations, même si localement des résultats existent (6). Les modèles de circulation générale et régionale sont plus incertains sur la distribution des précipitations et leurs tendances que pour la température (7) ; ils présentent souvent des différences notables entre eux.

Figure 1: Schéma simplifié de fonctionnement d'un glacier

Accumulation et ablation

La partie gauche de la Figure 1 présente un schéma simplifié du fonctionnement d’un glacier considéré comme une masse d’eau sous la forme solide s’inscrivant dans un bassin versant collectant les précipitations, et restituant l’eau sous une forme liquide à son exutoire. On distingue deux zones qui correspondent à deux dynamiques différentes :

  • une zone d’accumulation dans la partie amont et donc la plus froide du bassin versant. Les précipitations s’y produisent sous forme de neige qui s’accumule et évolue vers de la glace en se densifiant (8) ;
  • une zone d’ablation à l’aval où les températures plus élevées, et plus généralement les échanges radiatifs, entraînent la fonte de l’eau solide (neige et glace) sous la forme d’écoulements que l’on retrouve à l’exutoire du bassin versant.

Schématiquement, la permanence d’un glacier résulte de l’équilibre entre ces deux «réservoirs» d’accumulation et d’ablation. On qualifie d’ailleurs la limite entre ces deux zones de ligne d’équilibre. Il est alors facile de comprendre que, toutes autres choses égales par ailleurs, lorsque la température augmente cette ligne remonte, la zone d’accumulation diminue et la zone d’ablation augmente : le glacier perd alors plus d’eau qu’il n’en reçoit et sa masse globale diminue, ce qui se traduit par une diminution de son épaisseur et le recul de son front (flèche rouge de la Figure 1). Le phénomène inverse se produit lorsque la température diminue.

Il faut alors cependant distinguer ce qui se passe selon les régimes de précipitation : c’est, en particulier, ce qui distingue les glaciers tempérés des glaciers tropicaux.

Glaciers tempérés et tropicaux

La partie droite de la Figure 1 schématise les différences de fonctionnement entre glaciers tempérés et tropicaux :

  • Sous les Tropiques (9), la plus grande part des précipitations se produit pendant la saison chaude estivale. Cela entraîne un mécanisme simultané d’accumulation et d’ablation pendant l’été, alors que pendant l’hiver sec et froid en altitude, il ne se passe quasiment rien. La ligne d’équilibre s’établit à une altitude qui est assez peu différente de la limite entre la précipitation neigeuse et la précipitation pluvieuse.

  • En régions tempérées, on observe des précipitations neigeuses abondantes pendant la saison froide hivernale et le glacier va se mettre en position d’accumulation sur la plus grande partie, voire la totalité de sa surface, la ligne d’équilibre théorique pouvant alors s’établir plus bas que le front du glacier. Pendant la saison estivale chaude, les précipitations neigeuses deviennent rares, même à haute altitude, et c’est l’inverse qui se produit, le glacier se mettant en position généralisée d’ablation et la ligne d’équilibre pouvant passer plus haut que le sommet du glacier.

  • Des situations intermédiaires combinent les deux schémas, par exemple dans la chaîne himalayenne, orientée sud-est/nord-ouest, où l’influence de la mousson asiatique s’affaiblit progressivement d’est en ouest laissant les flux tempérés d’ouest prendre une influence grandissante (10).

2. Bilans, observation et modélisation

Avec l’explication du fonctionnement des glaciers, il est nécessaire de fournir aussi quelques indications sur les concepts de bilans et de modélisations qui constituent le plus souvent la forme de diffusion de l’information sur les environnements glaciaires, aussi bien dans le cercle scientifique que dans les médias et les débats.

Bilan de masse, bilan d’énergie et bilan hydrologique

Trois sortes de bilan sont le plus souvent étudiées et utilisées (11) :

  • Le bilan de masse d’un glacier. C’est la différence de masse d’un glacier entre deux dates. La valeur généralement présentée est le bilan spécifique annuel net. C’est à dire la différence annuelle de masse du glacier, observée d’une année à l’autre, au moment où la masse glaciaire est la plus faible (fin de la saison d’ablation). Elle est exprimée par une lame équivalente en eau (unités : m ou mm), uniformément distribuée sur la totalité de la surface du glacier  ; elle peut être positive lorsque le glacier gagne de la masse ou négative lorsqu’il en perd.

    Dans le paysage, les fluctuations du bilan de masse, représenté par le volume de glace, se traduisent visuellement à la fois par une variation de l’épaisseur du glacier, d’abord dans la zone aval où l’ablation est prépondérante, et par un déplacement (recul ou avancée) du front du glacier. Ce sont souvent ces deux types d’observation qui sont mises en avant, mais il faut garder à l’esprit que ce ne sont que des indicateurs (ou proxys) de la variation de masse.

  • Le bilan d’énergie en un point du glacier ; on parle aussi de bilan radiatif. Il s’agit sur une période donnée de quantifier les flux radiatifs exprimés en flux d’énergie par unité de surface (unité : W/m²) nécessaires à l’eau stockée pour, soit sous forme solide passer à un état liquide (fonte) ou gazeux (sublimation), soit sous forme liquide passer à un état solide (gel) ou gazeux (évaporation). Physiquement, il s’agit d’une application des principes de la thermodynamique, déjà évoqués plus haut.

    L’énergie est fournie au glacier ou à la neige à la fois par le rayonnement solaire de courte longueur d’onde et par le rayonnement atmosphérique de grande longueur d’onde. Un paramètre explicatif intermédiaire, largement utilisé, est l’albédo qui est le rapport entre les rayonnements solaires réfléchi et incident et qui dépend de la nature de la surface.

  • Le bilan hydrologique à l’exutoire du bassin versant du glacier. Il exprime la conservation de la masse d’eau, sur un intervalle de temps fixe, entre ce qui entre dans le bassin glaciaire (précipitations solide et liquide) et ce qui en sort (évaporation, sublimation, écoulement des précipitations liquides, fonte de la glace et fonte de la neige).

    Lorsqu’on s’intéresse à la ressource en eau délivrée par un bassin versant incluant des glaciers, on prend en compte les écoulements sous la forme du débit moyen sur la période étudiée (unité : m³/s) ou du volume total cumulé (unités : m³, millions de m³, km³). Ces écoulements incluent aussi bien les écoulements délivrés par les glaciers, que ceux délivrés par les parties non englacées des bassins versants, lesquelles peuvent comporter des surfaces enneigées.

Observation

Ces différents bilans sont basés sur des données d’observation sur des périodes aussi longues que possible, d’autant plus complexes à acquérir qu’elles se situent dans des conditions d’accès et de maintenance technique difficiles.

À cela s’ajoute que les observations de terrain sont des observations ponctuelles, qu’il s’agit ensuite d’étendre à l’ensemble du domaine glaciaire étudié. À cette fin, les scientifiques ont recours à différentes approches : statistiques ou géostatistiques, produits issus de l’imagerie satellitaire, données spatiales issues de modèles de réanalyses. Il a déjà été souligné plus haut que, s’agissant des deux variables primaires que sont la température et la précipitation, si les données locales et spatiales sur la première sont relativement fiables, celles sur la seconde sont sujettes à d’importantes incertitudes.

Modélisation

Outre les hypothèses et techniques de spatialisation évoquées dans la section précédente, qui constituent dans la plupart des cas un premier niveau de modélisation, les modélisations utilisées par les hydro-glaciologues afin de quantifier les différentes grandeurs intervenant dans le cycle de l’eau atmosphérique (vapeur, précipitations), cryosphérique (neige et glace) et hydrosphérique (eau liquide continentale) relèvent aujourd’hui de trois familles :

  • Une approche simplifiée basée sur des relations statistiques simples, généralement des régressions.

    Cette approche est souvent associée :

  • Une approche physique basée sur le bilan d’énergie : c’est notamment celle qui est utilisée par le Centre National de Recherche Météorologique (Météo-France, CNRS) avec le schéma de surface ISBA et le modèle nival CROCUS. Elle est basée sur l’application des lois de la physique à une unité de surface considérée homogène au sein du système étudié, puis à sa spatialisation à l’ensemble de la surface, le plus souvent au travers d’un découpage en mailles régulières.

  • Une approche conceptuelle dite du degré-jour : c’est actuellement la plus utilisée (12). Elle est basée sur l’idée que, pour une unité de temps donnée (13), et au dessus d’un seuil fixé de température, le volume de fonte de l’eau solide est directement proportionnel à l’élévation de la température. Le facteur de proportionnalité (DDF pour : degree-day factor) n’est pas fixé a priori, mais il est calibré et validé pour un modèle et pour une application ; il peut varier selon le type de surface (neige ou glace) et/ou selon la saison.

    Par exemple, avec le modèle conceptuel distribué HDSM appliqué au bassin versant de Pheriche (144 km² sur le versant sud de l’Everest au Népal) (14), on considère qu’au dessus d’un seuil de température moyenne journalière de (-2,8°C), le volume de fonte de la neige est de 14 mm/jour chaque fois que la température de l’air s’élève de 1°C. La valeur du seuil de température et celle du DDF sont fixées par une procédure de calibration/validation utilisant les débits écoulés à l’exutoire du bassin et la variation de l’extension de la couverture neigeuse observée par satellite.

3. Ressource en eau délivrée par un bassin glaciaire en réponse au réchauffement global

La cryosphère constitue-t-elle des châteaux d’eau ?

Les hautes chaînes de montagnes de la planète couronnées de glaciers sont régulièrement qualifiées de châteaux d’eau de la terre. Il est vrai que la plupart des grands fleuves et des grands bassins qui leur correspondent en sont issus ; pour citer quelques exemples : le Rhône, le Rhin, le Pô, le Danube ont tous leurs têtes de bassin dans les Alpes, il en est de même pour l’Amazone avec la Cordillère des Andes, ou pour le trio Indus - Gange - Brahmapoutre avec le versant sud de l’Himalaya.

Cette appellation de châteaux d’eau laisse souvent entendre qu’une éventuelle disparition des glaciers et du couvert neigeux menacerait les ressources en eau disponibles pour les populations de ces grands bassins. C’est à la fois vrai et faux.

Prenons deux exemples en Himalaya et dans les Andes :

  • En Himalaya (15), on estime que la fonte de la cryosphère représente entre 10 et 15% du total écoulé par le Gange et le Brahmapoutre. Il faut ajouter que la disparition de la cryosphère ne fera pas disparaître les précipitations liquides, dans une région où 80% des précipitations interviennent sous forme de pluie de mousson, pour l’essentiel dans des zones de plaines ou de piémont. À contrario, l’Indus, dont le haut-bassin couvre une surface importante du plateau du Tibet en altitude et dont les différentes chaînes montagneuses (Hindu-Kush, Karakoram) sont soumises à une alternance climatique plus complexe que celle de la mousson asiatique, dépend pour environ 50% de ses écoulements de la cryosphère. Sachant qu’une grande partie de la sécurité alimentaire du Pakistan, mais aussi d’une partie de l’Inde, dépend de l’irrigation dans les plaines du Pendjab et du Sindh, on conçoit que cette question est cruciale.

  • Dans les Andes Tropicales, la situation est contrastée entre le versant Ouest (Pacifique) très sec et le versant Est (Atlantique) très humide. Au Pérou, la grande majorité de la population, y compris celle de la capitale Lima, plus de 8 millions d’habitants, vit sur le versant Pacifique qui est actuellement quasi totalement tributaire de la ressource en eau cryosphérique, dont les réserves (voir plus loin) sont limitées et, à court terme, insuffisantes. Toutefois, sur le versant Atlantique opposé, les précipitations liquides sont abondantes et des transferts d’eau d’un versant vers l’autre sont techniquement possibles, bien que nécessitant des investissements considérables. En Bolivie, l’alimentation électrique de la métropole de La Paz – El Alto provient d’un ensemble de barrages hydroélectriques, tous situés sur le versant amazonien.

La fonte des glaciers va-t-elle augmenter la ressource en eau disponible ?

En revenant sur ce qui est expliqué plus haut, la question est légitime. Si les réservoirs glaciaires fondent, ils relâchent plus d’eau qu’ils n’en accumulent. Cela conduit toutefois à une diminution progressive du stock et, avec la diminution de l’épaisseur du glacier, il arrive un moment où non seulement le front recule, mais où l’ensemble de la surface du glacier se réduit (surimpressions vertes sur la Figure 1), entraînant un rétrécissement de la zone d’accumulation et, par conséquent de la zone d’ablation. Cette situation générale conduit donc dans un premier temps à une augmentation de la masse d’eau libérée par le glacier, puis dans un deuxième temps, après un passage par un maximum, à une diminution des débits jusqu’à la disparition des réservoirs glaciaires.

Dans l’article déjà cité, Pouyaud et al. (2005) proposent un modèle simple pour simuler à long terme cette évolution. La Figure 2 en donne une illustration. Sous l’hypothèse d’un scénario SRES B2 (16), elle représente pour la période allant de 2000 à 2400 une simulation des débits spécifiques (17) à l’exutoire de quatre bassins versants diversement englacés de la Cordillère Blanche au Pérou : Arteson (79% de couverture glaciaire en 2000), Llanganuco (39%), Paron (48%), Yanamarey (73%).

Figure 2 : Simulation à long terme du débit spécifique annuel pour quatre bassins de la Cordillère Blanche (Pérou) comportant des glaciers, sous l'hypothèse du scénario SRES B2. Graphe adapté de Pouyaud et al., 2005

Dans cette simulation, le pic de débit moyen intervient pour les quatre bassins dans le courant du XXIème Siècle et la disparition des glaciers avant la fin du XXIIème Siècle. On observe que pour les bassins d’Arteson et de Yanamarey, les plus englacés, c’est dès avant 2050 que l’on se trouve dans des conditions d’eau délivrée plus faibles qu’en 2000.

Dans le cas général, quand on ne dispose que d’une information partielle ou inexistante, les questions qui se posent sont :
Se trouve-t-on encore dans la phase ascendante et si oui, quand le maximum interviendra-t-il ?
À quel moment faut-il envisager la disparition des glaciers ?

Pourquoi observe-t-on parfois une avancée des glaciers ?

Les climato-sceptiques avancent fréquemment comme argument qu’il existe des glaciers qui actuellement avancent. Cette observation est décrite dans quelques endroits de la Planète, en particulier dans le Karakoram au Pakistan et dans la Cordillère de Darwin au sud de la Patagonie. Ce n’est toutefois pas un argument valable : ces cas sont aussi soumis au changement climatique. On se trouve dans des régions où les températures sont particulièrement basses, soit à cause de l’altitude, soit à cause de la latitude et, malgré le réchauffement, les températures restent négatives. Par contre le changement climatique induit une augmentation des précipitations qui vont tomber sous forme de neige. Conséquence : les glaciers accumulent et avancent. Un autre phénomène peut se produire : l’abondance de précipitations augmente la quantité d’eau liquide à la base du glacier favorisant son avancement par glissement sur son substratum.

Les mêmes causes produisent des effets contraires.


(1) Ce texte est partiellement inspiré des articles :

  • Pouyaud, B., Zapata, M., Yerren, J., Gomez, J., Rosas, G., Suarez, W., Ribstein, P., 2005. Avenir des ressources en eau glaciaire de la Cordillère Blanche / On the future of the water resources from glacier melting in the Cordillera Blanca, Peru. Hydrological Sciences Journal 50, null-1022.
  • et Chevallier, P., Pouyaud, B., Suarez, W., Condom, T., 2011. Climate change threats to environment in the tropical Andes: glaciers and water resources. Regional Environmental Change 11, 179-187–187. Retour

(2) Texte de Bernard Pouyaud, pages 124-131, dans : Orsenna, E., Petit, M. (Eds.), 2011. Climat : une planète et des hommes. Le Cherche-Midi, Paris. ISBN 978-2-7491-1979-3. Retour

(3) Texte de Bernard Pouyaud, pages 155-161, dans : Petit, M. (Ed.), 2015. Climat : le temps d’agir, Le Cherche Midi, Paris. ISBN 978-2-7491-4344-6. Retour

(4) Francou, B., Vincent, C., 2007. Les glaciers à l’épreuve du climat. 274 p. IRD Editions, Belin, Paris. ISBN 978-2-7099-1604-2 et 978-2-7011-4641-6. Retour

(5) Voir par exemple : Anders, A.M., Roe, G.H., Hallet, B., Montgomery, D.R., Finnegan, N.J., Putkonen, J., 2006. Spatial patterns of precipitation and topography in the Himalaya. Tectonics, Climate, and Landscape Evolution 398, 39–53. Retour

(6) Voir par exemple : Valéry, A., Andreassian, V., Perrin, C., 2010. Regionalization of precipitation and air temperature over highaltitude catchments – learning from outliers. Hydrological Sciences Journal 55, 928–940.
Ou bien : Eeckman, J., Chevallier, P., Boone, A., Neppel, L., De Rouw, A., Delclaux, F., Koirala, D., 2017. 
Providing a non-deterministic representation of spatial variability of precipitation in the Everest region. Hydrol. Earth Syst. Sci. 21, 4879–4893. Retour

(7) Voir les chapitres 12 et 14 du 5ème rapport du GIEC : IPCC, 2013 : Climate Change 2013 : The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, 1535 pp. Retour

(8)La densité de la neige est de manière générale lors de sa chute inférieure à 0,2, alors que celle de la glace compacte est de l’ordre de 0,9. Retour

(9)La recherche française a commencé à s’intéresser aux glaciers tropicaux dès le début des années 90 à l’initiative de Bernard Francou et de Pierre Ribstein dans le cadre du projet NGT (Neige et Glaciers Tropicaux) soutenu par l’IRD. Retour

(10) Voir par exemple : Bookhagen, B., Burbank, D.W., 2010. Toward a complete Himalayan hydrological budget : Spatiotemporal distribution of snowmelt and rainfall and their impact on river discharge. Journal of Geophysical Research-Earth Surface 115. Retour

(11) Les explications données dans cette section et dans les deux suivantes sont réduites au minimum utile. Il existe de nombreux ouvrages, thèses et articles dans le domaine de l’hydro-glaciologie détaillant ces différents aspects, y compris des résultats récents de recherches en cours. Pour une information générale en français, le lecteur peut consulter la troisième partie du livre de Francou et Vincent (2007) cité plus haut et/ou les chapitres 2 et 7 du livre : Hingray, B., Picouet, C., Musy, A., 2009. Hydrologie. 2. Une science pour l’ingénieur, Science et ingénierie de l’Environnement. 602p + 1 CD. Presses Polytechniques et Universitaires Romandes, Lausanne. ISBN 978-2-88074-798-5. Retour

(12) Voir par exemple : Martinec, J., Rango, A., 1986. Parameter values for snowmelt runoff modelling. Journal of Hydrology 84, 197–219. https://doi.org/10.1016/0022-1694(86)90123-X ou Hock, R., 2003. Temperature index melt modelling in mountain areas. Journal of Hydrology 282, 104–115. Retour

(13) L’intervalle de temps du facteur utilisé est celui du pas de temps de calcul du modèle. C’est généralement le jour, d’où l’expression degré-jour. Mais des applications existent avec des pas de temps infra-journaliers. Retour

(14) Données issues de : Bouchard, B., Eeckman, J., Dedieu, J.-P., Delclaux, F., Chevallier, P., Gascoin, S., Arnaud, Y., 2019. On the Interest of Optical Remote Sensing for Seasonal Snowmelt Parameterization, Applied to the Everest Region (Nepal). Remote Sensing 11, 2598. Retour

(15) La population des trois bassins de l’Indus, du Gange et du Brahmapoutre approche le milliard d’individus. Retour

(16) Scénario standard du GIEC, plutôt optimiste, d’un «monde où l’accent est placé sur des solutions locales dans le sens de la viabilité économique, sociale et environnementale» Voir article Wikipedia. Voir aussi la référence donnée plus haut sur les scénarios climatiques du GIEC. Retour

(17) Le débit spécifique annuel permet de comparer les volumes annuels issus de bassins versants de tailles différentes. Il s’exprime en m (parfois en mm) et résulte du rapport entre le volume annuel écoulé et la surface du bassin versant à son exutoire. Retour

Katia Laval - Avril 2020 

1- Introduction

Les cyclones tropicaux (appelés aussi ouragans ou typhons) sont des perturbations régionales dont l’extension est de l’ordre de plusieurs centaines de kilomètre. Les vents, violents, tournent autour du centre, appelé l'œil du cyclone. Les mouvements verticaux y sont très développés et les précipitations intenses, de plusieurs centaines de mm par jour, et avec des pics de 50 millimètres par heure. La pression au niveau de la mer est très basse, souvent inférieure à 900 hPa. Ces dépressions météorologiques prennent naissance sur les océans tropicaux ou sub-tropicaux, et s'amplifient en se déplaçant vers l'ouest et vers les latitudes plus élevées.

Ce sont des phénomènes très intenses qui peuvent dévaster des régions, faire de nombreuses victimes et semblent se produire de manière aléatoire. Le typhon Haiyan qui s’est abattu sur les Philippines, en 2013, en est un exemple tragique. Il a été particulièrement destructeur et a provoqué des morts et des blessés par milliers et l'évacuation de centaines de milliers de personnes.

Les vents y sont supérieurs1 à 119 km/h et peuvent atteindre 300 km/h pour les plus violents. Ainsi, lors de rafales observées pendant Haiyan, qualifié par certains de cyclone probablement  le plus puissant jamais enregistré, les estimations de vents ont été de 380 km/h. Suivant la violence, on classe les cyclones tropicaux (CT), de la catégorie 1 pour les plus faibles (de 119 km/h à 153 km/h), à la catégorie 3 pour des vents entre 178 et 210 km/h, et à la catégorie 5 pour les plus intenses (au dessus de 251 km/h)

L'année 2017 a été particulièrement dévastatrice2 avec les ouragans Harvey, de catégorie 4, donnant lieu à des précipitations records de 1500 mm, et provoquant des inondations exceptionnelles sur le Texas, puis Irma et Maria tous deux de classe 5, qui se sont abattus sur les Antilles. Au total, six cyclones majeurs (de classe supérieure à 3) se sont succédés, dépassant largement la moyenne de 3 cyclones majeurs dans cette région. En septembre 2019, l'ouragan Dorian a dévasté les Bahamas avec une puissance dépassant celle des cyclones Irma et Maria qui avaient touché ces îles en 2017. Il a, lui aussi, été de force 5, avec des vents moyens qui ont dépassé 295 km/h. Peut-on déduire de cette succession d'événements exceptionnels que l'on assiste à une augmentation du nombre et de l'intensité des CTs ces dernières années?

On a noté que les cyclones se développent lorsque la température de la mer est supérieure à 26°-27°C mais qu'un cisaillement du vent horizontal3 a un effet d'atténuation et même d'inhibition des CTs. Quand les vents sont inférieurs à 119 km/h, les spécialistes nomment ces dépressions des orages tropicaux ou des tempêtes tropicales.

Décrire un CT à l'aide d'un modèle implique de représenter l'œil, cette zone de vent calme, dont l'extension est de quelques dizaines de kilomètres, et le mur du cyclone, surface où les vents sont les plus forts, qui entoure l'œil.

Figure 1: Un cyclone. On distingue l'œil au centre, et les vents tourbillonnant autour, zone blanche recouverte de cumulonimbus.

Leur énergie a pour origine la quantité de chaleur considérable dégagée lors de la condensation de la vapeur d’eau charriée par ces perturbations atmosphériques. Cette grande quantité de vapeur provient essentiellement de l’évaporation qui s'effectue lors du passage du CT sur les eaux chaudes océaniques, mais aussi de l'humidité de l'environnement où se déplace le cyclone.

La dynamique des CTs est réellement complexe et les connaissances sur ces processus ont beaucoup progressé depuis une quinzaine d’années. Les études régulièrement publiées l’attestent, et donnent lieu quelquefois à des débats entre scientifiques, étant donné la difficulté de maîtriser totalement les mécanismes donnant lieu à ces événements au développement explosif.

2- Prévision des cyclones tropicaux

Les dommages considérables que subissent les populations lors du passage d'un CT sont atténués quand on en fait une prévision fiable. C'est pourquoi depuis plus d'une vingtaine d'années, des efforts ont été déployés pour améliorer leur prévision. Les chercheurs ont des outils de plus en plus performants: des modèles statistiques, des modèles régionaux avec une résolution inférieure à la dizaine de kilomètre pour représenter de manière réaliste un CT et étudier théoriquement ses mécanismes d'amplification ou d'atténuation, et des observations par satellites qui fournissent un suivi des CTs apparaissant chaque année sur les différents bassins océaniques. Ces études ont permis une meilleure connaissance de leurs caractéristiques. Comment mesurer l'énergie maximum d'un CT? Combien de CTs sont déclenchés chaque année? Quelles sont les caractéristiques des précipitations, des profils de température dans l'environnement du cyclone?

En 2012, on a pu saluer la précision, sur la région de New York, de la prévision du cyclone Sandy qu’a effectuée le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT). Sa trajectoire a été prévue 6 jours à l’avance et l’erreur a été, 2 jours avant qu'il n'atteigne New York, de quelque 70 kilomètres seulement, ce qui a constitué une amélioration nette par rapport aux prévisions précédentes et a certainement permis d'épargner des vies humaines. Il faut souligner les progrès importants sur la prévision de la trajectoire des ouragans, et Sandy en est un exemple. Vers les années 1970, la prévision à 3 jours de la trajectoire des CTs en Atlantique comportait des erreurs de l'ordre de 700 km; à l'heure actuelle, ces erreurs ont été divisées par 4 et la prévision à 5 jours comporte une erreur voisine de 300 km.

Les spécialistes arrivent à déterminer assez bien leur trajectoire quelques jours en avance, mais anticiper l’activité cyclonique d’une région quelques mois en avance serait très bénéfique pour de nombreux secteurs : la protection des bâtiments et des populations, la gestion des ressources en eau. Ces prédictions saisonnières sont effectuées par le CEPMMT (avec un modèle dont la résolution est de 36 km), cependant elles nécessitent encore des progrès pour être fiables.

Prenons pour exemple l'étude4 qui a porté sur les prévisions qui ont été effectuées sur le Nord de l’Atlantique, quelques mois avant la saison des CTs qui va de juillet à novembre. Généralement, une seule prévision étant peu crédible, on en effectue plusieurs, qui ont pour origine des dates décalées dans le temps, et qui permettent d'être plus confiants sur les résultats. En 2010, ces essais ont été couronnés de succès, comme le montre le schéma de la figure 2. Les différentes prévisions saisonnières effectuées successivement de mars à mai, indiquaient, pour la saison suivante, un nombre probable d'ouragans de 9 à 12, bien supérieur à la valeur moyenne de 6, et ceci a été tout à fait réaliste puisque les ouragans observés ont été au nombre de 11. Ce succès a permis d'espérer que les outils utilisés pour cette détermination étaient plus performants que dans le passé. Malheureusement, l’année 2013 n'a pas permis de confirmer cette avancée. Les différentes prévisions saisonnières avaient conclu que l'année serait presque normale, avec une fréquence de CTs de 6 ou légèrement supérieure; or 2013 fut l’année où on a eu le moins de cyclones depuis que l’on a des observations globales (voir figure 2).

 

Figure 2: Prédiction et observations (en gris: 12 en 2010 et seulement 2 en 2013) d'une saison cyclonique en Atlantique Nord. L'activité intense de la saison 2010 a été bien prédite, mais en 2013, les études n'ont pas su prévoir la très faible activité des TC. Les points représentent les prédictions par différentes méthodes, avec leur écart type décrit par une barre. Les mois initiaux de chaque jeu de prédiction sont inscrits sur la figure.

3- Les cyclones tropicaux et les modèles climatiques

Généralement, un modèle global de climat (les Modèles de Circulation Générale ou MCG) ne peut véritablement décrire un ouragan car la maille du modèle est de l'ordre de la centaine de kilomètre. Réduire la maille est extrêmement coûteux et par conséquent, les expériences numériques dont la résolution est suffisante sont rares.

Pourtant, pour évaluer la capacité des MCG à représenter les CTs, quelques simulations ont pu être conduites en réduisant la taille de la maille du modèle. C'est le cas au laboratoire de Princeton, le "Geophysical Fluid Dynamics Laboratory" (GFDL)5, où les chercheurs ont fait des simulations climatiques avec un MCG dont la maille a été réduite à 50 km. Ces expériences numériques ont démontré que la physique du modèle était suffisamment performante pour que des CTs apparaissent avec des caractéristiques assez satisfaisantes. Leur développement dans les différents bassins océaniques était présent, avec une évolution maximum de juillet à novembre, conforme à la réalité, ce qui est remarquable. Mais le caractère explosif des cyclones majeurs de catégorie 4 à 5 n'a pas été simulé par ce modèle et seuls, ceux de classe 1 à 3 ont pu être représentés. Malgré cette dernière difficulté, ce résultat rassure car il montre que, seule, une résolution insuffisante empêche les MCG de mieux représenter les cyclones et leur évolution avec le changement climatique.

Malgré leur résolution insuffisante, les MCG ont été utilisés pour approfondir les connaissances sur les CTs. Pour détecter l'apparition et l'intensité des cyclones des modèles, les scientifiques ont développé des algorithmes simples basés sur des seuils de quantités locales telles que le tourbillon de vent (cette quantité mesure la rotation du vent qui s'amplifie lors du développement d'un cyclone), la pression, et la température de la haute troposphère, ou d'autres indices définis ci dessous au paragraphe 5. Ces études ont permis de confirmer le lien entre l'existence d'une année El Nino (la Nina) et l'affaiblissement (le renforcement) de l'activité cyclonique en Atlantique6. Ces relations ont été constatées sur les observations portant sur la période allant de 1981 à 2009. Plus la maille des modèles est fine et la résolution précise et plus performante est la représentation des CTs.

L'influence du changement climatique (CC), résultant de l'émission anthropique des gaz à effet de serre (GES) sur l'activité cyclonique a été véritablement étudiée après les années 2000, même si quelques publications avaient tenté auparavant d'explorer le sujet. On a pu noter des désaccords sur les conclusions des nombreuses publications. En utilisant l'ensemble des MCG ayant participé au 4ième rapport du GIEC, des scientifiques ont montré que, en Atlantique, et sur l'Est du Pacifique, le cisaillement de vent7 augmentait avec le CC, ce qui inhibe l'intensification des cyclones; d'autres analyses, publiées bien après 2005, ont conclu que le nombre de cyclones8 diminuait dans cette région alors que des publications en 2005 annonçaient une augmentation du nombre et de l'intensité des CTs. Le débat entre scientifiques s'est instauré, certains utilisant des modèles qui obtiennent une augmentation de l'intensité ou du nombre de cyclones, alors que d'autres trouvent l'inverse. Nous revenons plus précisément sur ces résultats dans les prochains paragraphes. 

4- Comment déterminer l’évolution des cyclones tropicaux 

Comment évoluent, sous l'effet du changement climatique, la fréquence et l'intensité des cyclones tropicaux, ou encore la région où ils sont produits? La réponse à cette question présente des difficultés. Elle est encore débattue par les scientifiques, qui pourtant sont bien conscients de son importance majeure pour la société, eu égard aux désastres engendrés par ces situations météorologiques. 

Les Observations 

Les études sur l'évolution des CTs passés présentent deux difficultés. Tout d'abord la qualité des observations, en particulier avant leur détection par les satellites et d'autre part la longueur insuffisante des données du passé auxquelles on a accès. Définir un signal statistique fiable sur des événements rares (encore plus si l'on s'intéresse aux cyclones majeurs (de catégorie supérieure à 3) nécessiterait d'avoir des séries plus longues que celles dont on dispose.

Les CTs sont assez rares, dans les différents bassins océaniques, malgré l'impression ressentie par le public. Ainsi, en Atlantique, où on a des enregistrements les plus complets, les études n'ont pas toujours été en accord. Sur le nord de l'Atlantique (figure 2) le nombre d'ouragans est en moyenne de 6 par an, avec des écarts type de l'ordre de 3. Néanmoins, certaines années, leur nombre peut être bien supérieur, ce qui peut faire penser à une tendance sur le long terme. Ainsi, on en a observé plus de 10 en 1995, en 2005 et en 2010. L'année 2005 a comporté 15 CTs particulièrement violents, dont l'ouragan Katrina, en Nouvelle Orléans, qui a fait plus de 1300 morts et 100 milliards de dégâts. De nombreuses publications ont alors affirmé que l'on assistait à une augmentation globale du nombre de CTs en Atlantique, ou de l'intensité des cyclones majeurs, ou de leur capacité de destruction9. La question suivante  a été alors posée: une telle évolution peut elle être attribuée au changement climatique lié aux émissions des gaz à effet de serre? Ces conclusions ont été réfutées par la suite, quand on a étudié des enregistrements plus longs10. Après 2005, le nombre de cyclones a nettement décru en Atlantique et certains en ont cherché la cause. Une hypothèse a été que les variations d'aérosols de la région ont eu une influence sur l'activité des CTs, mais cette explication n'a pas convaincu tous les chercheurs. L'activité cyclonique très forte en 2017, bien qu'inférieure à celle de 200511, a relancé les recherches sur les causes de cette intensification et certains l'ont reliée à la modification des températures de surface

en Atlantique12. Sur le Pacifique, des études ont montré que le nombre de cyclones décroissait. Des chercheurs ont émis l'hypothèse que l'augmentation du nombre de CTs en Atlantique, certaines années, pouvait être compensée par une décroissance sur l'océan Pacifique13.

Les dernières études14 montrent que, sur l'ensemble de la planète, le nombre total annuel  de perturbations tropicales (CTs et tempêtes) est de l'ordre de 87, avec une variabilité interannuelle importante: on en a compté 69 en 2010, et 108 en 1996. Parmi ces perturbations, 48 en moyenne correspondent aux cyclones de classe 1 ou plus. De même que pour l'Atlantique, les données globales reconstituées n'ont pu démontrer une tendance à l'augmentation ou à la réduction  du nombre total d'ouragans, même si la variation décennale, avec des minimums de 29 (comme en 1977, ou en 2008-2009), apparaissant sur la Figure 3, a pu induire des interrogations, voire même l'hypothèse d'une décroissance de leur nombre total, lors de l'analyse de séries moins longues.


 

Figure 3: Fréquence (nombre de cyclones par an) des cyclones tropicaux (en rouge) et de l'ensemble des orages et des cyclones tropicaux (en noir) sur la planète. Chaque point correspond à une moyenne glissante sur 12 mois. Knutson et al15, 2019.

Les études théoriques

- Les indices

Les Modèles MCG n'ont pas la résolution suffisante pour représenter les cyclones, sauf lors de quelques expériences spécifiques déjà soulignées. C'est pourquoi les physiciens ont défini à partir des propriétés de l'environnement, des indices liés à la violence des cyclones, et qui, eux, peuvent être déterminés par les MCG. Ils ont, par exemple, défini un indice qui correspond à la limite supérieure de l’intensité du cyclone16 en tenant compte de l’état de l’environnement, et l'ont nommé « intensité potentielle » du cyclone. Cette intensité potentielle (IP) est une estimation théorique du maximum d'intensité qu'un cyclone tropical peut atteindre dans un environnement aux caractéristiques thermodynamiques données. D'autres indices ont été définis pour mieux déterminer le pouvoir destructeur d'un cyclone, tout au long de son existence17.

La relation entre la température de surface de l’océan et l’activité cyclonique est connue depuis longtemps. On a déjà noté que les cyclones tropicaux ne se développent que si la température de la mer est supérieure à 26-27°C. Cette condition a été souvent évoquée dans les médias, en particulier lorsqu'on prédit l'évolution de l'activité cyclonique provoquée par le réchauffement climatique. En effet, si les températures océaniques sont plus fréquemment supérieures à ce seuil, cette condition se trouve plus souvent réalisée. Cependant, la température supérieure à 26-27°C, seule, ne suffit pas à engendrer un cyclone: c'est une condition nécessaire mais non suffisante.

En fait, cet indice IP est lié à l’instabilité de l’atmosphère, ce qui implique non seulement la température de surface mais le profil de température, mesuré depuis la surface jusqu'au haut de la troposphère (vers 12 km). C'est la raison pour laquelle il n'est pas évident qu'une température de surface plus chaude renforce l'intensité des cyclones. Les études conduites à l'aide des données des Centre de Prévision l'ont démontré, comme expliqué dans le paragraphe suivant.

- Les réanalyses

Pour calculer cet indice et son évolution ces dernières décennies, il était nécessaire d’avoir des données continues du profil de température et d’humidité sur les bassins océaniques. Ces quantités peuvent être fournies par les réanalyses des centres de prévision18, celui des USA (NCEP/NCAR) et le Centre Européen à Reading (CEPMMT). Ces centres de prévision emmagasinent chaque jour toutes les observations, satellitaires et in situ, les passent à travers des filtres qui utilisent des Modèles de Circulation Générale (MCG) pour obtenir des analyses que l’on distribue à la communauté scientifique. Ces opérations permettent chaque jour d’avoir une analyse de l’état de l'atmosphère et de l'océan la plus réaliste, compatible avec les données et les lois auxquelles est soumis le système climatique. Les réanalyses consistent à refaire ces opérations, à postériori, sur de longues périodes antérieures, avec les algorithmes les plus récents, ce qui permet d'obtenir des séries homogènes de l'état de l'atmosphère sur plusieurs années.

La première évaluation de cette "intensité potentielle"  a été réalisée avec les ré analyses du NCEP/NCAR, aux USA. Cette étude a montré une augmentation de l’« intensité potentielle » au cours des dernières décennies. Cela a permis d’annoncer dans les médias et le public que les cyclones tropicaux étaient plus intenses au cours de ces derniers 30 ans. Cependant, d'autres études, moins médiatisées, ont questionné la fiabilité de ces résultats. Par exemple, ils ont souligné que l'intensité potentielle de certaines zones pouvait être réduite si les températures de la haute troposphère étaient mal évaluées19. De plus, certains scientifiques ont émis l'hypothèse que le réchauffement non local, mais relatif par rapport à celui de l'ensemble du bassin, influence l'énergie des cyclones.

Une étude similaire a ensuite été effectuée en utilisant les réanalyses du CEPMMT20 pour décrire l'environnement, et n’a pas montré de croissance de cette intensité potentielle, mais au contraire un profil quasiment plat, avec des variations décennales (Figure 4). Ce résultat, contrasté, s'expliquait par le fait que les valeurs de température de la haute troposphère obtenues par les deux jeux des deux centres de prévision étaient différentes. Pourquoi et comment crédibiliser une de ces deux études par rapport à l'autre?

 

Figure 4: Évolution de l'intensité potentielle annuelle moyenne des orages et cyclones tropicaux, et leur tendance à long terme. Les données utilisées sont MERRA (rose), ERA interim (bleu) (2 versions du CEPMMT) et NCEP en rouge. La tendance sur les données du CEPMMT n'est pas significative.

Les auteurs ont fait bien mieux que de constater cette différence entre les 2 jeux de données. Grâce aux progrès des suivis de cyclones tropicaux par satellites21, ils ont calculé l'indice pour chacun des cyclones observés, en suivant sa trace plutôt que de faire une étude sur les paramètres climatiques obtenus par les centres de prévision sur toute la région environnante. Et ils ont vérifié que les mesures, chaque année, de la température au sommet du cyclone observé était en accord avec les réanalyses ERA-interim du CEPMMT et était en désaccord avec ces réanalyses NCEP/NCAR. Les températures de la troposphère analysées par le CEPMMT sont donc plus réalistes que celles du NCEP pour ces deux jeux de réanalyses: l'intensité potentielle n'a pas varié significativement.

- Résultats des MCG

Les chercheurs ont utilisé les indices déjà décrits pour détecter des modifications des cyclones tropicaux que leurs modèles représentaient, quand ils prescrivaient une augmentation des gaz à effet de serre. Un certain nombre de publications, vers les années 2000, ont conclu à une augmentation de l'intensité des cyclones, et cela a eu une résonance importante dans les médias.

Depuis, des développements significatifs ont permis de progresser de manière importante dans la connaissance et la représentation de ces cyclones. Tout d'abord, on a pu augmenter la résolution de certains MCG, ce qui a eu un impact considérable sur la confiance que l'on pouvait avoir sur leurs résultats. De plus, des techniques sophistiquées ont été introduites pour résoudre les échelles adaptées aux cyclones par des méthodes de désagrégation: elles consistent à associer aux MCG, des modèles régionaux, de résolution bien plus fine, de 50 km ou de 18 km22 pour mieux définir la dynamique du cyclone; certaines études ont même associé, en descendant à une échelle encore plus fine, un modèle de cyclone, à 9 km de résolution pour représenter les ouragans les plus intenses. Ces analyses ont donné lieu à un ensemble de résultats qui ont paru bien plus convaincants que les simples résultats brut obtenus par les GCM, de résolution de l'ordre de la centaine de kilomètre.

Les exercices effectués dans le cadre du GIEC, en particulier pour le rapport AR5, publié en 2013, ont permis d'étudier cette évolution (leur intensité, leur nombre, leur trajectoire) en tenant compte de l'ensemble des MCG qui participaient au GIEC, ce qui implique une plus grande confiance accordée aux résultats.

Il faut noter que ces évaluations comportent deux hypothèses: d'une part, que le changement du climat régional des zones tropicales est calculé de manière réaliste par les modèles et que, d'autre part, les indices qui sont utilisés soient des indices valables dans un climat plus chaud. Notons au passage une difficulté: les CTs de classes 4 et 5, plus difficiles à représenter, sont ceux qui importent le plus car, s'ils représentent 6% d'occurrence de ces événements, ils sont responsables de 50% des dommages économiques.

S'appuyant sur ces méthodes, un grand nombre d'études ont été publiées. Elles déterminent l'évolution des cyclones en Atlantique, sur le Pacifique, ou les autres bassins; certains se sont intéressés au nombre de cyclones, d'autres à l'évolution de leur intensité. Certains ont publié des résultats pour la proportion de cyclones les plus violents (classe 4 et 5). Ces résultats présentent des accords partiels mais encore des désaccords, ce qui démontre simplement la complexité du sujet, qui n'est toujours pas maîtrisé.

- Conclusions des spécialistes

Étant données la complexité et la diversité des résultats, et, en même temps, l'importance de ces études vis à vis de la société, onze spécialistes internationaux du domaine, dont la compétence est reconnue, ont publié un article en commun23, en décembre 2019, pour faire le point des connaissances et décrire leurs certitudes, incertitudes, questionnements sur l'évolution des cyclones face au changement climatique. Ils se sont placés dans l'hypothèse d'une augmentation du réchauffement global de 2°C et ont analysé plus de 130 publications sur le sujet. Leurs conclusions sont les suivantes:

- Les études scientifiques ne permettent pas d'affirmer que le nombre de CTs augmente, même si un chercheur sur les onze en est convaincu.

- Il est possible que la proportion des CTs les plus intenses (les classes 4 et 5) augmente, au détriment des ouragans moins intenses. Les auteurs soulignent que ceci n'implique pas que le nombre total de cyclones de classe 4 et 5 augmente, mais que leur pourcentage par rapport au nombre total augmenterait dans l'hypothèse où le nombre de CTs serait réduit globalement.

- Ils accordent une confiance moyenne ou peu de confiance aux modèles qui montrent une diminution du nombre de cyclones, même si la plupart des expériences numériques l'obtiennent. Leur argument est que cette variation n'est pas observée à l'heure actuelle. La question "pourquoi les modèles simulent en général (mais pas tous) une diminution de la fréquence des cyclones" n'a pas encore reçu de réponse tout à fait satisfaisante malgré les recherches qui ont proposé des mécanismes possibles.

- On a observé, ces dernières années, un ralentissement du déplacement des cyclones sur leur trajectoire. Ceci a pour effet d'intensifier les dommages subis en un endroit donné et peut expliquer une partie de l'augmentation des dommages sur les zones habitées, comme cela a été constaté pour le cyclone Dorian, en 2019. Le consensus pour cette affirmation n'est pas total, cependant. Notons, de plus, que cet effet doit être distingué du fait que des évolutions socio-économiques ont provoqué une augmentation des coûts des dommages, constaté par les compagnies d'assurance.

- Certaines publications ont émis l'hypothèse d'un déplacement vers le Nord de la région d'apparition des cyclones, et pouvant toucher Hawaï, quand cette translation a lieu sur le Pacifique. Cependant, suivant les auteurs, les zones concernées sont un peu différentes, et le consensus n'est pas établi. Bien que la latitude du maximum d'intensité des perturbations sur l'ouest du Pacifique se soit décalée depuis les années 1940, vers le Nord, cette proposition n'est pas considérée comme robuste par l'ensemble des spécialistes.

- Il y a cependant un résultat qui est énoncé avec plus de conviction par ces chercheurs: le taux de précipitation augmentera avec le réchauffement climatique, car cet effet est basé sur une théorie thermodynamique solide, et les simulations des modèles sont en accord avec cette modification. Le fait de ne pas l'avoir détecté sur les observations tempère cette conclusion, mais elle reste affirmée par un certain nombre de ces spécialistes.

Quand on lit attentivement chacune de leurs remarques, on est frappé par leur prudence et les marges d'incertitude qu'ils veulent porter à la connaissance des autres spécialistes climatologues. Il serait important que les médias nous aident à rapporter vers le public cette attitude rigoureuse et nuancée. 

Conclusions

Les études que nous avons décrites montrent, à l'évidence, que tout n'a pas été dit sur le futur des cyclones et que certaines contradictions entre chercheurs demeurent. Il est possible que de plus longues observations soient nécessaires pour démontrer ou confirmer certains résultats, comme l'évolution de l'intensité des cyclones avec le changement climatique en cours. Leur déplacement en latitude, le ralentissement du déplacement du cyclone sur sa trajectoire, ou la proportion de cyclones majeurs (car ceux de faible intensité diminuent en fréquence) donnant lieu à des dommages plus importants localement, tous ces facteurs induisent une inquiétude compréhensible.

Il est indéniable que si la résolution des modèles globaux pouvait atteindre 10 kilomètres, voire même moins, la représentation de la convection et des cyclones en serait nettement améliorée, et partant, leur évolution provoquée par le changement climatique sur de longues simulations, évaluée avec plus de fiabilité. Deux éminents spécialistes du climat24 ont proposé que la communauté internationale des scientifiques milite pour obtenir des ordinateurs dont la puissance serait multipliée par 1 000 000, de telle sorte qu'on puisse faire des expériences numériques avec des MCG de 1 kilomètre de résolution. Ce type de développement apporterait un outil plus performant et des réponses plus fiables pour comprendre, en particulier, l'évolution de ces événements extrêmes si dévastateurs.

1 Cette échelle (de Saffir-Simpson) étant définie en miles par heure, les valeurs limites de chaque classe ne correspondent pas à des chiffres ronds

2 http://www.meteofrance.fr/actualites/61768048-saison-cyclonique-2017-l-omm-fait-le-bilan-pour-l-atlantique

3 Le cisaillement est la variation de la vitesse du vent entre les hautes altitudes et les basses altitudes. Conventionnellement, on le calcule en prenant la différence du vent entre les niveaux 200 hPa et 850 hPa

4 Vecchi, G. A. and G. Villarini. Next Season's Hurricane, Science 343, 2014

5 Zhao M., I. Held, S-J Lin, and G. A. Vecchi. Simulations of global hurricane climatology, interannual variability, and response to global warming using a 50-km resolution GCM. Journal of Climate, 2009

6 Depuis quelques années, on a différentié deux modes El Nino, un mode à l'est (EP), et l'autre au centre (CP) de l'océan Pacifique. Le mode EP est l'El Nino conventionnel avec des anomalies chaudes de la surface sur l'est du Pacifique tropical alors que le mode CP, noté Modoki, est un mode où les anomalies les plus chaudes sont situées au centre du Pacifique. Le lien entre les CP El Nino et les ouragans est moins bien établi que celui avec les années EP El Nino. Voir Wang et al, J. Climate, 2014

7 Vecchi G. A. et B. J. Soden, Increased tropical Atlantic wind shear in model projections of global warming., Geophys. Research Letters, 34, 2007

8 Zhao M. et al, An analysis of the effect of global warming on the intensity of Atlantic hurricanes using a GCM with statistical refinement, J. Climate, 23, 2010 ou encore Knutson et al, Dynamical downscaling projections of twenty-first century Atlantic hurricane activity, Journal of Climate, 2013

9 Webster P. J., et al, Changes in tropical cyclone, number, duration, and intensity in warming environment, Science, 309, 2005. Ou Emanuel K., Increasing destructiveness of tropical cyclone over the past 30 years, Nature, 436, 2005

10 Chan, J. C. L., Comments on "Changes in tropical cyclone, duration, and intensity in warming environment, Science, 311, 2006

11 En 2005, la saison cyclonique reste exceptionnelle en Atlantique nord, avec 14 ouragans dont 7 majeurs

12 Murakami H. et al, Dominant effect of relative tropical warming on major hurricane occurrence, Science, 2018

13Wang C and S.K. Lee, Co-variability of tropical cyclones in the north Atlantic and the eastern North Pacific, Geophysical Research Letters, 36, 2009

14 Maue, Recent historically low global tropical cyclone activity, Geophysical Research letters, 38, 2011

15 Knutson et al, Tropical cyclones and climate change assessment; Detection and attribution, Bulletin of American Meteorological Society, Octobre 2019

16 Emanuel K., Thermodynamic control of hurricane intensity, Nature, 401, 1999. Cet indice définit le carré du maximum de la vitesse du cyclone.

17 Deux autres indices rendent mieux compte des dommages que le cyclone peut engendrer sur son passage. L'un mesure le cube de la vitesse du vent tout au long de la vie du cyclone (Emanuel (2005), et l'autre mesure l'énergie accumulée par le cyclone (Bell et al, 2000)

18 Voir la Faq sur le site du "Club des Argonautes": http://www.clubdesargonautes.org/faq/modèles-numériques-météo-climat.php

19 Vecchi G. A. et al, Impact of atmospheric temperature trends on tropical cyclone activity. Journal of Climate, 2013

20 Kossin J. P., Validating atmospheric reanalysis data using tropical cyclones as thermometers. Bulletin of American Meteorological Society, 2014

21 Ils ont utilisé une technique basée sur le signal infrarouge mesuré par satellite et qualifiée de "Advanced Dvorak Infrared Technique améliorée"

22 L'imbrication d'un modèle régional dans un MCG est la méthode classique qu'utilisent les centres de prévision météorologique pour fournir aux citoyens des prévisions du temps précises au niveau régional. La NOAA utilise systématiquement un modèle régional, de 18 km de résolution, imbriqué dans un GCM pour la prévision des cyclones. Le Centre Européen CPMMT fait tous les jours une prévision probabiliste à 15 jours d'échéance de l'activité cyclonique avec une résolution de 18 km

23 Voir Note 15

24 Palmer T. and B. Stevens, The scientific challenge of understanding and estimating climate change, PNAS, 2019