logo argo large new

Propos d’Argonautes ​ en janvier 2025

(Temps de lecture: 6 - 11 minutes)

Cyclone Chido à Mayotte, et inondations en général
Dès les premières informations en provenance de Mayotte après le passage du cyclone Chido le 14 décembre 2024, le changement climatique a été désigné par certains comme l’un des responsables de la catastrophe, et il en est souvent ainsi lorsque des inondations violentes dévastent une ville, une vallée, une région.

Si le changement climatique peut renforcer certains évènements extrêmes, les dégâts ont aussi pour cause, bien souvent, un aménagement du territoire mal ou pas du tout adapté pour y faire face. Dans le cas de Chido à Mayotte, habitat et urbanisme n’avaient en rien été conçus pour faire face à une telle tempête.
Constructions anarchiques et absence d’aménagements pour évacuer l’eau ont ainsi aggravé les conséquences des pluies diluviennes qui sont tombées sur Istambul en septembre 2009. Impréparation aussi à Bab El Oued (Alger) en 2001 où des pluies exceptionnellement abondantes ont été retenues dans leur écoulement vers la mer par une autoroute qui barrait la vallée, et sous laquelle trop peu d’ouvertures avaient été aménagées. Onze ans plus tard, faute d’aménagements, l’inondation se répétait. A Derna dans l’est de la Lybie en 2024, des pluies amenées par la tempête Daniel ont provoqué la rupture de deux barrages sur l’oued qui traverse la ville et les eaux ont balayé les habitations construites dans ce qui était pourtant le lit de l’oued.
En 1957 à Valencia, Un déluge s’était abattu sur la région, et dans leur parcours vers la mer, les eaux du fleuve Turia avaient ravagé le centre de la ville. Un détournement du fleuve a alors été réalisé, et l’inondation dramatique du 29 octobre 2024 a cette fois épargné ce centre ville, mais c’est le quartier voisin de Paiporta qui a pris de plein fouet le torrent de boue dévastateur. Là aussi pourtant, il aurait été possible de prévoir et d’aménager une zone pour que les eaux aillent à la mer en faisant moins de dégâts.

 

Le très rapide réchauffement global en 2023 – 2024
La hausse brutale de la température moyenne globale dès le début du mois d’avril 2023 a surpris les climatologues. Une hausse était attendue avec l’arrivée prévue d’un évènement El Niño et alors que le précédent record datait de l’évènement précédent en 2016, mais l’El Niño de 2023 ne s’est déclenché qu’un peu plus tard, en mai. Autre caractéristique hors norme, le réchauffement a été très intense, et durable, culminant en août 2024 à près de + 1,7 °C au dessus de la moyenne préindustrielle, soit au-delà de la limite proposée par l’accord de Paris. Et alors que des conditions La Niña, très modérées cependant, ont pris la suite du phénomène El Niño, la température moyenne globale reste très supérieure à ce qu’elle était avant 2023. Outre cet épisode El Niño, plusieurs causes ont été proposées pour expliquer la hausse de la température moyenne à la surface de la Terre : l’injection d’une grande quantité de vapeur d’eau dans la stratosphère après l’éruption du volcan Hunga Tonga, l’interdiction récente des carburants soufrés dans le transport maritime, qui a entraîné une baisse de la quantité d’aérosols dans l’atmosphère, et tout simplement les émissions anthropiques de gaz carbonique qui continuent au même rythme qu’auparavant. Il apparaît aussi que la quantité de nuages bas a diminué, ce qui a pour effet de diminuer l’albédo de la Terre et d’augmenter la pénétration du rayonnement solaire. Cette hausse exceptionnellement forte de la température moyenne globale pourrait être comprise comme un effet de la variabilité climatique, et n’impliquerait pas un emballement, ou le franchissement d’un « point de bascule ». Elle pourrait n’être due qu’à d’autres gaz à effet de serre, à des effets inconnus de la guerre en Ukraine, ou à des méga feux. Des changements dans les mécanismes climatiques pourraient aussi en être responsables. Comme cela a été fait après le « hiatus » pendant lequel, entre 2000 et 2010, la hausse de la température moyenne globale avait fortement ralenti, il faut en comprendre les causes.

Plutôt qu’aux moyennes, s’intéresser aux extrêmes
Le changement climatique s’effectue à bas bruit, et c’est lorsque des évènements extrêmes se produisent que nous nous alarmons. Et c’est bien à ces évènements extrêmes que nous devons nous préparer. Une hausse de la température moyenne globale de 3 ou 4 °C ne met pas nos vies en danger, mais elle rend possible des épisodes caniculaires au cours desquels elle pourrait atteindre 50 °C ! Une hausse du niveau marin de + 60 cm à la fin de ce siècle peut paraître gérable, mais il y aura alors des tempêtes au cours desquelles ce niveau sera largement dépassé. Se préparer à ces évènements extrêmes, qui surviennent en général à l’échelle régionale, suppose que nous soyons capables de prévoir leur probabilité, leur intensité, et c’est là un objectif que les modèles climatiques sont encore loin d’atteindre.

Changement climatique : qu’en est il pour le vent ?
A quoi doit on s’attendre alors que le changement climatique, en réchauffant plus vite les hautes latitudes que les tropiques, tend à réduire les contrastes zonaux de température ? Ces contrastes étant une des causes des grands systèmes de vents, on devrait s’attendre à un ralentissement, comme cela se produit en été dans chaque hémisphère après les tempêtes hivernales. Appliqué sans précaution à la transition entre la dernière glaciation et l’interglaciaire actuel, ce principe ne rend pas compte de l’accélération de la circulation de retournement des océans telle que l’indique l’étude des isotopes et qui est indispensable pour que les océans perdent du gaz carbonique au profit de l’atmosphère et contribuent ainsi au réchauffement. Plutôt qu’un ralentissement des vents, on observe en effet depuis une quarantaine d’années une augmentation de l’intensité des tempêtes et de leur fréquence dans l’Atlantique nord.
Le vent de surface au dessus de l’océan (qui est pourtant une « Essential Climate Variable ») n'est pas très bien pourvu en terme de système d'observation adapté. Il y a environ quinze ans, nous Argonautes et en particulier José Gonella et Raymond Zaharia, avons constaté que les vents déduits des données des satellites équipés de diffusiomètres, et ceux avec des altimètres, montraient des écarts systématiques, les uns ayant tendance à augmenter alors que les autres diminuaient. Ces deux types d’estimation de la vitesse du vent s’appuient sur des mesures de l’état de surface de la mer (Sigma0), et à Eumetsat, Estelle Obligis entreprend d’assimiler directement ces valeurs du Sigma0 dans les modèles météo. On en attend une meilleure connaissance du vent de surface au dessus des océans grâce à l’utilisation d’un nombre accru d’observations, et, partant, une meilleure connaissance de l’énergie cinétique que contient l’atmosphère.

Les progrès rapides en météo de l’intelligence artificielle l'apprentissage machine
Intelligence artificielle, ou apprentissage machine (machine learning) ? La première désignation alimente des peurs, nourries par la science fiction, d’une prise de pouvoir par les machines. Nous lui préférons la seconde, qui laisse un rôle au maître d’apprentissage. Depuis un ou deux ans, les progrès de la prévision météorologique par cette technique sont ponctués par des annonces de prévisions par des programmes d’apprentissage machine qui se sont avérées souvent meilleures que celles par les modèles physiques. Jusqu’à présent, ces derniers possédaient l’avantage de pouvoir produire de « prévisions d’ensemble », capables de simuler les évolutions possibles du temps par un modèle physique mis en œuvre un grand nombre de fois dans des conditions légèrement différentes. Un système d’apprentissage machine (GenCast, développé par le Centre Européen ECMWF), est maintenant capable lui aussi de faire des prévisions d’ensemble, en 8 minutes ! en donnant des résultats souvent meilleurs que ceux des modèles numériques. GenCast est entraîné sur les réanalyses du Centre Européen.
Ces progrès rapides de l’apprentissage machine (les modèles numériques restent supérieurs pour l’assimilation des données, mais pour combien de temps encore ?) ouvrent la porte à des changements à venir dans la prévision météorologique. L’apprentissage machine peut se faire sur des données que les modèles numériques ne savent pas exploiter pleinement, par exemple, des images multidimensionnelles. Faut il redouter que la physique des processus n’y apparaisse plus de façon explicite, et soit un peu délaissée ? Au contraire, analyser les cas où l’apprentissage machine a donné de meilleurs résultats que les modèles numériques et rechercher les causes de cette supériorité est une voie de recherche qui peut déboucher sur une meilleure connaissance des processus physiques qui sont à l’oeuvre.
Une anecdote : Edward Lorenz, considérant l'éventualité de prévisions effectuées à partir de recherche d'analogues dans le passé, estimait qu’il faudrait environ 1000 ans d’archives météorologiques pour que de telles prévisions atteignent la qualité des prévisions effectuées avec les modèles numériques du moment. L’évolution rapide actuelle lui donne tort. Données recueillies, et algorithmes de calcul ont considérablement progressé : quel chemin parcouru depuis l’époque des logarithmes et des règles à calcul !

D’écosystèmes humides à des écosystèmes arides
La Convention pour le Combat contre la Désertification vient de publier un rapport sur l’évolution de l’approvisionnement en eau des sols dans le monde. Ce rapport souligne que 77,6 % des surfaces ont subi entre 1990 et 2020 des conditions plus sèches qu’au cours des 30 années précédentes, et que les zones arides ont progressé de 4,3 millions de km² (soit une fois et un tiers de la surface de l’Inde). Qu’une zone aride devienne encore plus aride n’est pas forcément alarmant : l’écosystème qui lui correspond peut résister, et s’en remettre à la faveur d’une séquence plus humide. Plus inquiétant est le cas de zones humides, propices à l’agriculture, qui deviennent arides : pendant ces 30 dernières années 7,6 % des terres (soit plus que la surface du Canada) ont ainsi franchi un seuil d’aridité et le retour à des conditions plus humides et à l’ écosystème correspondant est peu probable.

La rotation de la Terre et le décompte du temps
A priori, l’un et l’autre vont ensemble. Mais du fait de l’influence de la Lune, et des marées, la vitesse de rotation de la Terre diminue très lentement. Or, nous voulons que la date et l’heure correspondent au lever et au coucher du Soleil et à la succession des saisons. Cela conduit de temps à autre à ajouter une seconde au temps officiel standard. Mais depuis deux ans environ, la Terre tourne sur elle même plus rapidement, à tel point qu’il serait devenu pertinent de retirer une seconde à ce temps de référence. Cette opération pose cependant des problèmes insolubles, ne serait ce que parce que des opérations bancaires (les transactions à haute fréquence) y disparaîtraient. Il convient donc de dissocier le temps officiel standard, celui de nos montres, du décompte du temps mesuré par les horloges atomiques, le temps atomique international (TAI) et le temps universel lié à la rotation de la Terre (UT1) (l’ouvrage "Les références de temps et d'espace" dresse un tableau complet des enjeux et des systèmes utilisés). Pour information : le système GPS s’est déjà affranchi du calendrier terrestre. Windows a adopté une base de temps en jours décimaux à partir du 1er janvier 1900 à 0h. De même, le système d’exploitation Linux, utilise une base de temps unique sur le décompte des secondes (positives ou négatives) à partir du 1er janvier 1970 à 0h. Et rappelons nous les vicissitudes du passage du calendrier Julien au calendrier Grégorien, qui représente un décalage de 10 jours, et qui a été opéré très tard en Russie, de telle sorte que la révolution d’octobre y était commémorée en novembre.

Sauvegarder
Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner
Unknown
Unknown
Accepter
Décliner