Embarquez avec des scientifiques, des ingénieurs et des marins pour une navigation-exploration des relations avec l'océan, le climat et les énergies marines dans la perspective du changement climatique
On pourrait dire que la CNUCC (Convention-cadre des Nations Unies sur les Changements Climatiques) et ses COP’s (Conférences des Parties) alimentés par les rapports du GIEC d’un côté et le climat «réel» de l’autre, évoluent indépendamment l’une de l’autre, bien que l’objectif des COP’s soient pourtant de déterminer les moyens de lutter contre le changement climatique. En effet, en dépit de tous les accords obtenus lors des COP, les indices du changement climatique ne cessent de s’amplifier. Les différentes COP ont ceci de trompeur, qu’elles débouchent toujours sur des accords dont se félicitent les parties prenantes, qui trouvent toujours un angle d’attaque favorable pour cela, même si cet accord est de peu de poids dans la lutte contre le changement climatique. La COP 24 qui s’est tenue à Katowice en Pologne du 3 au 15 décembre 2018 décembre n’échappe pas à la règle (fig 1).
Figure 1: Clôture de la COP 24
Les figures réjouies de la séance de clôture dissimulent le marathon éprouvant qu’il fallut faire en jouant les prolongations de 24 heures «as usual» et parvenir au bout de la nuit à cet accord a minima entre les 195 états signataires de la CNUCC et dont la presse souligna la modestie décevante des résultats sur le plan de la lutte contre le réchauffement global.
L’accord de Paris de 2015 (COP 21) qui avait acté la nécessité impérative de contenir le réchauffement climatique en dessous de 2°C et avait mandaté le GIEC pour examiner, à la demande des pays insulaires, les conditions d’un abaissement de la barre à 1,5°C, était le point de référence. Le GIEC avait fourni le 8 octobre 2018 le rapport qui lui avait été commandé. Il conclut que les activités humaines ont déjà provoqué un réchauffement climatique de 1 ± 0,2°C au-dessus des niveaux préindustriels, que la température moyenne augmente actuellement de 0,2 ± 0,1°C par décennie en raison des émissions passées et actuelles et qu’à ce rythme on dépassera les 1,5°C entre 2030 et 2052, pour atteindre 3,30°C en 2100, si l’on s’en tient aux NDC (Nationaly Determined Contributions) annoncées à Paris en 2015. D’où la nécessité réaffirmée pour limiter le réchauffement à 1,5°C, de réduire les émissions mondiales de gaz à effet de serre d’environ 45% en 2030 par rapport à 2010 et d’atteindre des émissions nettes nulles vers 2050. Mission impossible avec les engagements déjà annoncés par les États. Tous les scénarios permettant ainsi de limiter le réchauffement à 1,5°C, incluent l’absorption de CO2 atmosphérique (carbon dioxide removal ou CDR) qui n’est pas encore initiée.
À l’actif de la COP 24 on mettra, comme d’habitude, l’accord lui-même qui permet d’affirmer que le multilatéralisme n’est pas mort, la confirmation de l’Accord de Paris et de l’objectif de maintenir le réchauffement bien au-dessous de 2°C. Mais la grande avancée c’est le «rule box». Les États se sont accordés sur les règles techniques communes d'application de l’accord de Paris. Il y a désormais une méthode pour mesurer, vérifier, et rapporter les progrès accomplis par les politiques de réduction de gaz à effet de serre. La mesure des émissions se fera selon des techniques communes (capteurs, exploitation des statistiques nationales, évaluation des puits de carbone comme les forêts). Chaque État sera donc informé des objectifs que s'assignent les autres pays et des progrès accomplis par les politiques domestiques. D'ici à 2020, les États doivent mettre à jour leur contribution déterminée au niveau national (NDC) qui sera révisée tous les cinq ans. À partir de ce cadre, un premier inventaire mondial des émissions de gaz à effet de serre sera établi en 2023. L'exercice sera également répété tous les cinq ans.
Voilà pour la forme. Quant au fond, à savoir la réduction effective des émissions des gaz à effet de serre, on en est toujours aux «annonces» des NDC par chaque pays depuis l’accord de Paris en 2015. Pendant la COP 24, une trentaine de pays dont la France ont néanmoins revu à la hausse leur objectif de réduction des gaz à effet de serre d’ici à 2020 qui permettrait de gagner 0,3°C, très loin encore de ce qu’il faudrait faire.
Pour forcer le mouvement, le Secrétaire Général des Nations Unies, Antonio Guterres, a invité tous les pays le 23 septembre au siège de l’ONU à New York pour une révision à la hausse des NDC pour la prochaine décennie.
Côté finances, les nouvelles sont meilleures : les 100 milliards de dollars d’aides aux pays en voie de développement devraient être atteints en 2020 comme le demandait l’accord de Paris..
Les indices climatiques 2018
La température (fig 2)
En 2018 la température globale moyenne fut de 0,83°C supérieure à la moyenne 1951-1980. Sur la même période les années les plus chaudes furent les 4 dernières, dans l’ordre croissant : 2018, 2015 , 2017 et 2016. On reste donc toujours sur une courbe croissante 31 ans après le protocole de Kyoto et 24 COP’s.
Figure 2 : Estimation de la température globale moyenne basée sur des données Terre et Océan
La figure 3 montre les anomalies de température globale par rapport à la moyenne 1950-1981. La situation est qualitativement analogue à celle de 2017. Aux hautes latitudes les anomalies atteignent par endroit 4°C.
Figure 3 : Anomalie de Température globale moyenne - Année 2018 par rapport à la moyenne 1950-1981
L’évolution historique des températures depuis 1880 est aussi bien illustrée par l’évolution des cycles saisonniers qui montre l’accroissement en toute saison de la température. L’année 2018 est jalonnée par les points noirs (fig 4).
Figure 4 : Cycle saisonnier depuis 1880
El Niño
La figure 5 représente l’évolution des indices Niño/Niña depuis 1950 établis sur les anomalies de température de la zone 3.4 du Pacifique équatorial (figure 5 bis).
Figure 5 : Évolution des indices Niño/Niña depuis 1950
Figure 5 bis
Les anomalies positives supérieures à 0,5°C (en jaune) sont des périodes Niño et les anomalies négatives supérieures à 0,5 sont des périodes Niña. L’année 2018 fut une année neutre, ni Niño ni Niña. Les épisodes Niño 1998 et 2016 qui ont beaucoup fait parler d’eux avec des anomalies de 3°C sont bien apparents. La prévision de l’apparition d’un phénomène El Niño important comme celui de 2016 n’a pas encore été réussie. Néanmoins la NOAA publie tous les deux mois un bulletin «El Niño /Southern Oscillation(ENSO) ; Diagnostic discussion». Le synopsis du dernier bulletin du 14 février 2019 annonce que les conditions d’un faible El Niño sont présentes actuellement (fevrier 2019) et devraient se maintenir jusqu’au printemps 2019 (55% de chance).
Le contenu thermique océanique.
L’océan récupère 90% du surplus de chaleur du à l’accroissement de l’effet de serre. Cela se traduit évidemment par des augmentations de température océaniques qui diminuent l’extension et l’épaisseur des banquises arctiques et antarctiques. Une étude parue le 16 janvier 2019 dans Advances in Atmospheric Science fait le point sur le contenu thermique des 2000 premiers mètres de l’ocean. Elle montre que par rapport à la moyenne 1981-2010, l’année 2018 présente l’anomalie de contenu thermique la plus élevée (19,7x1022 joules) depuis l’Année Géophysique Internationale (1957/58) (fig 6) .
Figure 6 : Contenu thermique de l'océan des 2000 premiers mètres de l'océan
Ce niveau d’énergie thermique fait de 2018 l’année océanique la plus chaude jamais enregistrée. Les cinq dernières années sont les cinq années les plus chaudes. Cela confirme que le réchauffement de l’océan se poursuit et même qu’il s’accélère depuis 1990 par comparaison à la période antérieure 1960-80.
Le niveau de la mer
Le niveau moyen de la mer monte toujours à une vitesse moyenne de 3,2 mm/an depuis 1993, date, depuis laquelle avec le satellite altimétrique Topex/Poseidon et ses successeurs Jason 1, 2, 3, on a des mesures en continu. Le niveau de la mer s’est élevé de 90 mm depuis 1993 (fig 7 ).
Figure 7 : Élévation du niveau de la mer
Si la tendance globale est à l'élévation du niveau moyen des océans, il existe des différences régionales marquées, avec même des valeurs négatives (en gris bleu sur la figure 8) variant entre -10 et +10 mm/an. Ces variations ne sont pas stationnaires, mais fluctuent à la fois dans l'espace et le temps. En conséquence, les tendances régionales du niveau moyen des mers observées par altimétrie satellitaire reflètent des tendances temporaires (fig 8).
Figure 8 : Variation géographique de la variation de la vitesse d'élévation du niveau de la mer
La banquise Arctique
La banquise arctique a atteint son extension maximum le 17 mars 2018 avec 14,4 millions de Km2 (fig 9).
Figure 9 : Maximum d'extension de la banquise le 17 mars 2018
C’est la deuxième extension la plus basse depuis 39 ans (fig 10), juste derrière 2017. Ce maximum se situe 1,20 millions de km2 au-dessous de la moyenne des maximums de 1981 à 2010 qui est de 15,64 millions de km2.
Figure 10 : Moyenne mensuelle de l'extension de la glace arctique
Le minimum d’extension fut atteint le 23 septembre (fig 11) avec 4,6 millions de km2.
Figure 11 : Extension de la glace arctique le 23 septembre 2018
C’est le sixième minimum le plus bas à quasi égalité avec 2008 et 2010 (fig 12). C’est une diminution de 10,4% par décennie.
Figure 12 : Moyenne annuelle de l'extension de la glace arctique de septembre 1979 à 2018
L’extension de la glace est un indicateur important de l’évolution du climat, mais l’âge de la glace (depuis l’année où elle s’est formée) qui est corrélée à son épaisseur et donc à sa masse, est sans doute plus significative : moins il y a de glace, plus rapidement elle fond. Sur la fig 13, on voit de 1985 à 2018 l’évolution de la banquise en été avec les âges de la glace qui la constitue .
Figure 13 : Évolution de la banquise de fin d'été depuis 1985
Les glaces de plus de deux ans ont pratiquement disparu. Entre mars 1984 et mars 2018 donc en hiver (fig 14), sur l’ensemble du domaine arctique (fig 14 d), la couverture par la glace pluriannuelle est passée de 61% en 1984 à 34% en 2018. Le rouge (5 ans) et le jaune (4 ans) sont devenus quasiment invisibles en mars 2018.
Figure 14 : Répartition de l'âge de la glace entre la semaine 9 de 1984 et celle de 2018
L’Antarctique
La banquise antarctique a atteint son minimum fin février 2018 (fig 15) avec une surface de 2,3 millions km2, soit 25,4% sous la moyenne 1981-2010.
Figure 15 : Concentration de glace de mer le 28 février 2018
Ce fut la deuxième plus faible extension de la banquise sud après 2017 (fig 16).
Figure 16 : Extension de la glace de mer de l'hémisphère sud. Anomalies de février, 1979 à 2018
L’extension maximum fut atteinte autour du 10 septembre (3,3 % sous la moyenne 1981-2010 (fig 17).
Figure 17 : Extention de la glace de mer, antarctique, le 10 septembre 2018
Ce fut aussi la deuxième plus faible extension de septembre dans l’hémisphère sud (fig 18).
Figure 18 : Extension de la glace de mer dans l'Hémisphère Sud. Anomalies de septembre, 1979 à 2018
Curieusement c’est en septembre 1986 que l’on observa la plus faible extension sur la période considérée. On avait noté dans le bilan 2017 que, contrairement à ce à quoi on pouvait s’attendre, la banquise sud avait eu une tendance à croître dans l’hémisphère austral. En raison de l’accroissement des vents d’ouest autour du continent antarctique, qui augmentant via le transport d’Ekman, le transport vers le nord de la glace et les eaux froides de surface depuis le continent antarctique favorisait la formation de glace. Cette légère augmentation de la banquise en hiver prit fin en 2014, et depuis 2015 l’extension hivernale reprit une diminution croissante ce qui, variabilité climatique oblige, n’exclut pas, comme pour les autres paramètres, des inversions temporaires de tendance.
Les Glaciers continentaux
Les glaciers continentaux sont des indicateurs du changement climatique. Leur fusion a un impact non négligeable sur l’augmentation du niveau de la mer : actuellement elle représente 20% du total annuel. Le World Glacier Monitoring Service (WGMS) de Zurich surveille l’évolution de ces glaciers en s’appuyant sur les observations de 40 glaciers de référence à travers le monde. L’unité choisie pour exprimer la masse fondue est la hauteur d’eau équivalente exprimée en mètres. En 2018 la fusion a correspondu à 0,72 mètre ( fig 19).
Figure 19 : Changement global annuel de masse des glaciers de référence depuis 1950 en hauteur d’eau équivalente.
L’année record fut 2015 avec la fusion d’une masse de glace équivalente à 1,1 mètre d’eau. Depuis 1988, chaque année il y eut perte de masse et depuis 1950 c’est l’équivalent de 27 mètres d’eau qui ont disparu (fig 20).
Figure 20 : Changement cumulatif global de masse des glaciers de référence en hauteur d’eau équivalente depuis 1950 par rapport à 1976
Le gaz carbonique
Les émissions de gaz carbonique.
Comme en 2009 avec la crise économique de 2008, les émissions de CO2 avaient légèrement diminué en 2016, ce qui avait donné de l’espoir. Diminution sans lendemain : les émissions ont repris leur croissance modérée. On prévoit 37,1 Gt de CO2 en 2018 contre 36,8 en 2017 (fig 21).
Figure 21 : Évolution des émissions de gar carbonique depuis 1990
Le gaz carbonique dans l’atmosphère.
La teneur en CO2 de l’atmosphère ne faiblit pas non plus et poursuit avec constance sa croissance. Sa concentration était de 410,83 ppm en janvier 2019 telle que mesurée à l’observatoire de Mauna Loa depuis l’année géophysique internationale de 1957 (fig 22).
Figure 22 : Teneur en gaz carbonique de l'atmosphère mesurée à l'Observatoire de Mauna Loa
Elle varie au rythme du cycle biologique saisonnier de l’hémisphère nord dont la biosphère, beaucoup plus importante que celle de l'hémisphère sud pèse plus lourd sur les variations saisonnières (fig 23). En janvier 2018, la teneur était de 408 ppm.
Figure 23 : Moyenne mensuelle de la concentration de l'atmosphère en CO2 mesurée à l'observatoire de Mauna Loa
Conclusion.
L’année 2018 fut une année normale dans le contexte d’une évolution climatique que l’émission continue des gaz à effet de serre entretient…
À l’année prochaine.
2/2 Participation du Club des Argonautes au "Grand Débat"
Le Club des Argonautes
Dans le cadre du Grand Débat, le Club des Argonautes a souhaité attirer l'attention sur l'importance du temps long dans les décisions et les actions à entreprendre en faveur de l'environnement et du climat. Il a déposé une contribution sur le site du Grand Débat, qui a été également adressée au Ministre d'Etat de la Transition Ecologique et Solidaire et à la Ministre de l'Enseignement Supérieur, de la Recherche et de l'Innovation.
Climat : de l’urgence et de la nécessité de pérenniser les observations scientifiques et les décisions politiques Une contribution du Club des Argonautes au Grand Débat – mars 2019
[Depuis avril 2003, le Club des Argonautes rassemble d'anciens chercheurs et ingénieurs ayant fait leur carrière dans des organismes comme l’Institut de Recherche pour le Développement (IRD), l’Institut Français de Recherche pour l’Exploitation de la Mer (IFREMER), Météo France, le Centre National d’Études Spatiales (CNES), le Centre National de la Recherche Scientifique (CNRS), et le Muséum National d’Histoire Naturelle. La complémentarité des parcours de ses membres permet au Club de couvrir le champ scientifique "Océan, Climat, Énergie", ainsi que les relations sur chacun des côtés de ce domaine triangulaire. Qui sommes-nous ?]
Dans le cadre du Grand Débat de nombreux citoyens manifestent des préoccupations aussi diverses que nombreuses. Un certain nombre concerne l’urgence climatique, autrement dit la recherche de solutions suivies d’actions concrètes, y compris réglementaires, visant à réduire sans délai la production de gaz à effet de serre, à stocker le carbone émis en excès pour limiter le réchauffement planétaire et à protéger la qualité et la diversité de nos ressources environnementales. D’autres préoccupations concernent encore la résilience et l’adaptation de la société aux impacts de ces changements climatiques et environnementaux.
Le Club des Argonautes s’associe à ces démarches qui constituent une grande partie de sa raison d’être. Il souhaite toutefois insister sur le fait que toute action dans ce sens – tout particulièrement si elle se traduit par des décisions politiques aux échelons locaux et régionaux, comme nationaux ou européens – ne peut s’inscrire que dans le temps long pour avoir une quelconque efficacité. On parle ici d’actions dont la vocation est de se pérenniser quoiqu’il arrive. Or de telles décisions sont aujourd’hui peu compatibles, soit avec des mécanismes sociétaux qui donnent la priorité au temps très court, soit avec un calendrier politique dont les échéances sont au mieux de quelques années.
Les scientifiques se basent sur des observations multidécennales de paramètres climatiques et environnementaux, voire centennales ou millénaires lorsqu’il s’agit de l’analyse des glaciers ou des calottes profondes, pour quantifier les changements actuels. Soucieuses de cette nécessité, les institutions nationales françaises ont mis en place, à côté d’une dynamique d’action par projets dans un calendrier contraint qui constitue le cadre habituel de financement de la recherche en France et en Europe, des systèmes nationaux d’observation qui disposent de moyens propres et qui doivent être garantis dans la durée. Ce n’est malheureusement pas toujours le cas dans les pays moins riches où la maintenance de dispositifs de long terme rencontre des difficultés.
Il s’agit donc de réfléchir et de proposer de nouveaux outils permettant de garantir la continuité des décisions mises en oeuvre en faveur du climat, indépendamment d’une alternance politique et sociétale dont la fréquence est trop rapide pour être climatiquement efficace. C’est notre responsabilité à tous.
Février 2019
Yves Dandonneau
1/1 Walter Munk, précurseur de l'océanographie moderne, est décédé le 8 février 2019 à l'âge de 101 ans.
Les débuts de Walter Munk
Né en 1917 à Vienne (Autriche-Hongrie), Walter Munk est envoyé en pension à l'age de 15 ans dans une école de l'État de New York. Il décroche une licence en physique au "California Institute of Technology" en 1939, à l'age de 22 ans. Quelques années plus tard, jeune chercheur en océanographie, il apprend que les Alliés se préparent à débarquer en Afrique du Nord. Il s’inquiète des risques liés aux états de mer et aux conditions défavorables à un accostage... Après diverses peripéties, la perséverance est récompensée : ses connaissances sur les vagues et les marées sont prises en considération lors de la préparation du débarquement en Normandie ! Une légende nait : un chercheur a participé au choix de la date du 6 juin 1944 !
Quel prélude à la fantastique carrière de Walter Munk !
Une carrière qui couvre autant les aspects théoriques que les applications pratiques, et dans laquelle la qualité des résultats scientifiques le dispute à... leur diversité ! De la propagation du son dans l'océan en vue d'estimer son réchauffement, jusqu'à la prédiction des vagues géantes qu'affectionnent les champions de surf, sans oublier la dissipation de l'énergie des marées et son effet sur la rotation diurne : l'allongement de la durée du jour !
Plusieurs parmi les Argonautes ont eu l'occasion de le rencontrer lors de congrès ou de de réunions de travail. Lors des réunions mensuelles du Club, nous avions très souvent l'occasion de nous rappeler ses résultats et sa personnalité. C'étaient à chaque fois de bons souvenirs, car son enthousiasme communicatif, son élégance, son inventivité, faisaient l'unanimité.
C'est généralement lorsque nous discutions de l'apport de l'altimétrie satellitaire à la connaissance de la circulation océanique à la fin des années soixante dix, un de nos thèmes favoris, que nous évoquions sa contribution aux remarquables progrès des connaissances dans ce domaine : une des difficultés en effet était d'estimer la dissipation de l'énergie des marées, ce que menèrent finalement à bien ses collègues Carl Wunsch et Christian Le Provost. Océanographe, et aussi astronome, Walter Munk s'est lui aussi beaucoup impliqué dans cette recherche. Il avait dès 1966 compris le lien entre celle ci et l'éloignement de la Lune, et le ralentissement de sa rotation et de celle de la Terre, termes que les astrophysiciens connaissent avec une grande précision. Ses travaux sur la propagation et la dissipation des ondes océaniques contribuèrent très significativement à cette réussite. Le contraste entre la voie élégante de l'astrophysique et la difficulté de l'approche par observations et modèles illustre bien l'étendue de ses compétences.
Étant donné son domaine de recherches - la production primaire marine et le cycle du carbone – l'un de nous aurait pu ne jamais rencontrer Walter Munk ; Il a cependant eu cette chance en 1988, au cours d'une réunion qui avait pour thème les interactions physique- biologie dans l'océan. Dans son discours d'ouverture, Walter Munk avait opposé de manière provocatrice le suréchantillonnage à l'intelligence. Il y avait abondance d'exemples qui mettaient en évidence les connaissances récentes permises par les appareils capables d'enregistrer en continu les propriétés de l'océan, ou de l'observer dans sa globalité depuis l'espace. Et dans bien des cas, les séries d'observations ainsi acquises révélaient des pans entiers de connaissances nouvelles, ignorées jusqu'alors par les constructions intelligentes qui guidaient les progrès de l'océanographie. Alors, inutile, l'intelligence ? À l'écouter, c'est bien le contraire qu'on ressentait.
On parlait alors beaucoup de tomographie acoustique : sachant que la vitesse de propagation du son dans l'eau dépend de la température, il s'agissait de disposer dans l'océan en divers endroits et diverses profondeurs des sources sonores et des microphones, afin de déduire la structure thermique de l'océan à partir des durées de propagation du son et de calculs compliqués. C'était complexe, et difficile à mettre en œuvre, et tout ceci pour un résultat éphémère puisque l'océan change en permanence. Quel contraste avec l'étonnant projet imaginé par Walter Munk : avec une seule source sonore, placée près de Heard Island dans l'Océan Antarctique, d'où le son peut se propager librement vers les trois grands océans Atlantique, Indien et Pacifique, et avec des microphones disposés au nord de ces océans, il s'agissait rien de moins que d'estimer le volume de la couche d'eau chaude océanique. L'immensité de la zone couverte permettait de s'affranchir de la variabilité à moyenne échelle de la circulation océanique. En répétant l'expérience, il était possible d'estimer la vitesse du réchauffement climatique en cours. Bien sûr, il fallait une forte émission sonore, une énorme explosion. Et la faune locale en aurait pâti. Le projet ne se fit donc pas. Mais quelle belle idée.
Walter Munk s'est intéressé à beaucoup d'aspects de l'océanographie. On peut citer son travail sur les vagues de surface qui est à la base de la scatterometrie, qui permet d'estimer par satellite la vitesse du vent.
Début juin 1944, il fut celui qui indiqua au général Eisenhower que l'état de la mer le 6 juin offrirait des conditions acceptables pour le débarquement ! Encouragé par son épouse Judith dont l'activité était centrée sur l'art, il étudia les marées et leur effet sur Venise.
Brillant et communicatif dans ses activités scientifiques nombreuses et variées, il n'apparaissait cependant pas comme un bourreau de travail, et ces qualités se prolongeaient dans sa vie privée. Ceux qui ont connu son épouse se souviennent à quel point il était dévoué pour l'aider dans son handicap, sans jamais se départir de sa bonne humeur : un prince de la renaissance disait-on parfois de lui.
Archive News "océan, climat, énergie" de 2004 à 2019
Le Club des Argonautes a créé cette rubrique "News" en 2004, à une époque où le changement climatique ne faisait pas la Une des journaux. Conscients de la menace, il nous était apparu nécessaire d'informer un large public sur le constat : augmentation de la température moyenne de la planète, montée du niveau des océans, fonte des glaces..., d'expliquer les conséquences du comportement humain et de montrer le rôle que jouaient les scientifiques en matière de recherche, compréhension des phénomènes et surveillance de la planète. Le travail accompli a été considérable. Depuis un certain temps déjà, les informations et articles grand public ne manquent pas sur le sujet et il nous est apparu inutile de publier des redites sur notre site. En revanche, nous continuerons à relater les évolutions scientifiques et techniques dans notre rubrique Foires aux questions et notre page blog.
Le 10 juin dernier, nous avons appris avec émotion que Michel nous avait quittés. Il a été l'un des pionniers du Club des Argonautes qu'il a rejoint dès sa deuxième séance, en mai 2003.
Après de longues années de travail car les premiers crédits pour lancer les travaux sont datés de 2006, la centrale hydro-éolienne de l'île d'El Hierro aux Canaries qui alimente ses 8 000 résidents permanents a été inaugurée le 27 juin 2014.
Un correspondant du Club des Argonautes aux USA nous confirme qu’unaccord de coopération a été conclu entre l’État, l’ITRI de Taiwan et Lockheed Martin Co. pour l’étude d’une usine pilote ETM de 10 MW. L’annonce été faite par le Gouverneur de l'État d'Hawaii, Linda Lingle le 18 novembre dernier.
ETM, après la prise de conscience une action résolue ?
Cela fait plus de quatre ans que Le Club des Argonautes fait la promotion de l'Énergie Thermique des Mers qu'il a souvent qualifié "d'énergie ignorée". Depuis les déclarations du Président de la République et du Ministre de l'Outre mer, on ne peut plus tenir ce langage.
50 ans après Spoutnik et l'Année Géophysique Internationale... le "Grenelle de l'Environnement" peut contribuer à rappeler certaines évidences !
Le Club des Argonautes a lu avec intérêt les propositions issues du rapport du Groupe de Travail : "Lutter contre les changements climatiques et maîtriser l'énergie"....
Voici l'une des réponses au questionnaire de l'Institut Français de la Mer (question 12) transmise par l'un des 12 candidats a l'élection présidentielle...
Mise en service de la première installation de climatisation par l'eau de mer profonde dans un hôtel de la Polynésie Française
Depuis le 1er mai 2006, l'Hôtel Intercontinental de Bora Bora a remplacé son système traditionnel de climatisation par un système basé sur l'utilisation de l'eau de mer profonde.
Première estimation de l'impact qu'aurait l'ETM sur la structure thermique de l'océan
Un universitaire américain de l’Hawaii Natural Energy Institute, Gerard.Nihous, vient de publier, les résultats d’une modélisation simplifiée d'une exploitation intensive de la ressource ETM (Énergie Thermique des Mers).
Dans son numéro spécial 196 de Janvier 2006, sur les "9 rêves pour changer le monde", le magazine Science et Vie Junior consacre deux pages aux travaux de John Craven au Natural Energy Laboratory of Hawaï Authority : le NELHA dont il fut l'un des promoteurs.
L’Énergie Thermique des Mers, UN OUTIL DE BATAILLE DIPLOMATIQUE ?
Okinotori est le nom de deux minuscules îlots coralliens de quelques mètres carrés qui émergent au milieu de nulle part dans l’océan à 1500 km au sud du Japon...
Énergie renouvelable : la piste des vagues / Ocean power fights current thinking :
Un travail conduit par l'Electric Power Research Institute (EPRI) avec la collaboration, entre autres, du National Renewable Energy Laboratory (NREL) du Department of Energy (DOE), suggère que la production d'électricité à partir des vagues et des courants marins aux États-Unis pourrait être économiquement rentable dans un futur proche, de l'ordre de quatre ans, à condition que les investissements suivent...
Participation du Club des Argonautes au "Grand Débat"
Dans le cadre du Grand Débat, le Club des Argonautes a souhaité attirer l'attention sur l'importance du temps long dans les décisions et les actions à entreprendre en faveur de l'environnement et du climat. Il a déposé une contribution sur le site du Grand Débat, qui a été également adressée au Ministre d'Etat de la Transition Ecologique et Solidaire et à la Ministre de l'Enseignement Supérieur, de la Recherche et de l'Innovation.
Comme chaque année depuis 2013, le Club des Argonautes présente un bilan de l'évolution climatique. L'évolution des indices climatiques est passé en revue tels que : température, contenu thermique de l'océan, niveau de la mer, banquises, glaciers et teneur en gaz carbonique de l'atmosphère.
Le 22 août 2018, à 18h20 heure locale (21h20 UTC), une fusée Vega décolle de la base guyanaise de Kourou avec à son bord le satellite Aeolus muni d'un lidar, le premier instrument spatial capable d'observer des profils verticaux de vent dans l'atmosphère. Le satellite Aeolus (appelé aussi ADM-Aeolus ; Atmospheric Dynamics Mission - Aeolus) représente une masse de 1360 kg placée sur une orbite héliosynchrone à 320 km d'altitude. Il est équipé d'un seul instrument actif : le lidar-vent Aladin (Atmospheric Laser Doppler Instrument) mesurant le vent par effet Doppler. Il s'agit d'une mission expérimentale pilotée par l'Agence Spatiale Européenne (ESA) dans sa série dite «Earth Explorers». Les données doivent être mises à disposition de la communauté scientifique d'ici quelques mois, et la durée de vie de la mission est estimée à 3 ans (2018-2021). Si elle est couronnée de succès, elle prouvera la viabilité de ce concept de «lidar-vent spatial» et ouvrira la voie à des missions pleinement opérationnelles basées sur le même concept.
Mise en orbite des deux satellites GRACE-Follow On
Le 22 mai 2018, depuis la base de Vandenberg en Californie, deux nouveaux satellites scientifiques GRACE FO ainsi que cinq nouveaux éléments de la constellation Iridium Next ont été mis en orbite par la fusée réutilisable Falcon 9 de la société SpaceX. Ces 2 satellites jumeaux de la mission GRACE-Follow On, sont le fruit d'une collaboration entre la NASA et le Centre de recherche allemand pour les géosciences (GFZ). Ils continueront à surveiller les changements dans le cycle de l'eau et la masse à la surface du globe, comme cela a été si bien réalisé par la première mission GRACE, ("Gravity Recovery And Climate Experiment"), mise en orbite en mars 2002, qui a fonctionné jusqu’en octobre 2017, une performance et une chance inouïe pour ce type de mission.
Selon la NASA et la NOAA qui ont présenté le 18 janvier 2018 le bilan climatique, 2017 fait partie des 3 (vraisemblablement 2) années les plus chaudes depuis 1880 avec une augmentation de 0.9°C par rapport à la moyenne 1951-1980 contre 0.99 pour 2016. À ce rythme là, où en seront nous en 2100 avec l’accroissement visé par le traité de Paris de 1.5°C par rapport à l’ère préindustrielle ? Depuis le protocole de Kyoto en 1997 il y 30 ans, la température a augmenté de 0.5°C et elle ne cesse de croître. Tout se passe comme si les trains politique et scientifique circulaient sur des voies divergentes en dépit du synchronisateur que le Giec devrait être pour les faire converger. Bruno Voituriez
Automne 2017 : plusieurs nouveaux satellites pour la météo et le climat
Sentinel-5P et la chimie atmosphérique. Le 13 octobre 2017, le satellite européen Sentinel-5P (de l'ESA) a été lancé avec succès depuis la base de Plesetsk, dans le nord de la Russie. La mission principale des satellites Sentinel-5 (dont Sentinel-5P est le précurseur) concerne la chimie atmosphérique : mesurer la concentration de nombreux gaz atmosphériques et des aérosols, en appui des applications de surveillance de la qualité de l'air et de l'évolution du climat. Pour prolonger Sentinel-5P dans les prochaines années, c'est le satellite METOP (Seconde Génération) qui embarquera les instruments de la mission Sentinel-5 (convergence des missions européennes METOP et Sentinel-5, opérées par EUMETSAT).
Des incendies ravageurs en Californie, en Espagne, au Portugal, avec de nombreuses victimes : cette première quinzaine d'octobre 2017 paraît exceptionnelle. Elle suit de peu une série mouvementée de cyclones dans l'Atlantique tropical, pour lesquels le rôle amplificateur du changement climatique a été évoqué. Pour les incendies, il semble naturel aussi de s'interroger sur son rôle possible.
Pour amener le climat à un état stable après la perturbation anthropique, il faudra retirer du gaz carbonique de l'atmosphère. Le coût en sera très élevé si nous ne réduisons pas rapidement nos émissions.
Dans un article récent paru dans la revue Earth Systems Dynamics sous le titre «Young people’s burden : requirement of negative CO2 emissions», qu'on peut traduire par «un fardeau pour les futures générations : le besoin d'émissions négatives de CO2», James Hansen et 14 autres auteurs se basent sur ce qu'on sait du climat pour évaluer les conséquences, au siècle prochain, des mesures que nous allons prendre pour limiter les émissions de gaz à effet de serre, et pour quantifier les émissions négatives de gaz carbonique auxquelles il faudra recourir pour stabiliser le climat dans un état qui nous soit favorable. Ce texte fait une analyse de cet article paru récemment.
Température moyenne globale : La nécessaire amélioration des bases de données vue par les climato-sceptiques comme une manipulation suspecte.
Commentaires à propos d'un article publié par Stefan Rahmstorf sur le site Real Climate : "La théorie du complot des données de la NASA et le soleil froid" et publié en français dans notre rubrique "FAQ".
L’année climatique 2016 - L’année la plus chaude de l’époque moderne. Niño, Nada, Niña
La news de février 2016, faisant le bilan de l’année climatique 2015, s’intitulait déjà «l’ année la plus chaude de l’ époque moderne». L'année 2016 a dépassé l'année 2015.
L’année climatique 2015 - L’année la plus chaude de l’époque moderne.
Au début de 2014 fut annoncé (on n’ose plus dire prédit) pour le second semestre de l’année un phénomène El Niño qui se déroba au grand dam des scientifiques qui, l’ayant annoncé, attendaient évidemment sa venue...
La 21ème Conférence des Parties à la Convention Cadre des Nations Unies sur les Changements Climatiques qui s’est tenue à Paris du 30 novembre au 12 décembre a débouché sur un accord que l’on peut qualifier d’historique...
Quoi de neuf sur la planète blanche ? Comprendre le déclin des glaces et ses conséquences de Bernard Francou & Christian Vincent. Recension de Bernard Pouyaud
Après «Les glaciers à l’épreuve du climat – 2007, IRD-Éditions» et leur participation à l’ouvrage collectif «Glaciers, forces et fragilités – 2007-Editions Glénat», Bernard Francou (directeur de recherche émérite de l’IRD au Laboratoire d’étude des transferts en hydrologie et dans l’environnement – LTHE) et Christian Vincent (ingénieur de recherche du CNRS au Laboratoire de glaciologie et de géophysique de l’environnement – LGGE) publient ce nouvel opus sur la «planète blanche».
Suite à la conférence de Rio, dite du sommet de la Terre, a été adoptée en 1992 la Convention Cadre des Nations Unies sur les Changements Climatiques (CCNUCC), qui est entrée en vigueur en mars 1994. Depuis se tient chaque année, pour le suivi de cette convention, une Conférence des parties appelée COP (Conference Of Parties). C’est la COP3 en 1997 qui aboutit au «Protocole de Kyoto» entré en vigueur en 2005 après avoir été ratifié par le nombre requis d’états (55 états).
La COP 21 Paris - décembre 2015. Le seuil de 2°C : un artifice ?
L’article 2 de la CCNUCC (Convention Cadre des Nations Unies sur le Climat) issue du sommet de Rio en 1992 précise : «L’objectif ultime de la présente Convention et de tous instruments juridiques connexes que la Conférence des Parties pourrait adopter est de stabiliser, conformément aux dispositions pertinentes de la Convention, les concentrations de gaz à effet de serre dans l’atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique».
L’année climatique 2014 - L’année la plus chaude de l’époque moderne
Sans doute est-il nécessaire de rappeler, comme nous le fîmes l’année dernière pour le climat 2013 (news de mars 2014) qu’une année ne fait pas le climat et que sa variabilité interannuelle peut masquer son évolution à long terme. Les chiffres publiés, et utilisés ici, pour l’année 2014 ne sont que des balises sur un chemin cahoteux et accidenté comme l’indication de l’altimètre de l’alpiniste qui cherchant à atteindre un sommet est parfois obligé de descendre...
Une paire gagnante : le satellite OCO-2 mesure la concentration en gaz carbonique de l’atmosphère et la fluorescence de la végétation
Les premières données du satellite Orbiting Carbon Observatory (OCO-2) viennent d’être analysées. Lancé avec succès le 2 juillet 2014, il avait comme objectif d’observer la concentration en gaz carbonique de l’atmosphère et sa variabilité
Année 2013, quel classement au palmarès des années les plus chaudes ?
Les années se suivent répétant chaque fois le même suspense : quel est le classement de l’année au palmarès des années les plus chaudes ? Même question d’ailleurs pour l’extension des banquises arctiques.
Un point sur les satellites disponibles pour la météorologie et l'océanographie
Ce texte fournit une mise à jour sur l'observation spatiale en matière d'océanographie et de météorologie. Il est destiné à rafraîchir l'information donnée au début 2013 sur le même sujet.
Livre "Incertitudes sur le climat" de Katia et Guy Laval. Recension par Michel Petit
Deux scientifiques de grand renom s’attachent dans cet ouvrage original à expliquer la démarche des chercheurs sur un sujet autour duquel les livres et les polémiques ne manquent pas.
Analyse critique par F.M. Bréon de l’ouvrage de F. Gervais "L'innocence du Carbone"
Chaque publication d'un rapport du GIEC voyait jusqu'ici fleurir quantité de brûlots climato-sceptiques misant sur leur concomitance avec ces rapports pour espérer atteindre des succès éditoriaux, autrement bien incertains.
La marche accidentée vers le réchauffement du climat
Les émissions de gaz carbonique continuent de croître, de telle sorte que la concentration de ce gaz vient de dépasser les 400 parties par million (ppm). Pourtant, depuis une dizaine d’années, la température moyenne globale reste parmi les plus élevées jamais observées, mais n’a pratiquement plus augmenté...
Année 2012 : de nouveaux satellites disponibles pour la météorologie et l'océanographie-Perspectives 2013 et au-delà.
Parmi les quelques milliers de satellites actifs qui sillonnent l'espace à ce jour, 150 satellites opérationnels scrutent notre planète, leur mission étant de livrer des données en temps réel concernant l'atmosphère, l'océan, les continents, le milieu vivant.....
L'année 2012 au palmarès des années les plus chaudes depuis 1880. Analyse des indices climatiques 2012
La NASA et la NOAA ont présenté le 15 janvier 2013 leur analyse respective des températures à la surface de la Terre en 2012 lors d’une téléconférence au cours de laquelle ils ont échangé et discuté leurs résultats. Leurs analyses convergent très largement, et au palmarès des années les plus chaudes depuis 1880, la NASA place 2012 en 9ème position et la NOAA en dixième seulement...
Jean Jouzel, premier lauréat français du prix Vetlesen
Les Argonautes se réjouissent que la Fondation américaine Vetlesen ait décidé d'attribuer à Jean Jouzel, en 2012, le prix qu'elle décerne tous les quatre ans à des chercheurs en sciences de la Terre et de l'univers,...
Réchauffement climatique : vers un El Niňo permanent et un retour au Pliocène ?
Une question importante agite actuellement les climatologues océanographes et atmosphériciens. Les oscillations climatiques naturelles impliquant l'océan telles que El Niňo dans le Pacifique, le NAO ou encore le AMO dans l'Atlantique, sont-elles indépendantes du réchauffement climatique anthropique à long terme ? Ou au contraire sont-elles affectées par ce réchauffement et rétro-agissent-elles avec lui ?
Dans un article publié dans la revue Nature d'août 2012, (volume 488, pages 70 à 72), des chercheurs américains dressent un bilan des émissions anthropiques de gaz carbonique et de leur accumulation dans l’atmosphère au cours des cinquante dernières années....
Stéphane Foucart (journaliste scientifique au journal Le Monde) et Sylvestre Huet (journaliste scientifique au journal Libération) viennent de recevoir le trophée Diderot-Curien de l’AMCSTI...
« Representative Concentration Scenarios » :La nouvelle approche du Giec.
Pour les rapports à venir du Giec, les « Representative Concentration Scenarios », en français, les « scénarios d’évolution représentative des concentrations » se substitueront à ceux du « Rapport spécial sur les scénarios d’émission », précédemment utilisés.
Automne 2011 : de nouveaux satellites dans l'espace
Pour les scientifiques de l'environnement, et surtout pour les météorologistes, le mois d'octobre 2011 a été particulièrement prometteur en nouvelles observations spatiales, avec la mise en orbite de plusieurs satellites:
le 12 octobre, lancement depuis l'Inde du satellite Megha-Tropiques, satellite météorologique destiné à la recherche atmosphérique ;
le 21 octobre, première mission depuis Kourou de la fusée russe Soyouz qui met en orbite les deux premiers satellites Galileo du système de navigation européen ;
le 28 octobre, lancement du satellite américain à orbite polaire NPP, précurseur de la nouvelle série de satellites météorologiques américains défilants NPOESS, depuis la base américaine de Vandenberg en Californie...
Nous avons appris avec une profonde tristesse que Jean Labrousse, membre du Club des Argonautes depuis sa création en 2003, nous a quittés ce samedi 9 juillet...
Le 4 mars, une fusée Taurus était censée mettre sur orbite le satellite Glory. Le cône de la fusée ne s’est pas détaché correctement et le satellite est perdu. C’est le deuxième échec du même type, le précédent concernait le satellite OCO destiné, lui à l’observation du cycle du carbone...
Voyage dans l’anthropocène, cette nouvelle ère dont nous sommes les héros. Claude Lorius et Laurent Carpentier
Ce livre est écrit par le glaciologue Claude Lorius, médaille d’or du CNRS et Laurent Carpentier, écrivain et spécialiste des questions environnementales, le « couple idéal » scientifique/journaliste qui cite dans cette catégorie Une mer sans poissons de Philippe Cury et Yves Miserey...
L’année 2010 : un excellent cru pour appréhender la complexité climatique.
L’année 2010 fut l’année la plus chaude sur Terre depuis 1880. A égalité ou légèrement au-dessus de ce que fut l’année la plus chaude, précédente 2005 (dans la marge d’incertitude)...
Le satellite Picard (125 kg), dédié au soleil, a été lancé avec succès le 15 juin 2010 à 16h42, par une fusée Dniepr depuis la base de Dombarovsky, près de la ville de Yasny en Russie...
Plainte de Claude Allègre : le point de vue d'Édouard Brézin.
Suite à une plainte déposée par Claude Allègre, le directeur de l'hebdomadaire Politis et sept personnalités du monde économique et scientifique dont un membre du Club des Argonautes, viennent d'être mis en examen pour "diffamation publique". Le délit : la publication en juin 2009 d'un article : «Claude Allègre, question d’éthique»...
À propos de l'appel des scientifiques du climat...
Une vive polémique s’est installée récemment autour des recherches sur le climat de la Terre et son évolution possible. Impliqué dans cette polémique, Claude Allègre revendique sa liberté de parole et n’est, dit-il, sous la tutelle de personne. Ainsi en est-il aussi des membres du Club des Argonautes qui tous, chercheurs et ingénieurs, ont travaillé et exercé des responsabilités dans les domaines d’étude de ce que nous appelons le «triangle océan, climat, énergie»...
Activité solaire et réchauffement climatique. Vers un nouveau cycle de Maunder ?
Depuis des siècles l'homme a observé que le soleil manifestait une activité périodique : sur des périodes successives de 11 ans, le nombre de taches à sa surface croît puis décroît.
Le Danemark sera hôte de la prochaine Conférence des Nations Unies sur le Changement Climatique qui se tiendra à Copenhague en décembre 2009. L’objectif de cette conférence est de décider les mesures à prendre au-delà du protocole de Kyoto en 2012.
Même si l’humanité réussit à maîtriser ses pollutions, en particulier ses émissions de Gaz à Effet de Serre (GES, très probables responsables d’un réchauffement climatique qui affectera les siècles à venir, la chaleur dissipée par la consommation des énergies non renouvelables, nécessaires au maintien d’un mode de vie de nos sociétés proche de l’actuel, conduira inexorablement à un réchauffement de la Terre de plusieurs degrés Celsius à l’échelle de seulement quelques siècles (10 °C dans 450 ans !).
À propos de la variabilité inter-annuelle, décennale, et multi séculaire du Climat. (Cette inconnue... du grand public !)
Le climat de notre planète comporte de nombreuses composantes périodiques ou quasi périodiques; nos sens permettent, (même si l'on "naît pas" climatologue !), de percevoir l'une d'entre elles : la régularité du retour des saisons nous fait prendre conscience de l'existence d'un "signal"... de période proche de 365 jours.
La réunion annuelle de la conférence des parties à la Convention de Rio sur le changement climatique qui s’est tenue durant la première quinzaine de décembre 2007 à Bali revêtait une importance particulière.
GEO: Sommet ministériel sur l’Observation de la Terre - Quatrième réunion en novembre 2007
La conférence de Bali l'a encore démontré début décembre: la question d'une "gouvernance globale" pour traiter de questions vitales pour l'avenir de l'espèce humaine, (comme par ex. la modification de la composition chimique de notre atmosphère...), demeure le sujet d'intenses débats et peut encore paraître une utopie lointaine !
50 ans après Spoutnik et l'Année Géophysique Internationale... le "Grenelle de l'Environnement" peut contribuer à rappeler certaines évidences !
Le Club des Argonautes a lu avec intérêt les propositions issues du rapport du Groupe de Travail : "Lutter contre les changements climatiques et maîtriser l'énergie". Les questions que soulève la démarche en cours sont nombreuses, et la liste de propositions qu'elle a produites... forcement incomplète.
Les sommets politiques internationaux et l’Observation de la Terre, du climat et de l’Océan
Depuis quelques années les grandes rencontres internationales au niveau des chefs d’États commencent enfin à prendre en compte la question de l’environnement et du climat, ainsi que la nécessité d’établir des systèmes permanents d’observation de la Terre pour suivre et prévoir l’évolution de notre environnement.
La vérité sur le changement climatique grâce aux rapports du Groupe intergouvernemental sur l’évolution du Climat (GIEC)
Le groupe intergouvernemental sur l’évolution du climat, plus connu dans le monde sous son nom anglais, Intergovernmental Panel on Climate Change (IPCC) est une création conjointe de l’Organisation Météorologique Mondiale (OMM) et du Programme des Nations Unies pour l’Environnement (PNUE). Il regroupe tous les états-membres de l’une ou l’autre des ces deux organisations.
Le premier satellite Européen de météorologie MetOp a été lance avec succès le 19 octobre
Après 4 tentatives infructueuses, (incidents, puis doutes, sur le lanceur Soyouz utilisé), la mise en orbite du premier satellite météorologique européen défilant, MetOp, a été lancé avec succès le 19 octobre, de Baïkonour, sur un lanceur Soyouz.
Bien que, depuis plusieurs millénaires, de hardis navigateurs aient parcouru sa surface à la recherche de terres nouvelles, l'océan est demeuré longtemps le plus mal connu des milieux naturels terrestres. Au cours des dernières décennies du XX ème siècle la préoccupation climatique a précipité son étude, ouvrant la voie à son observation opérationnelle et à la prévision du climat.
Ce 28 avril 2006, Calipso et Cloudsat ont rejoint la constellation de satellites A-TRAIN, véritable observatoire spatial du climat
Cette constellation, fruit d'une coopération franco américaine, comprend six satellites situés sur la même orbite, à quelques minutes d'intervalle : Aqua depuis 2002, Aura depuis juillet 2004, Parasol depuis décembre 2004, Cloudsat et Calipso ce mois-ci, et enfin OCO prévu en 2008, nous donneront des informations sur le cycle de l'eau, la température et l'humidité de l'atmosphère, la qualité de l'air, l'ozone, les nuages, les aérosols et le dioxyde de carbone (CO2).
Le 9 octobre dernier, une avarie du lanceur Rockot, a entraîné la perte du satellite d'observation de la Terre Cryosat.
Conscients de l'enjeu de la mission de ce satellite pour l'étude du changement climatique, les États membres de l’Agence Spatiale Européenne (ESA) ont décidé le 24 février dernier, la fabrication et le lancement d'un deuxième satellite, Cryosat-2. L'objectif de mise sur orbite est mars 2009.
Le 16 février 2005, le Protocole de Kyoto entrait en vigueur, sans les États Unis. Ce "premier pas", incomplet et insuffisant, était cependant fondamental : il a, en effet, favorisé la mise en place de plans climats dans différents pays, et surtout, il a permis d'envisager l'après Kyoto.
Claude Allègre a amplement démontré qu'il aime la science, aussi son "Dictionnaire amoureux de la science", paru dans une collection particulière des éditions PLON/FAYARD est-il bienvenu. Nous ne pouvions pas ne pas jeter un regard particulièrement intéressé sur les termes relevant de la science du climat.
Changement climatique : Les Académies des Sciences s’engagent.
Le sept juin 2005 les Académies des Sciences de 11 pays (Brésil, Canada, Chine, France, Allemagne, Inde, Italie, Japon, Russie, Royaume Uni, USA) ont signé une déclaration commune sur la réponse globale à apporter au changement climatique.
Un moyen de réduire le réchauffement de la planète : Capter et stocker le gaz carbonique
Sans oublier que l'énergie la moins polluante est celle que l'on ne consomme pas, que les énergies propres et renouvelables sont déjà en développement dans de nombreux pays, il est clair que ces mesures ne suffiront pas pour mener à bien la politique globale des pays développés, visant à diviser par un facteur 4 les émissions de gaz à effet de serre.
Le29 août dernier, l'ouragan Katrina, d'une force peu commune, a dévasté la Louisiane, et s'est propagé dans le Mississipi, l'Alabama et l'ouest de la Floride.
Si la prévision des ouragans s'est beaucoup affinée grâce aux observations par satellites, aux avions de reconnaissance, et aux modèles, il reste encore du chemin à parcourir (notamment pour établir un couplage entre les modèles des différents compartiments de la biosphère).
Charles David Keeling, un pionnier dans le domaine des gaz à effet de serre
Charles David Keeling nous a quittés ce 20 juin. Il fut le premier à quantifier l'accroissement lié à l'activité humaine, du gaz carbonique dans l'atmosphère.
Vaincre le changement climatique planétaire... un défi lancé par la Commission Européenne...
On trouve dans la récente communication "Vaincre le changement climatique planétaire" adressée par la Commission des Communautés Européennes au Parlement Européen (document COM 2005 35 final daté du 09.02.2005) les grandes lignes de la stratégie proposée par la Commission en matière de lutte contre le réchauffement climatique pour 2012 et jusqu'en 2050.
Réduction des émissions de gaz à effet de serre....
Beaucoup de commentaires dans les médias à l'occasion de l'entrée en vigueur du Protocole de Kyoto ce 16 février 2005. Trente pays dit "industrialisés" devront, entre 2008 et 2012, réduire de 5,2%, (en moyenne), leurs émissions de gaz à effet de serre par rapport à leurs émissions de 1990.
Walter Munk, précurseur de l'océanographie moderne, est décédé le 8 février 2019 à l'âge de 101 ans.
Plusieurs parmi les Argonautes ont eu l'occasion de le rencontrer lors de congrès ou de de réunions de travail, et lors de nos réunions du Club, nous avions très souvent l'occasion de nous rappeler ses résultats et sa personnalité.
LANCEMENT DE JASON-3 - Le point sur l'altimétrie au 18/01/2016. Jean Pailleux.
Le satellite altimétrique Jason-3 a été lancé avec succès le 17 janvier 2016 depuis la base américaine de Vandenberg en Californie. C'est le 3e satellite de la série Jason, sa mission principale est d'assurer la continuité de celle de Jason-2, toujours en fonctionnement.
Un océanographe physicien français à l’honneur - Jacques Merle, Yves Dandonneau, Bruno Voituriez
Claude Frankignoul a été honoré en 2015 de la «Sverdrup gold medal award» par le jury de l’American Meteorological Society (AMS). Il est le premier océanographe français à être distingué par une aussi haute instance internationale pour ses travaux et sa renommée scientifique.
Un point sur les satellites disponibles pour la météorologie et l'océanographie
Ce texte fournit une mise à jour sur l'observation spatiale en matière d'océanographie et de météorologie. Il est destiné à rafraîchir l'information donnée au début 2013 sur le même sujet.
1/1 Le prix Christian Le Provost Océanographe décerné en 2013 à Séverine Alvain pour ses travaux sur la détection de groupes de phytoplancton dans les données satellite de couleur de l’océan.
Lors de la conférence internationale «La Haute Mer avenir de l’Humanité» tenue au CESE (Conseil Economique, Social et Environnemental) le 11avril 2013 et organisée à l’initiative de «Tara Expéditions» a été lancé l’«Appel de Paris pour la Haute Mer» lu par Agnés b.
Année 2012 : de nouveaux satellites disponibles pour la météorologie et l'océanographie. Perspectives 2013 et au-delà.
Parmi les quelques milliers de satellites actifs qui sillonnent l'espace à ce jour, 150 satellites opérationnels scrutent notre planète, leur mission étant de livrer des données en temps réel concernant l'atmosphère, l'océan, les continents, le milieu vivant.....
L’océan planétaire. Michèle Fieux - Recension de Guy Jacques
« L’océan planétaire » est l’ouvrage en langue française de référence en océanographie physique qu’il fallait, au moment opportun et écrit par la personne adéquate. Pourquoi ?...
Pearn Niiler, océanographe américain, nous a quittés le 15 octobre 2010.
Nombre de scientifiques océanographes connaissent bien Pearn Niiler sans jamais l'avoir vu, grâce à sa contribution pionnière à la compréhension de la circulation océanique mondiale.
Que penser de l’article : "Déclin du phytoplancton global depuis un siècle" ? Guy Jacques
La presse a donné une certaine publicité à l’article de trois chercheurs de l’université Dalhousie d’Halifax (Canada), Global phytoplankton decline over the past century, paru dans la revue Nature, le 29 juillet 2010...
En bonne posture pour observer la Terre sur le long terme, pendant la tempête les travaux continuent...
Le satellite Cryosat-2 de l'ESA a été lancé avec succès le jeudi 8 avril 2010 par une fusée Dnepr depuis la base de Baïkonour au Kazakhstan. Ce satellite développé par EADS Astrium, consacré à l’étude des glaces comme son nom l’indique et d’un poids de 700 kg a été placé sur une orbite circulaire et quasi-polaire à 700 km d’altitude...
SMOS : "Soil Moisture and Ocean Salinity" - Humidité des sols et salinité des océans.
Le satellite SMOS a été lancé avec succès le 2 novembre 2009 depuis le cosmodrome russe de Plessetsk.
C’est une des missions spatiales d’observation de la Terre de l’Agence Spatiale Européenne qui s’inscrivent (comme GOCE) dans le cadre de son programme «Planète Vivante»...
Le Conseil d'Eumetsat ouvre la voie à la réalisation de Jason-3.
Le Club des Argonautes se réjouit de voir réunies les conditions permettant de "boucler le tour de table" relatif à Jason-3 d'ici 2010, ce qui devrait rendre possible un lancement 40 mois après...
Grenelle de la Mer : ne pas oublier l'océanographie opérationnelle !
L'océan est un acteur essentiel du fonctionnement de la biosphère terrestre constituée des couches superficielles de la Terre où la vie a pu s'épanouir. Sa dynamique est à prendre en compte dans le fonctionnement du système climatiquedont il contrôle les variations. Principal accumulateur d'énergie solaire, l'océan fournit à l'atmosphère 50 % de l'énergie qu'elle reçoit, et qui la met en mouvement...
GOCE : quarante après, le dernier rêve de Williamstown.
Comme son nom l’indique GOCE a pour objet principal de contribuer à l’étude de la circulation océanique quoique, au demeurant les applications de ce satellite soient en fait beaucoup plus nombreuses et concernent notamment l’étude de la Terre solide d’une manière générale à partir de la connaissance du champ de gravité...
Jason-2 enfin en orbite : il est urgent de lancer la construction de Jason-3 !
Depuis ce 20 juin, à 7h46 TU, l'un des vœux du Club des Argonautes est en voie de réalisation ! Disposer, pour nous et pour les générations futures, d'une série homogène sur 20 ans de mesures globales de haute précision de la hauteur dynamique de l'océan !
Nouvelles fraîches de l'Océanographie Opérationnelle.
La réunion de clôture du programme MERSEA , visant à doter l'Europe d'une capacité opérationnelle en "Météorologie de l'Océan", s'est tenue à l'Institut Océanographique du 28 au 30 avril dernier. Le type de gestion choisi pour ce programme d'une quinzaine de millions d'Euro sur 4 ans, qui regroupait quelques 27 instituts européens ou canadien, était "Integrated Program"...
Pendant trois ans (de 2007 à 2009), la planète Terre va faire l'objet de toutes les attentions, organismes internationaux, états, politiques, scientifiques s'allient pour mieux comprendre les équilibres du système Terre, Océan, Atmosphère et Héliosphère.
Le réseau de flotteurs autonomes ARGO a atteint son objectif de déployer 3 000 unités, le 1er novembre 2007.
Le réseau d’engins autonomes d’observation de l’océan, dénommé ARGO doit permettre de décrire en continu et en temps réel l’état physique de l’océan à travers trois paramètres essentiels, température, salinité et courant. Les flotteurs dérivent au gré du courant pendant 10 jours à leur profondeur d’équilibre hydrostatique (généralement 1 000 mètres) et plongent à 2000 m, avant de commencer à enregistrer lors de remontée des profils de température et de salinité jusqu'à la surface, où ils délivrent alors leurs données à un satellite collecteur...
GEO : Sommet ministériel sur l’Observation de la Terre - Quatrième réunion en novembre 2007.
La conférence de Bali l'a encore démontré début décembre: la question d'une "gouvernance globale" pour traiter de questions vitales pour l'avenir de l'espèce humaine, (comme par ex. la modification de la composition chimique de notre atmosphère...), demeure le sujet d'intenses débats et peut encore paraître une utopie lointaine !
50 ans après Spoutnik et l'Année Géophysique Internationale... le "Grenelle de l'Environnement" peut contribuer à rappeler certaines évidences !
Le Club des Argonautes a lu avec intérêt les propositions issues du rapport du Groupe de Travail : "Lutter contre les changements climatiques et maîtriser l'énergie". Les questions que soulève la démarche en cours sont nombreuses, et la liste de propositions qu'elle a produites... forcement incomplète. On peut noter par exemple que l'Énergie Thermique des Mers, source d'énergie non carbonée...
Euro-Argo : Vers une contribution pérenne de l’Europe au réseau global in-situ Argo
Avec les observations des satellites, les données des flotteurs Argo sont la principale source d'information pour les chercheurs s'intéressant au climat et à l'océan, ainsi que pour les centres d'analyse et de prévision océanique. La France est très active dans tous les aspects du programme Argo...
Une évolution notable du système de prévision océanique global de Mercator Océan.
Depuis octobre 2005, Mercator Océan dispose d'un système opérationnel de prévision océanique global (pour les initiés le PSY3V1). Ce modèle d'une résolution horizontale d'1/4° (26 x 26 km à l'équateur) et d'une résolution verticale de 46 niveaux, est guidé par les mesures des anomalies du niveau de la mer fournies par les satellites altimétriques (on dit qu'il les assimile), mais ne prend pas en compte les données de salinité et de température de surface.
Les sommets politiques internationaux et l’Observation de la Terre, du climat et de l’Océan.
Depuis quelques années les grandes rencontres internationales au niveau des chefs d’États commencent enfin à prendre en compte la question de l’environnement et du climat, ainsi que la nécessité d’établir des systèmes permanents d’observation de la Terre pour suivre et prévoir l’évolution de notre environnement.
Bien que, depuis plusieurs millénaires, de hardis navigateurs aient parcouru sa surface à la recherche de terres nouvelles, l'océan est demeuré longtemps le plus mal connu des milieux naturels terrestres. Au cours des dernières décennies du XXème siècle la préoccupation climatique a précipité son étude, ouvrant la voie à son observation opérationnelle et à la prévision du climat.
Pour les amoureux de la mer.... et de la planète...
Le N°6 de Nautilus... un dossier fort intéressant sur "La mer et le Climat"
C'était une sorte de principe : à Nautilus, on montre comme la mer est belle. Alors, pour aborder le climat, il était simple de montrer que la vie sur Terre serait invivable sans océan; que sans les courants marins, l'Europe n'aurait pas cette douceur; et que c'est encore grâce aux océans que les énormes rejets de C02 de notre civilisation industrielle n'ont pas encore davantage affecté notre planète.....
Circulation océanique et production littéraire... Nouvel ouvrage sur le Gulf Stream de Bruno Voituriez.
Il y a un peu plus d'un an, dans son livre : "Portrait du Gulf Stream, éloge des courants", Erik Orsenna nous invitait à une promenade autour du monde. Le promeneur curieux traquait toutes les bizarreries liées aux courants marins, se demandait si le Gulf Stream était un imposteur et apportait quelques éléments de réponses, donnant ainsi au lecteur l'envie d'en savoir plus...
Oui, le niveau moyen des mers augmente ! Pourquoi ? Comment ? ET OU ?
Du 6 au 9 juin, s'est tenu à l'Unesco, un "Workshop" sur les variations du niveau des mers, réunissant la fine fleur des Sciences de la Terre : océanographie, climat, géodésie, glaciologie...
La langue de glace de Drygalski est une énorme feuille de glace et de neige qui s'avance sur 80 km, dans la partie centrale de la mer de Ross. "C-16", un iceberg géant, (1000 km2), en a arraché l'extrémité, le 30 mars 2006, (image de droite), donnant ainsi naissance à un nouvel iceberg (celui en forme de carré). Cet "accident de circulation océanique" n'a pas échappé au radar imageur, "ASAR" du satellite Envisat (ESA) !
En dépit de l'arrêt fin 2005 de TOPEX-Poseidon , plus de 13 ans après son lancement, les océanographes et les climatologues disposent encore de 3 satellites munis d'un altimètre radar...
Le 9 octobre dernier, une avarie du lanceur Rockot, a entraîné la perte du satellite d'observation de la Terre Cryosat.
Conscients de l'enjeu de la mission de ce satellite pour l'étude du changement climatique, les États membres de l’Agence Spatiale Européenne (ESA) ont décidé le 24 février dernier, la fabrication et le lancement d'un deuxième satellite, Cryosat-2. L'objectif de mise sur orbite est mars 2009.
Le 29 août dernier, l'ouragan Katrina, d'une force peu commune, a dévasté la Louisiane, et s'est propagé dans le Mississipi, l'Alabama et l'ouest de la Floride...
"Des yeux dans le ciel" ou: Vingt millions de lieues au dessus des mers !
Quinze ans après le lancement des satellites d'observation géophysique ERS-1 et Topex/Poseidon, l'Agence Spatiale Européenne (ESA), et le Centre National d'Études Spatiales (CNES), organisent un Symposium sur ce thème. Cet évènement exceptionnel sera aussi soutenu par la NASA et d'autres partenaires impliqués dans la mise en place d'un service permanent d'observation de l'océan par altimétrie spatiale.
Notre Terre n'est pas en danger, (elle a survécu à plusieurs changements climatiques): c'est l'habitat de l'espèce humaine et ses conditions de vie qui sont en cause. Pour les préserver, nous devons apprendre à piloter ce vaisseau spatial qu'est la Terre, notre demeure. De simples passagers-consommateurs, devenons "Géonautes" avertis et actifs.
L'hommage que l'ANAE (Académie Nationale de l'Air et de l'Espace) rendait à Michel Lefebvre lors de son passage volontaire à l'Honorariat, a permis une double illustration : - La démarche Observer, Comprendre, Prévoir ... - Des allers et retours fréquents entre la théorie (comprendre) et la pratique (observer et prévoir) sont des facteurs clés du succès...
Les océanographes du Woods Hole Oceanographic Institution (WHOI) ont récemment franchi une étape importante dans le domaine des mesures océanographiques in-situ...
L'année 2004 s'est terminé par un séisme dans l'océan indien, d'une ampleur exceptionnelle, avec beaucoup de victimes et des conséquences catastrophiques pour les régions touchées..Aurait-on pu éviter ou minimiser les pertes humaines? Presque toute la presse traite de la question d'un système de surveillance et d'alerte. Les avis sont très partagés...
Le 22 août 2018, à 18h20 heure locale (21h20 UTC), une fusée Vega décolle de la base guyanaise de Kourou avec à son bord le satellite Aeolus muni d'un lidar, le premier instrument spatial capable d'observer des profils verticaux de vent dans l'atmosphère. Le satellite Aeolus (appelé aussi ADM-Aeolus ; Atmospheric Dynamics Mission - Aeolus) représente une masse de 1360 kg placée sur une orbite héliosynchrone à 320 km d'altitude. Il est équipé d'un seul instrument actif : le lidar-vent Aladin (Atmospheric Laser Doppler Instrument) mesurant le vent par effet Doppler. Il s'agit d'une mission expérimentale pilotée par l'Agence Spatiale Européenne (ESA) dans sa série dite «Earth Explorers». Les données doivent être mises à disposition de la communauté scientifique d'ici quelques mois, et la durée de vie de la mission est estimée à 3 ans (2018-2021). Si elle est couronnée de succès, elle prouvera la viabilité de ce concept de «lidar-vent spatial» et ouvrira la voie à des missions pleinement opérationnelles basées sur le même concept.
La lancement d'Aeolus est une étape majeure dans l'histoire de l'utilisation des lidars en météorologie. Testé ou utilisé en routine depuis la fin des années 70 pour mesurer diverses variables atmosphériques depuis le sol, ce type d'instrument a mis beaucoup plus de temps pour pouvoir être embarqué sur des satellites météorologiques. La mesure du vent au moyen d'un lidar spatial a déjà été étudiée de façon approfondie dans les années 80, en particulier aux USA et en France (CNES), mais les difficultés technologiques n'ont pas permis à ce moment de déboucher sur le développement d'aucun prototype. Un projet européen piloté par l'ESA (ADM ; Atmospheric Dynamics Mission), a vu alors le jour vers 1990, aboutissant à la définition du satellite et de son instrument. Il a été choisi en 1999 parmi les missions spatiales devant être menées à bien avec l'année 2007 comme date cible de lancement. Le lancement intervient donc avec 11 ans de retard et de travail visant à faire fonctionner correctement le lidar dans les conditions de l'espace.
Que mesure le lidar Aladin embarqué sur Aeolus ?
Pour mesurer les vents depuis l'espace, Aeolus va tester une technique lidar nouvelle mise au point par Airbus Defence and Space (précédemment «Astrium» ; «Matra Marconi Space (MMS)» encore plus précédemment). Il s'agit d'un laser de forte puissance qui va sonder les couches atmosphériques depuis une trentaine de kilomètres d'altitude jusqu'au sol. Il envoie des impulsions depuis le satellite à une longueur d'onde unique fixée à 355 nm (dans l'ultra-violet), selon un angle de visée s'écartant de 35° du nadir, dans un plan vertical perpendiculaire à sa trajectoire, sur la droite par rapport au mouvement du satellite. La principale mesure du lidar Aladin est donc un ensemble de valeurs du vent le long de cette ligne de visée inclinée à 35°, valeurs obtenues à partir des échos reçus en retour par l'instrument depuis les différentes couches de l'atmosphère et des décalages Doppler mesurés sur ces échos. Les cibles principales du laser sont essentiellement les molécules des principaux composants de l'air (azote, oxygène) en ciel clair. Toutefois sa forte résolution spectrale lui permet d'identifier aussi plusieurs types d'aérosols ainsi que le sommet des nuages.
Principe de la mesure du vent par la mission spatiale Aeolus. Crédit ESA.
Seule la composante du vent le long de la ligne de visée (LOS – Line Of Sight) est obtenue par cette technique. Elle est appelée «vent LOS» («LOS wind» en anglais). De plus, afin d'obtenir une bonne précision les signaux Doppler sont accumulés et moyennés sur une distance de l'ordre de 87 km (voir figure) le long de la trajectoire du satellite (ou plutôt de sa trace au sol selon la ligne de visée) afin de produire un profil de vent LOS. À cette échelle horizontale, le vent vertical est généralement négligeable devant le vent horizontal, ce qui permet d'extraire tous les 87 km environ des vents horizontaux selon la ligne de visée appelés «vent HLOS» (Horizontal Line Of Sight winds). Ce vent horizontal est le produit qui intéresse le plus les utilisateurs, en particulier ceux s'occupant de l'assimilation pour les modèles de prévision numérique du temps et pour les réanalyses climatiques.
Les spécifications de la mission Aeolus prévoient que la composante de vent ainsi mesurée sera obtenue avec une précision de 1 à 2 m/s (variable selon l'altitude considérée). La résolution verticale prévue varie de 250 m dans la couche limite de l'atmosphère jusqu'à 2 km dans la stratosphère au-delà de 20 km.
Les principales limitations de ce système d'observation sont les suivantes :
Une seule composante du vent observé, celle dans la direction perpendiculaire à la trajectoire du satellite Aeolus.
Peu de points d'observation du fait de la ligne de visée unique et de l'inter-distance de 87 km entre profils observés ; donc couverture globale en données de faible densité si on la compare aux autres instruments spatiaux sondant l'atmosphère en température et humidité.
Comme pour les sondeurs infrarouges satellitaires, le lidar Aladin ne pénètre pas les nuages, et donc les observations sont limitées aux parties de l'atmosphère en ciel clair ou situées au-dessus des nuages.
La vidéo de l'ESA, visible sur son site et ci-dessous, explique très bien à la fois le fonctionnement de l'instrument et l'intérêt de mesurer le vent sur toute la planète.
Mission Aeolus : l'aboutissement d'un très long processus
Le lidar a été utilisé en météorologie depuis un demi-siècle pour étudier à partir du sol la composition chimique de l'atmosphère, les aérosols, les nuages et le vent. Dans ce domaine, la communauté scientifique française s'est montrée très active : voir par exemple Mégie and Menzies (1980) pour la mesure des espèces chimiques, ou encore Souprayen et al. (1999) pour une technique de mesure du vent dite «détection directe». Cette dernière, traitant la diffusion Rayleigh des molécules d'air ainsi que la diffusion Mie des aérosols, est très proche dans son principe de la technique retenue pour la mission spatiale Aeolus. Elle a aussi permis en 1993 l'installation d'un lidar-vent à l'Observatoire de Haute-Provence (OHP), qui fonctionne régulièrement depuis 1995.
Vue aérienne de la station géophysique Gérard Mégie à l'Observatoire de Haute Provence. Crédit : CNRS/OHP
À partir des années 80, la plupart des campagnes de mesures en météorologie utilisent différents types de lidars, d'abord installés au sol, puis souvent aussi embarqués sur des avions de recherche. Dès le début du XXIe siècle, ils commencent à fonctionner régulièrement dans le contexte des réseaux de profileurs opérationnels en météorologie. En 2018, Météo-France opère en routine une dizaine de stations profileurs-lidars observant les aérosols (cendres volcaniques en particulier) ou le vent. Voir : Site Meteo France "Les lidars et sodars"
La technologie du lidar a mis beaucoup plus de temps à se développer de façon à être utilisée à bord d'un satellite, ce qui explique qu'il a fallu attendre 2018 pour voir le premier lidar-vent dans l'espace. Et c'est seulement au début du XXIe siècle que se concrétisent les premières missions spatiales telles que CALIPSO, un satellite NASA/CNES lancé en 2006 avec le lidar nuages-aérosols CALIOP à bord, associé à deux autres instruments. Voir : Site OSCAR "satellite Calipso"
Deux problèmes au moins contribuent à expliquer les difficultés techniques des missions spatiales embarquant des lidars par rapport aux instruments basés au sol :
Le lidar est un instrument actif gros consommateur d'énergie. Cela explique en particulier que la durée de vie estimée pour Aeolus soit de 3 ans, alors que par exemple le premier satellite Metop, lancé en 2006, voit fonctionner encore la plupart de ses instruments 12 ans plus tard.
Aladin est un type d'instrument très sensible au milieu dans lequel il se trouve plongé et à ses variations. Il est donc très difficile de s'assurer qu'il fonctionnera bien dans l'espace par des tests au sol simulant l'environnement spatial. Le transport d'Aeolus depuis l'Europe jusqu'à Kourou, avant son lancement, a dû être effectué en bateau plutôt qu'en avion, pour lui éviter les brusques variations de pression atmosphérique au moment du décollage et de l'atterrissage de l'avion.
Alors que les projets antérieurs étudiant les lidars-vent pour l'espace n'ont pas réussi à déboucher sur une mission spatiale, l'ESA lance vers 1990 un nouveau projet appelé ADM (Atmospheric Dynamics Mission). Le groupe consultatif du projet rassemble des spécialistes de la technologie lidar ainsi que des scientifiques utilisateurs potentiels des données de vent pour la météorologie et le climat, en particulier ceux qui assimilent les observations dans les modèles de prévision numérique (soit pour la prévision du temps au quotidien, soit pour effectuer des réanalyses climatiques). L'objectif du projet ADM est alors de faire converger les besoins des utilisateurs avec la conception d'une mission spatiale observant le vent à l'échelle globale. La décennie 90 est marquée par une évolution très rapide des recherches sur la technologie des lidars ainsi que sur les méthodes d'assimilation de données, et c'est dans ce contexte que se déroulent les études préliminaires ADM. Elles aboutissent en 1999 à la conception d'un instrument fonctionnant par détection directe dans l'ultra-violet (355 nm), qui est retenu par l'ESA pour constituer sa deuxième mission «Earth-Explorers» après GOCE. Voir : Site OSCAR "satellite GOCE" et Site OSCAR "Satellite ADM-Aeolus"
Cette mission spatiale (qu'on appelle désormais Aeolus ou ADM-Aeolus) est confiée à Airbus Defence and Space qui met au point l'instrument et le satellite dans son centre toulousain. Dès 2003 une maquette de l'instrument est réalisée qui produit des observations de vent correctes à partir du sol. Une description générale de la mission telle qu'elle est envisagée à cette époque est décrite dans Stoffelen et al. (2005). Mais dès que l'on met la maquette dans les conditions de l'espace, elle ne fonctionne plus. Il faudra plusieurs années de reconfigurations de l'environnement, de tests et de réajustements pour arriver à obtenir des données conformes aux spécifications attendues. Aeolus est enfin sur orbite en 2018, avec 11 ans de retard sur le plan initial. Il est maintenant le 5e satellite de la série ESA/Earth-Explorers alors qu'il était initialement en 2e position. Toutefois ces années de retard ont été mises à profit par les scientifiques à la fois pour perfectionner les spécifications de la mission, mieux préparer le traitement des données réelles et leur utilisation dans les modèles. Voir par exemple Dabas et al. (2008), Tan et al. (2007). Voir aussi la documentation scientifique complète (2018) sur le site de l'ESA
Comment les données Aeolus vont-elles être distribuées, évaluées et utilisées ?
Pour la plupart des observations satellitaires utilisables dans les modèles de prévision du temps, même nouvelles et purement expérimentales, un moyen très efficace de les évaluer consiste à les entrer dans une chaîne opérationnelle de prévision, et à d'abord les «assimiler en mode passif», c'est-à-dire à les soumettre à un monitoring qui les compare systématiquement à la meilleure estimation de l'état atmosphérique que l'on puisse obtenir sans utiliser les nouvelles données. Au bout d'une certaine période (quelques jours lorsqu'il s'agit d'un type d'observation déjà connu et utilisé ; quelques mois lorsqu'il s'agit d'un type de données nouveau), si le résultat du monitoring est jugé satisfaisant, il suffit de passer du «mode passif» au «mode actif» au niveau de l'assimilation pour que l'utilisation de l'observation devienne opérationnelle. Pour voir comment fonctionne le monitoring des diverses observations du vent de surface, voir la FAQ "Le vent à la surface de l'océan."
Pour Aeolus, c'est le CEPMMT (Reading, Royaume-Uni) qui va tenir le premier rôle de monitoring, grâce à son système de prévision global. À partir des données brutes fournies par l'ESA, il va effectuer en temps réel les traitements nécessaires pour produire les vents HLOS (une seule composante horizontale) qui seront introduits dans son assimilation globale, et aussi mis à disposition de la communauté météorologique en temps réel (avec l'appui de Eumetsat). Cette communauté comprend tous les autres centres météorologiques impliqués dans la prévision numérique globale opérationnelle. On s'attend à ce que plusieurs d'entre eux puissent assimiler les vents Aeolus après les avoir soumis à leur propre système de contrôle/monitoring opérationnel (qui permet aussi une inter-comparaison avec d'autres types d'observation). Notons aussi que, le vent HLOS étant réduit à une seule composante (suivant une direction variable dans un repère terrestre), il est difficilement utilisable en-dehors d'un système d'assimilation météorologique global spécialement conçu pour traiter une large variété de types d'observation.
Le CEPMMT est donc une partie importante du segment sol d'Aeolus. Outre le vent HLOS, il doit produire un jeu de données météorologiques auxiliaires contenant température et pression (variables météorologiques auxquelles le vent HLOS est sensible, donc nécessaires au traitement).
L'évaluation des vents Aeolus par monitoring doit se poursuivre pendant quelques mois à partir de leur disponibilité. En parallèle du monitoring, des études d'impact seront menées pour évaluer le bénéfice apporté par les nouvelles données à la qualité de la prévision. Dès que ce bénéfice apparaîtra significatif, les données seront assimilées opérationnellement au CEPMMT. On espère que cette date-là ne sera pas trop proche de la fin de vie du satellite ! À partir de ce moment-là, le CEPMMT produira aussi des vecteurs vent aux points d'observation Aeolus à partir de son analyse opérationnelle, pour les usagers qui souhaitent faire des études avec un vecteur vent complet et sans système d'assimilation. Ces usagers devront avoir conscience que ces données de vent ne sont pas des observations pures : elles sont influencées par les mesures du lidar Aladin, mais aussi par le modèle du CEPMMT au travers de son assimilation, et en particulier par... toutes les autres observations assimilées !
Plus de détails sur le segment sol Aeolus sont disponibles sur la News du CEPMMT.
Notons au passage que la mission Aeolus produira des observations d'aérosols et des sommets des nuages, même si l'observation du vent est son objectif principal.
Et le futur plus lointain ?
Aeolus est une mission expérimentale. Il s'agit de vérifier si un lidar spatial est capable de mesurer le vent sur une épaisseur de l'atmosphère de l'ordre de 30 km avec suffisamment de précision et de fiabilité. La durée de vie du satellite a été estimée à 3 ans. Le compromis choisi par les concepteurs du projet a été de favoriser plus la qualité de la mesure que la quantité d'observations produites, en particulier en effectuant une moyenne des signaux sur 87 km et en produisant seulement une composante de vent tous les 87 km, selon une ligne de visée unique fixée à 35° par rapport au nadir. La couverture de données (représentée ici sur une période de 12 h) est peu dense (quelques milliers de points d'observation) comparée à celle des sondeurs atmosphériques tels que IASI (quelques centaines de milliers d'observations, mais très rapprochées et très redondantes). Notons que le nombre d'observations (profils verticaux) Aeolus est du même ordre que le nombre de stations du réseau mondial de radiosondages, principale source directe d'information sur le profil vertical du vent jusqu'à maintenant, mais avec une répartition sur le globe plus homogène.
Couverture de données simulées Aeolus sur une période de 12 h. Image : CEPMMT (Michael Rennie)
La mission Aeolus sera un plein succès :
si des données lidar sont finalement produites en temps réel sur une période proche de 3 ans,
si elles s'avèrent suffisamment fiables et précises (d'après le monitoring du CEPMMT et des autres centres de prévision),
si elles peuvent être assimilées dans un modèle en améliorant la prévision globale de manière significative.
Si la qualité des mesures de vent s'avère conforme aux spécifications attendues, l'impact d'Aeolus sur la qualité de la prévision devrait être sur l'hémisphère nord du même ordre que l'impact des vents de radiosondages. Sur l'hémisphère sud il devrait être au moins aussi important que sur l'hémisphère nord. On s'attend surtout à ce que l'impact soit très important dans les tropiques qui, contrairement aux régions extra-tropicales, ne permettent pas une bonne restitution du champ de vent à partir des observations de pression et température. Une fois qualifié pour améliorer la prévision globale, le lidar-vent spatial sera automatiquement qualifié pour améliorer les réanalyses climatiques.
La mission expérimentale Aeolus ne sera pas pérennisée, du moins pas tout de suite. Mais si elle est un plein succès, elle ouvrira la voie à plusieurs autres missions qui devraient permettre à partir des années 2020 ou 2030 de bien couvrir le globe en données de vent pleinement opérationnelles. En renforçant le nombre total d'observations et donc la couverture de données par rapport à Aeolus, on peut espérer une avancée majeure dans l'observation globale du vent, dans la qualité des prévisions et des réanalyses climatiques, du moins en ce qui concerne l'atmosphère. Concernant l'océan, l'apport potentiel d'Aeolus (et de ses successeurs éventuels) sera beaucoup plus faible car il ne peut être qu'indirect, via le couplage océan-atmosphère qui comprend une modélisation des deux couches limites (océanique et atmosphérique) et des différents flux allant de l'une à l'autre. Le vent à 10 m au-dessus de la surface océanique joue un rôle fondamental dans ce couplage. Il ne peut pas être observé directement par les instruments du type Aladin, mais son estimation sera améliorée dans une analyse ou une prévision à quelques heures ou quelques jours échéance par l'assimilation de mesures de vent obtenues à des altitudes plus élevées. Les mesures Aeolus sont des observations de grande échelle qui devraient surtout contribuer à mieux analyser les grandes ondes atmosphériques et donc à mieux analyser les systèmes tels que les tempêtes ou les cyclones en formation. Pour le vent à la surface de l'océan, on peut raisonnablement espérer une synergie au sein d'une assimilation entre les mesures de la rugosité océanique qui permettent de l'estimer à petite échelle et les mesures de lidar-vent (plus hautes dans l'atmosphère) qui permettent de l'estimer à grande échelle.
Au moment du lancement d'Aeolus, le 22 août 2018, plusieurs medias ont parlé de «méthode révolutionnaire pour observer l'atmosphère» dont on espérait qu'elle allait faire faire «un bond à la prévision du temps», pouvant par exemple «amener la prévision à 15 jours d'échéance au même niveau que la prévision actuelle à 7 jours». Ces termes peuvent peut-être représenter un objectif à long terme, à condition de bien les définir par des critères objectifs. Mais ils donnent aux non-spécialistes une vision beaucoup trop optimiste, en laissant croire que c'est le seul lancement d'Aeolus qui va permettre cela. Aeolus ouvrira peut-être une voie vers cela, mais par l'intermédiaire de nombreuses autres missions spatiales à venir, et conjointement avec toutes les autres sources potentielles de progrès pour la météo et le climat.
Aeolus : une contribution au système mondial d'observations parmi beaucoup d'autres
Le lien web de l'OMM (Organisation Météorologique Mondiale) donne une liste complète des satellites environnementaux actuels ou déjà programmés pour les années à venir. Il s'agit de plusieurs dizaines de satellites et de types d'instruments. Si l'on compte individuellement chaque instrument à l'intérieur d'un même type, on dépasse largement la centaine. Chaque année voit le lancement de plusieurs satellites servant peu ou prou les besoins de la météorologie et du climat, mais les données ne sont pas toutes disponibles en temps réel pour la météorologie opérationnelle.
La particularité de cette mission gravimétrique est de comprendre deux satellites jumeaux dont on mesure en permanence l'inter-distance.
Le 25 juillet a vu le lancement par Ariane-5 depuis Kourou de 4 nouveaux satellites Galileo, s'ajoutant aux 22 existants, dont 18 sont opérationnels. La constellation Galileo d'une trentaine de satellites devrait être complète en fin d'année 2019.
Deux satellites chinois ont été lancés :
FY-2H, le 5 juin 2018, satellite géostationnaire dédié à la météorologie opérationnelle ;
GF-11, le 31 juillet 2018, sur une orbite héliosynchrone, satellite dédié à l'observation des surfaces continentales à haute résolution.
Pour en savoir plus, taper le nom du satellite dans la case « Quick search » du site web OSCAR de l'OMM.
Le même site web donne une liste impressionnante de satellites devant être lancés avant la fin de l'année 2018.
Parmi eux citons :
CFOSAT, satellite franco-chinois, dont le lancement est prévu en octobre, qui sera muni d'un diffusiomètre ;
Metop-C, satellite européen, dont le lancement est prévu en novembre, qui sera muni de sa dizaine d'instruments volant actuellement sur Metop-A et Metop-B.
La vraie originalité d'Aeolus, c'est qu'il emporte le seul instrument capable de mesurer depuis l'espace des vents sur l'épaisseur de l'atmosphère, c'est-à-dire de fournir des profils verticaux de vent, un peu comme les radiosondages. Les dynamiciens de l'atmosphère savent que la connaissance du gradient vertical de vent (cisaillement) est un élément précurseur important pour anticiper le développement de phénomènes extrêmes (orages, tempêtes, cyclones).
Une fois en service, Aeolus pourra fournir directement ce type d'observation conjointement avec trois autres systèmes d'observation basés au sol :
les radiosondages ;
les profileurs (radars ou lidars fonctionnant à partir de stations) ;
les observations d'avions au voisinage des aéroports.
Depuis l'espace, il existe d'autres mesures de vent, mais toujours obtenues à un niveau d'altitude unique.
Stoffelen, A., J. Pailleux, E. Källén, J.M. Vaughan, L. Isaksen, P. Flamant, W. Wergen, E. Andersson, H. Schyberg, A. Culoma, R. Meynart, M. Endemann, and P. Ingmann, 2005: The Atmospheric Dynamics Mission For Global Wind Field Measurement. Bull. Amer. Meteor. Soc., 86, 73–87.
1/1 Mise en orbite des deux satellites GRACE-Follow On
Le 22 mai 2018, depuis la base de Vandenberg en Californie, deux nouveaux satellites scientifiques GRACE FO ainsi que cinq nouveaux éléments de la constellation Iridium Next ont été mis en orbite par la fusée réutilisable Falcon 9 de la société SpaceX.
Ces 2 satellites jumeaux de la mission GRACE-Follow On, sont le fruit d'une collaboration entre la NASA et le Centre de recherche allemand pour les géosciences (GFZ). Ils continueront à surveiller les changements dans le cycle de l'eau et la masse à la surface du globe, comme cela a été si bien réalisé par la première mission GRACE, ("Gravity Recovery And Climate Experiment"), mise en orbite en mars 2002, qui a fonctionné jusqu’en octobre 2017, une performance et une chance inouïe pour ce type de mission. L’altitude de la mission GRACE-FO est celle d’une orbite quasi circulaire à 490 km et l’inclinaison du plan de la trajectoire sur l’équateur est de 89 degrés.
Voici quelques éléments, parmi les plus impressionnants, sur cette mission très remarquable :
Les missions de GRACE
Comme son prédécesseur, GRACE-FO suit les masses d'eau liquide ou gelée "grace"... à des mesures de haute précision des variations mensuelles du champ de gravité de la Terre. Chaque mission GRACE est composée de 2 satellites jumeaux. La connaissance ultraprécise de l'attraction terrestre et de ses variations, résulte de la mesure à mieux que quelques millièmes de mm de la distance, (environ 200 km), entre les 2 engins en orbite. Plus de 99% de l'attraction gravitationnelle de notre planète ne change pas d'un mois à l'autre, car elle représente la masse de la Terre solide elle-même. Mais une infime fraction de la masse terrestre est constamment en mouvement, et c'est surtout de l'eau : la pluie tombe, la rosée s'évapore, les courants océaniques coulent, la glace fond et ainsi de suite. Les cartes de GRACE montrant les variations régionales de la gravité nous montrent où se déplace chaque mois cette petite fraction de la masse planétaire globale.
Anomalie de champ de gravité au niveau des continents de 2002 à 2009 (Source NASA)
Anomalie de champ de gravité des océans de 2002 à 2009 (Source NASA)
Nota : La plupart des anomalies de gravité étant dues au mouvement de l'eau autour de la surface de la Terre, la NASA exprime ces variations comme l'épaisseur d'une couche d'eau qui entraînerait une telle anomalie de gravité. Les mesures sont en termes de centimètres d'eau équivalente, ou CM-eq-H2O.
Deux satellites, un instrument
Contrairement aux autres satellites d'observation de la Terre, qui portent des instruments qui observent une partie du spectre électromagnétique, les deux satellites de GRACE-Follow On sont eux-mêmes l'instrument qui effectue des mesures entre-eux. L'instrument principal mesure les minuscules changements dans la distance entre les deux, qui proviennent des forces gravitationnelles légèrement variables, d'un mois à l'autre, en fonction des changements de la répartition des masses en surface ou souterraines, proches de la surface. Cette distance, variable continûment, est mesurée à partir de signaux micro-onde émis et reçus entre les deux satellites jumeaux comme dans la première mission Grace - KBR instrument (K/Ka-Band Ranging) -. Dans la mission GRACE-FO, un système expérimental nouveau et supplémentaire beaucoup plus précis (au moins d’un facteur 10) a été mis en place ; il est fondé sur l'interférométrie de signaux laser émis entre les deux satellites - LRI instrument (Laser Ranging Interferometer) -. Les chercheurs, géodésiens & hydrologues, produisent des cartes mensuelles de l'eau et du changement de masse en combinant ces informations avec des mesures GPS de l'endroit exact où se trouvent les satellites et des mesures accélérométriques d'autres forces agissant sur l'engin spatial, telles que la traînée atmosphérique. Le traitement des données géophysiques pour déterminer précisément chaque mois un modèle de champ de gravité de la Terre implique nécessairement l’utilisation des données de distances laser obtenues régulièrement sur les satellites Lageos à 6 000 km d’altitude qui donnent spécifiquement la position du centre de masse de la Terre et ses variations temporelles ainsi que l’aplatissement géodynamique de la Terre avec ses variations temporelles. Ces grandeurs ne pourraient être déterminées avec précision par les seules données de Grace-FO. Les micro accéléromètres ultra précis utilisés pour mesurer les forces non-gravitationnelles agissant sur les satellites ont été construits et réalisés en France par l’ONERA, une compétence unique au plan mondial.
C’est le 30e anniversaire du protocole de Kyoto, premier accord international destiné à s’attaquer au réchauffement climatique, en demandant aux États de réduire leurs émissions de gaz à effet de serre et de prendre des engagements pour ce faire. Il a été adopté lors de la COP n°3 le 11 décembre 1997. COP signifie : Conference of Parties to United Nations Framework, Convention on Climate Change ( UNFCC ). Cette convention issue du sommet de la Terre de Rio de 1992 entre en action en 1994, et la première COP se réunit l’année suivante en 1995 à Berlin. En 1997, la COP 3 adopte le protocole de Kyoto. Les COP's se réunissent tous les ans depuis 1995. Le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a été créé en 1988 en vue de fournir des évaluations détaillées de l’état des connaissances scientifiques, techniques et socio-économiques sur les changements climatiques, leurs causes, leurs répercussions potentielles et les stratégies de parade. Les COP’s s'en nourrissent.
La COP 21, dont on a beaucoup parlé, s’est tenue à Paris en 2015. La conférence de Paris connut au moins un succès : l'adoption d’un nouvel accord "Accord de Paris" pour succéder au protocole de Kyoto qui devait arriver à échéance en 2012. La COP 15 de Copenhague en 2009 devait préparer le nouveau protocole appelé à prendre la suite de celui de Kyoto. Ce fut un échec total. Les discussions reprirent à DOHA à la COP 18 de 2012 et finalement accord il y eut pour un nouveau traité à Paris en 2015. L’échec de Copenhague était formellement effacé. Quant au fond de ce nouveau traité et de ses objectifs à atteindre, on peut avoir des doutes. De tels accords entre 195 états ne peuvent s’obtenir sans concession et l’acceptation d’objectifs que l’on sait illusoires comme par exemple celui de ne pas dépasser 1.5°C d’augmentation ( voir news de février de 20I6 ) par rapport à l’époque préindustrielle…
Mais là n’est pas le sujet, et il est question de parler du climat de l’année 2017 et de sa position dans l’évolution du climat : une marche en plus ou une marche en moins ?
Fig 1 : Évolution de la température depuis 1880
Selon la NASA et la NOAA qui ont présenté le 18 janvier 2018 le bilan climatique, 2017 fait partie des 3 (vraisemblablement 2) années les plus chaudes depuis 1880 avec une augmentation de 0.9°C par rapport à la moyenne 1951-1980 contre 0.99 pour 2016. À ce rythme là, où en seront nous en 2100 avec l’accroissement visé par le traité de Paris de 1.5°C par rapport à l’ère préindustrielle ? Depuis le protocole de Kyoto en 1997 il y 30 ans, la température a augmenté de 0.5°C et elle ne cesse de croître. Tout se passe comme si les trains politique et scientifique circulaient sur des voies divergentes en dépit du synchronisateur que le Giec devrait être pour les faire converger.
El Niño
Les trois dernières années successives 2015, 2016, 2017 furent donc les plus chaudes depuis 1880. Rien de surprenant à cela pour 2015 et 2016 puisqu’un puissant El Niño démarra fin 2015 ( fig 2 ) et couvrit toute l’année 2016 et que l’on sait que les années les plus chaudes correspondent à des El Niño puissants.
Fig 2 : L’indice océanique ENSO : l’année 2017 est dans le neutre, ni Niño, ni Niña
L’année 2017 détient donc un record : l’année la plus chaude sans EL Niño. Selon la NASA, globalement El Niño valut 0.04°C supplémentaires en 2015, 0.12°C pour 2016 et 0.00°C pour 2017. Fantaisie de celui que l’on appelle maintenant souvent dans la presse, selon l’ humeur, l’enfant terrible ou turbulent alors qu’à l’origine le phénomène doit son nom Niño a à l’enfant Jésus… ou changement de régime qui hisse le réchauffement global au niveau d’El Niño ? L’avenir le dira ! Car de nouvelles anomalies ou changements d’équilibre sont à attendre au fur et à mesure que la température augmente. Pour 2017, comme elle le fait toujours, la NOAA s’efforce de prévoir à un an l’évolution d’ENSO (El Niño Southern oscillation) et en discute. Le 8 janvier 2015 la NOAA concluait pour 2016 :
« In summary, there is an approximately 50-60% chance of weak El Niño conditions during the next two months, with ENSO-neutral favored thereafter »
Résultat, l’El Niño qui s’est développé en 2016 a été le plus important depuis celui de 1998 qui n’avait pas été prévu non plus, comme aucun autre d’ailleurs. La compréhension du climat et de son changement repose sur l'identification de grandes oscillations du système couplé Océan Atmosphère dont la plus célèbre est "l'EL Nino Southern Oscillation" (ENSO). On ne sait pas encore prévoir correctement leur évolution, ce qui est préoccupant, car réchauffement aidant, les oscillations type ENSO combinées à d’autres peuvent provoquer de nouvelles perturbations ( voir plus loin les glaces de l’Arctique ). Aux échelles régionales, l’année 2017 ( fig 3 ) ne montre pas de différences significatives avec l’année 2016 ( fig 1 ) du bilan de 2016.
Fig 3 : Anomalie de température 2017 par rapport à la période 1950-1951
Le contenu thermique de l’ océan
L’océan absorbe plus de 90 % de la chaleur en excès générée par l’augmentation de l’effet de serre ; sa température et son contenu thermique augmentent donc ( fig 4 ).
Fig 4 : Évolution du contenu thermique des 2000 premiers mètres de l’océan depuis 1958
L’année 2017 représente un record depuis 1958. Elle dépasse l’année Niño 2016 qui la précède, de même que l'année 1999 affiche un contenu thermique de l’océan supérieur à celui de l’année Niño 1998. Cela peut surprendre alors qu’El Niño se caractérise par un très fort réchauffement de l’Océan Pacifique équatorial. Mais cet océan équatorial ne fait pas la totalité de l’océan, et dans les faits, il s’agit pour l’océan d’un transport d’eau chaude de l’ouest vers l’est du Pacifque équatorial. Cette redistribution de chaleur concerne l’ensemble du globe et sur la fig 5, on voit qu’à côté du réchauffement bien visible dans le Pacifique ( au niveau de l’équateur ), il y a de nombreuses zones de refroidissement susceptibles de capter plus de chaleur à l’issue d’El Niño.
Fig 5 : Anomalie de la température de surface en janvier 2016 ( Niño )
Une chose est certaine : au-delà de variabilités interannuelles, globalement l’océan et l’atmosphère ne cessent de se réchauffer. Pour en juger, les mesures sont essentielles. En décembre 2017, il y avait 3878 balises ARGOS opérationnelles. C’est 100 en moins qu’en janvier 2017.
Le Niveau de la mer
Il monte incontestablement au rythme assez régulier, au niveau global, de 3.32 mm/an. Comme à l’habitude, Niño 2015-2016 se marque par un maximum relatif du niveau de la mer qui n’affecte pas l’augmentation de 84.1 mm depuis le lancement du satellite altimétrique Topex/Poseidon en 1992 ( fig 6 ).
Fig 6 : Évolution du niveau de la mer depuis le lancement du satellite Topex/Pseidon en 1992
L’Arctique
Comme à l’accoutumée, la banquise arctique a atteint son extension maximum en mars 2017, le 7 précisément, et son minimum en septembre 2017, le 13 ( fig 7 et 8 ).
Fig 7 : L’extension de la glace arctique à son maximum, le 7 mars 2017
Fig 8 : L’extension de la glace arctique à son minimum, le 13 septembre 2017
La valeur moyenne de mars fut de 14.43 millions de km2, soit 7.5 % de moins que la moyenne annuelle sur 1981- 2010. C’est la plus faible extension observée en mars. Avec 14.49 km2, 2015 n’était pas loin ( fig 9 ).
Fig 9 : Évolution dans l’hémisphère nord, en mars à son maximum de l’extension de la glace (anomalie par rapport à 1979/2017). Mars 2017 marque un record de réduction.
La glace atteignit son extension minimum le 13 septembre, 4.64 millions de km2. C’est la 8e extension minimum (mesures satellitaires selon NSIDC) ( fig 10 ).
Fig 10 : Évolution dans l’hémisphère nord en septembre, à son minimum, de l’extension de la glace (anomalie par rapport à 1979/2017. L’année 2012 garde son record.
L’extension en mars, période du maximum, diminue de 2.7 % par décennie. L’extension de la glace est un indicateur important de l’évolution du climat, mais l’âge de la glace ( depuis l’année où elle s’est formée ) qui est corrélée à son épaisseur et donc à sa masse, est sans doute plus significative : moins il y a de glace plus rapidement elle fond. Sur la fig 11, on voit peu de différence entre 2016 et 2017, mais il est clair que la glace de 1re année ( l’année en cours qui fond quasi totalement ) est de plus en plus importante et représente 70 % de l’extension totale, alors que la glace de 5e année est passée de 30 % de la surface en 1984 à quelques pourcents en 2017. C’est manifestement sur l’Arctique que le réchauffement climatique, sur l’atmosphère et sur l’océan, à son effet le plus marqué.
Fig 11 : L’âge de la glace en mars dans l’Arctique. En haut, comparaison 2016/2017. En bas, évolution de 1984 à 2017.
L’Antarctique
Fig 12 : Évolution dans l’Antarctique de la glace à son maximum en Mars. La glace a repris sa décroissance.
Dans les années 2000/2010, la surface de la banquise antarctique avait curieusement une tendance à s'accroître au moment de son extension maximum de septembre qui atteignit sa valeur la plus élevée en 2014 : 20.12 millions de km2. En 2015 et 2016, la décroissance reprit et l’extension de la banquise repassa sous la moyenne 1979/2010. En septembre 2017, elle fut de 18.3 millions de km2 soit 4.5 % sous la moyenne 1981-2010. Dans une news de 2015, on expliquait cet accroissement de la banquise de la manière suivante : le renforcement des vents d’ouest autour du continent induit un accroissement vers le nord du transport d’Ekman de la glace et des eaux froides de surface depuis le continent Antarctique, ce qui facilite la formation de glace. Les modifications induites par le changement climatique dans le champ de pression atmosphérique peuvent y avoir leur part, mais on suspecte surtout la diminution depuis la fin des années 1970 de l’ozone au-dessus de l’Antarctique, « le trou d’ozone », qui modifie de manière importante l’équilibre radiatif de la stratosphère. Dans les années à venir ce déficit d’ozone devrait se résorber, atténuant ce phénomène de refroidissement des eaux de surface et contribuant à une augmentation de l’effet de serre… Peut-être cette hypothèse est–elle validée par les trois dernières années…
Le gaz carbonique dans l’atmosphère
Comme les autres paramètres, les teneurs de l’atmosphère en gaz carbonique, principal gaz à effet de serre, poursuit son évolution avec régularité ( fig 13 ), en respectant les cycles biologiques du monde vivant et sans faiblir. En 2016 et 2017, la teneur de l’atmosphère a toujours été au-delà de 400 ppm ( fig 13 ).
Fig 13 : Évolution des teneurs en CO2 de l’atmosphère mesurées à l’observatoire de Mauna Loa
Le 27 janvier 2018, cette teneur était de 407.87 ppm. Et pourtant, il y eut une bouffée d’espoir, car les émissions diminuèrent légèrement en 2015 : 35.7 Gt de CO2 en 2015, contre 35.9 en 2014. Cela ne dura point, on était à 36.3 en 2016 et 36.4 en 2017… la croissance reprend ( fig 14 ).
Fig 14 : Évolution des émissions de CO2 dont la croissance a repris après une timide tentative de diminution en 2015
Conclusion
On serait tenter de dire que l’évolution climatique suit son cours régulièrement et sans surprise au rythme des activités humaines, dans un système globalement stable. Le « globalement stable » est important. En effet, ce n’est pas au niveau global que se situent actuellement les difficultés mais bien dans l’accroissement local des événements climatiques extrêmes et de leur intensité. On a parlé du cyclone Irma le plus puissant dans l’Atlantique depuis 1980, qui a dévasté les Antilles (Saint Martin et Saint Barthelemy), en compagnie du cyclone José qui le suivait ainsi que la tempête Katia en septembre, du cyclone Maria en octobre à la Dominique, aux îles Vierges, Porto Rico.
Nombreuses et catastrophiques ont été les inondations. Il y a certes de tels événements depuis toujours mais à ces échelles, ils présentent l’inconvénient d’être quasiment imprévisibles. Ils restent néanmoins dans un système stable de climat que nous connaissons, mais qui pourrait ne pas durer. Un exemple en a été donné en 2017-18 qui a bien fait rire M. Trump, confronté début janvier 2018 à une vague de froid au nord des USA et aussi au Canada alors que l’on cherche à le convaincre de la réalité du réchauffement climatique qui ne le préoccupe pas. Il s’agit en quelque sorte de la désintégration du Vortex Polaire (qui fera bientôt sur ce site l’objet d’une communication importante). Le pôle Nord est une zone de basse pression autour de laquelle des vents très violents tournent dans le sens contraire des aiguilles d’une montre dans la haute atmosphère et la stratosphère. Dans les conditions normales le vortex bien formé autour du pôle contient bien l’air froid et l’empêche de descendre vers les plus basses latitudes ( fig 15 ).
Fig 15 : Le vortex polaire bien établi en novembre 2013 sur le pôle. Zone de basse pression autour duquel tourne le vent qui confine le plus grand froid.
S'il y a réchauffement, le vortex se disloque et l’air froid peut s’échapper jusqu’à des latitudes tempérées. Ce qui est arrivé fin 2017/début 2018 et en 2013/14 ( fig 16 ).
Fig 16 : Le vortex polaire de basse pression éclaté en plusieurs morceaux qui libèrent l’air froid qui peut ainsi descendre vers les latitudes moyennes.
La disparition de la banquise et le réchauffement de l’Arctique auquel EL Niño n’est pas étranger favorise cette dislocation, et il n’est pas exclus qu’à terme et peut-être brutalement les circulations atmosphérique et stratosphérique soient durablement perturbées perdant toute stabilité, préalable peut-être à un véritablement changement de système climatique.
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.