Sous l’égide de Copernicus : une task force mise sur pied pour les régions polaires
La Commission européenne a décidé de créer une “Polar Task Force » en 2023 avec pour mission d’élaborer une feuille de route stratégique couvrant la période 2025–2035et destinée à orienter l’évolution des services Copernicus dans les régions polaires.
Ces services au nombre de six sont thématiques et opérationnels, chacun dédié à un champ d’application : l’atmosphère, les océans, les terres émergées, le changement climatique, la sécurité, et les urgences. Pour chacun de ces domaines, les régions polaires présentent des conditions particulières, qui rendent leur observation et leur étude difficiles ( couverture géographique incomplète du fait des orbites des satellites, longues nuits polaires, conditions météorologiques difficiles, rareté des observations in situ, faible densité de population). Pourtant, à travers la formation de la banquise, la circulation océanique et les échanges atmosphériques, ces régions jouent un rôle central dans la régulation du climat terrestre. Le système Copernicus s’appuie sur une constellation de satellites appelés “Sentinel “, développés par l’ESA. Ces satellites sont complétés par des observations issues de satellites nationaux, européens (par exemple Eumetsat) ou internationaux. Les satellites Sentinel, associés aux modèles océaniques développés par Mercator Océan et à ceux du Centre Européen pour les Prévisions Météorologiques à Moyen Terme, permettent de suivre la dérive des glaces, la température de surface, la salinité et le niveau des océans. Ces données sont intégrées dans des systèmes d’alerte et de prévision utiles à la navigation, à la recherche scientifique et à la gestion environnementale. L’objectif affiché du programme pour les régions polaires est double : d’une part, contribuer à une meilleure connaissance des mécanismes climatiques globaux, et d’autre part, appuyer les politiques publiques liées à la sécurité maritime, à la préservation des écosystèmes et à la recherche.
Il a été créé des Polar Expert Groups (PEGs) qui répondent à la volonté de la Commission européenne d’améliorer la qualité et la cohérence des services Copernicus pour les régions polaires. Ces groupes PEG I, II et III ont été mis en place progressivement à partir de 2017, chacun disposant d’un mandat clair, défini par la Commission. Les conclusions de leurs travaux constituent la première évaluation collective et structurée des services Copernicus dans le domaine polaire.
PEG III s’est particulièrement attaché 1) à analyser les avantages et synergies des observations inter-capteurs entre les satellites Sentinel existants, les missions tierces contributrices concernées, et trois missions Expansion micro-ondes (CIMR, CRISTAL et ROSE-L), qui ont fait l’objet de nombreuses simulations, 2) à revoir la situation critique des observations in situ (en particulier pour l’Arctique central) et 3) à définir un Système intégré de surveillance polaire.
La feuille de route 2025–2035 élaborée par la Polar Task Force fixe les grandes orientations pour la prochaine décennie. Elle s’articule autour de trois objectifs principaux : d’abord la consolidation, avec, en particulier, le maintien et l’évolution de la constellation Sentinel, avec une attention particulière portée à la couverture des hautes latitudes et à la qualité des mesures optiques et radar ; puis l’innovation, qui se traduit par le développement de la cartographie dynamique de la banquise, du suivi des écosystèmes polaires, de l’observation de la cryosphère et de la modélisation du bilan énergétique global ; et enfin l’intégration, qui concerne la coordination des services Copernicus entre eux.
Pour des raisons « européennes » évidentes, ces groupes de travail se sont surtout concentrés sur l’Arctique. L’Antarctique, dépourvu de population permanente et régi par le Traité sur l’Antarctique, qui y limite les activités humaines à la recherche scientifique, est encore très insuffisamment couvert par les services Copernicus actuels. La feuille de route propose d’ en assurer la couverture géographique complète et de maximiser la fréquence des observations via des capteurs micro-ondes spécifiques opérant par tous temps et de jour comme de nuit. Elle propose aussi d’intégrer les données issues des bases scientifiques internationales et de créer un pôle de compétences européen dédié à la modélisation de la cryosphère antarctique.
Énergies renouvelables et infox politiques
Il est maintenant bien établi que le coût des énergies renouvelables, solaire et éolien, n’a cessé de baisser et qu’il est désormais inférieur à celui de l’électricité produite à partir d’hydrocarbures fossiles : le solaire photovoltaïque, et l’éolien terrestre sont en moyenne 41 % et 53 % moins chers que la moins chère des centrales fonctionnant avec des hydrocarbures fossiles. Pourtant, certaines personnalités politiques affirment le contraire, arguant que l’intermittence de l’éolien et du solaire rend ces sources coûteuses et très difficiles à gérer. Bien sûr, pour être en accord avec son temps, il faut malgré tout paraître raisonnables, et s’afficher en partisan des énergies défossilisées : lesquelles ? L’hydraulique, bien sûr mais aussi la très marginale géothermie (moins de 1 % de la production d’électricité en France). Les mêmes vantent la filière hydrogène comme une solution pour l’avenir, ignorant que l’électricité utilisée pour fabriquer ce qu’il faut d’hydrogène pour qu’une automobile parcoure 100 km, permettrait d’en parcourir 300 avec une automobile électrique. Ces politiques (qui répondent sans doute à de souhaits d’électeurs) ont proposé en juin 2025 d’inscrire un moratoire sur les nouveaux projets éoliens et photovoltaïques dans la loi sur l’avenir énergétique de la France visant à finaliser la programmation pluriannuelle de l’énergie. Heureusement, cette demande de moratoire a finalement été rejetée.
De plus en plus de publications scientifiques sans réel apport de connaissances
De nouvelles revues sans ancrage scientifique solide apparaissent chaque mois, qui n’ont pas d’autre ambition que de faire du profit en acceptant un maximum d’articles. Pour les revues les plus prestigieuses, la tendance est inverse : elles préservent la qualité des publications en n’acceptant que les articles qui contribuent le plus aux connaissances (de plus en plus d’articles leur sont soumis, et elles en rejettent donc de plus en plus), mais elles imposent aux auteurs des coûts de publication de plus en plus élevés (de 1000 à 3000 € par article, pris sur les crédits de recherche des équipes). Pourtant, le travail de revue est accompli bénévolement par les « pairs ». Le mot d’ordre « publish or perish » porte une grosse part de responsabilité dans ce système qui devient parfois aberrant. Il n’est pas rare que les comités d’édition des revues reçoivent des articles accompagnés d’une lettre d’un « cher collègue » soulignant que l’acceptation de cet article est nécessaire à son auteur pour la suite de sa carrière. Il s’agit d’articles qui ne sont pas écrits pour être lus mais pour étoffer un dossier. Pour revenir à de bonnes pratiques, il faudrait que les organismes prennent les choses en mains, en créant leurs propres revues, ou en assumant les frais de publication dans les bonnes revues. S’ajoute à tout cela le problème de la langue, qui n’est pas nouveau : l’anglais est incontournable et les non-anglophones sont pénalisés. C’était très différent il y a quelques siècles, aux débuts de la science, lorsque les savants échangeaient leurs points de vue et résultats par courrier (en latin !) entre les grandes villes européennes. La durée d’acheminement des lettres laissait alors du temps à la réflexion.
Les répercussions des tremblements de terre et des tsunamis dans l’ionosphère
L’Institut de Physique du Globe s’était penché sur l’effet des tremblements de terre sur les propriétés de l’ionosphère. En effet, les ondes atmosphériques émises depuis la surface par ces phénomènes s’amplifient à mesure qu’elles montent en raison de la raréfaction de l’atmosphère, et cette amplification les rend très détectables. Le système américain GUARDIAN (GNSS Upper Atmospheric Real-time Disaster Information and Alert Network) analyse en temps réel ces perturbations, d’origines diverses, afin d’apporter des corrections aux mesures satellitaires transmises par l’ionosphère (par exemple : celles des altimètres). En ce qui concerne les séismes, les perturbations de l’ionosphère se produisent en même temps que les déformations de l’écorce terrestre, empêchant toute tentative d’alerte préventive. Le cas est différent pour les tsunamis : ceux ci se manifestent sous la forme d’ondes de grande amplitude qui se propagent à la surface de l’océan, et détecter la progression de ces ondes dans l’ionosphère permettrait de suivre le tsunami et de prévoir où et quand il touchera telle ou telle partie de la côte. Rappelons qu’un satellite (Demeter) avait été lancé en 2004 par le CNES pour explorer le potentiel de ce type d’effet, i. e. le déclenchement des ondes par le mouvement de la surface terrestre, pour la prévision des tremblements de terre. L’idée était née d’une observation isolée par un satellite russe. Les résultats de Demeter s’étaient montrés insuffisamment stables pour être utilisables. De plus, pendant sa courte vie (6 ans), trop peu de tremblements de terre se sont produits pour que ce satellite puisse aboutir à des résultats significatifs.
Le niveau de la Caspienne s’abaisse
La « Mer » Caspienne est en réalité un lac qui ne communique pas avec les océans et dont le contenu est dépendant de l’apport des rivières et de l’évaporation. Or, l’apport des rivières décroît principalement à cause de la construction et de la gestion d'aménagements destinés à l'agriculture et aux activités industrielles ou énergétiques. La « Mer » d’Aral, qui est elle aussi un lac, a vu son niveau baisser et son étendue se réduire considérablement pour les mêmes raisons. La Mer Caspienne est profonde par endroits de 1000 mètres, et n’est donc pas menacée de disparition. Cependant, à sa côte nord qui est en pente douce, le rivage a avancé par endroits de 50 km, faisant apparaître des étendues arides de sable sec et transformant des ports de pêche en décors abandonnés. Mer Caspienne et Mer d’Aral ne sont pas seules à être touchées par le changement climatique ou les activités humaines : le Lac Tchad, dont le bassin ne comporte pas d'infrastructure hydraulique significative, est sujet à une grande variabilité. Il a atteint une extension minimale au début des années 2010 et la tendance actuelle est globalement croissante. On ne peut donc pas dire qu'il rétrécit. Quant au Lac Titicaca, alimenté par des précipitations sous l’influence des régimes climatiques du Pacifique et de l’Atlantique, on y observe actuellement une tendance à la baisse, mais on est encore assez loin du minimum observé au début des années 40.
Navigateurs, attention !
L’iceberg A23A (4000 km², soit approximativement la superficie d’un département français) qui s’était détaché dans les années 80, puis était resté bloqué pendant une quarantaine d’années sur des hauts fonds, vient de se libérer de son ancrage et dérive maintenant vers l’Ile de Géorgie du Sud. L’évolution des icebergs passe en général par un fractionnement en éléments de plus petite taille qui sont un danger pour la navigation. On s’interroge aussi sur l’impact de la dérive de ces fragments le long des côtes pour la faune marine ?
Les grands animaux participent à l’observation scientifique et dévoilent leurs déplacements
Les océanographes connaissent l’opération, commencée en 2004 dans l’Océan Antarctique, qui utilise des éléphants de mer équipés de capteurs de température, de salinité et de profondeur, et aussi de concentration en chlorophylle et en oxygène, afin de recueillir des données jusqu’à 500 ou même 2000 m de profondeur dans cette région peu observée de l’océan mondial. D’autres grands animaux (ils doivent être capables de porter un appareil de localisation et de mesure, et ils doivent aussi de préférence effectuer de longs déplacements) sont aussi utilisés pour recueillir des observations : tortues, baleines, albatros. Un article vient de paraître qui fait une synthèse des résultats des toutes ces observations, non pas en termes des mesures effectuées, mais en termes de déplacements de tous ces grands animaux, et cette vue d’ensemble renseigne sur les migrations en fonction des besoins vitaux. Les données obtenues grâce à ces animaux ont très tôt été rassemblées dans une base de données et c’est grâce à l’existence de cette base que l’étude (signée par 390 auteurs!) possède un caractère aussi global et impressionnant.
