Glossaire      Témoignages      Fantaisie      Qu'avons-nous lu ?       Conférences 

trait

Mars 2005 - Mise à jour Madeleine Zaharia, Yves Dandonneau, décembre 2020.
Remerciements à Pierre Yves Le Traon de Mercator Océan pour la relecture de cet article et les compléments apportés.

 I - Introduction

 II - Quelles mesures ?

 III - Quels systèmes de mesures ?

 IV - Quels programmes ?

 V - Quelles avancées technologiques ?

 VI - Conclusions 

I - Introduction

Les mesures et observations de l'océan "In-Situ" ne datent pas d'aujourd'hui. 

C'est la pose du premier câble télégraphique sous-marin en 1851 entre la France et la Grande Bretagne qui a fait prendre conscience de la nécessité de mieux connaître les fonds marins (topographie, température, sédiments, courants).
L'expédition britannique du navire Challenger de 1872 à 1876, avec ses quelques 400 stations de mesures réparties dans les océans Atlantique, Pacifique et Indien fut la première à réaliser de véritables observations de l'océan. Ce fut un succès et le début de la science "océanographique". 


challenger
 HMS Challenger Plateforme instrumentale

D'autres expéditions ont suivi mais les moyens dont on disposait rendaient les campagnes de mesures et d'exploitation très longues. Il a fallu attendre le milieu du 20ème siècle et ses formidables progrès technologiques notamment en matière de communication spatiale pour accéder à une connaissance dynamique des océans.

Depuis la fin des années 60, l'électronique et sa miniaturisation ont permis de faire des mesures océanographiques In Situ de plus en plus précises et en permanence. 

Origine CNES

À la fin des années 70, la mise en place du système de collecte de données et de localisation par satellite à couverture mondiale, Argos, a donné aux mesures In Situ une dimension supplémentaire : la faculté d'être disponibles quasiment en temps réel dans tous les laboratoires concernés de la planète.

Ce système a été mis au point dans le cadre d'une collaboration Franco-Américaine entre le CNES (Centre National d’Études Spatiales) et la NASA puis la NOAA (National Ocean and Atmospheric Administration). 

Il est exploité en France par CLS (Collecte et localisation par Satellite).

II - Quelles mesures in situ ? 

Il existe une grande diversité de paramètres hydrologiques mesurés in situ : température, salinité, pression, conductivité, courants, paramètres physico-chimiques... ayant des applications dans des domaines aussi variés que l'océanographie, la biologie, la météorologie, la climatologie, la sismologie, plus récemment la biogéochimie. Ces paramètres hydrologiques constituent aussi un outil de base pour l'étude du fond des océans pour la paléoclimatologie et le paléomagnétisme...

L'océanographie opérationnelle utilise les profils de température et de salinité et les mesures de vitesses le long des trajectoires de flotteurs qui viennent compléter les données obtenues par satellites.

Voir Mercator océan, les composantes systèmes

III - Quels systèmes de mesures ?

Mesures du réseau Argo

Les mesures océanographiques In Situ sont effectuées par des instruments de mesures en surface ou immergés (en profondeur depuis la sub surface jusqu'au plancher océanique). Les mesures sont faites, soit lors de passage de navires océanographiques ou même marchands, soit par des systèmes automatiques, fixes ou dérivants.

moyen mesures in situ

Crédit Euro-Argo ERIC

Les navires larguent au bout d'un câble à la fois mécanique et électrique, des sondes qui permettent de mesurer les paramètres hydrologiques sur un profil vertical de la surface jusqu'au fond. Il s'agit des bathysondes CTD (conductivité pour la mesure de la salinité, température, profondeur). Une bathysonde peut être munie de capteurs additionnels (turbidité, chlorophylle, oxygène dissous); elle est souvent montée sur un dispositif de prélèvement d'eau de mer nommé "rosette" (barillet portant des bouteilles de prélèvement dont la fermeture peut être commandée de la surface). Les échantillons recueillis sont utilisés pour étalonner les capteurs de la bathysonde et mesurer d’autres paramètres.

Les bouées fixes (encore appelées bouées ancrées, ou mouillages) entrent dans la catégorie des capteurs dit "Eulériens" et permettent, en un lieu donné, de suivre l'évolution des paramètres océaniques tels que température, salinité, courants, et paramètres biogéochimiques, en fonction de la profondeur et du temps.

Les bouées et flotteurs dérivants entrent dans la catégorie des capteurs dit "Lagrangiens" : ils évoluent librement au gré des courants. En fonction de leur situation, ils donnent des indications sur les courants en surface (flotteurs de surface) et en profondeur (flotteurs de subsurface pouvant être localisés acoustiquement en profondeur ou simplement localisés quand ils remontent en surface à intervalles réguliers). D’abord destinés à mieux connaître la circulation générale, les flotteurs de subsurface se sont peu à peu transformés en profileurs automatiques (profileurs Argo) en fournissant régulièrement des profils de température et salinité entre la surface et 2 000 m d’immersion. Plus récemment, ont été développé des flotteurs pouvant descendre jusqu'à 4 000 m de profondeur, certains étant conçus pour aller jusqu'à 6 000 m (Deep Argo). De nouveaux capteurs biogéochimiques (oxygène, nitrate, chlorophylle, pH, carbone particulaire, éclairement) ont été ajoutés sur des versions plus complexes de ces flotteurs (BioGeoChemical Argo).

Réseau Pirata. Origine IRD. Jacques Servain

Il existe une grande diversité de mesures avec des moyens et procédés différents.
Les navires océanographiques sont des moyens lourds nécessitant une importante intervention humaine, donc coûteux.
Le recours aux navires de commerce permet de répéter à moindre coût des observations dont l’exécution est aisée (XBT, température de surface, salinité) sur de longues lignes de navigation.
Les mouillages sont aussi coûteux car il faut un bateau pour aller les poser, les entretenir et les rechercher. 

Les flotteurs dérivants sont moins onéreux, ils nécessitent un bateau pour leur mise en place initiale mais ont ensuite leur autonomie qui peut aller jusqu'à 5 ans. 

La quasi totalité de ces points de mesure est maintenant équipée de balises Argos ou Iridium (avec capteur GPS) pour la localisation et la transmission des données. Les données sont transmises à un centre de traitement qui les met à disposition des utilisateurs en temps quasi réel.

Mesures complémentaires de celles du réseau Argo

Les animaux marins

Les grands mammifères marins qui, pour se nourrir, effectuent fréquemment des plongées à de grandes profondeurs, peuvent transporter des capteurs de température, de salinité et de profondeur, et aussi de concentration en chlorophylle et en oxygène. Ceci est rendu possible, depuis 2004, grâce à la miniaturisation des capteurs.
Lancée à l'initiative de Christophe Guinet du Centre d'études biologiques de Chizé (CNRS), une opération de collecte de données océanographiques utilise des éléphants de mer qui, avec ces capteurs collés sur leur tête, effectuent des plongées très profondes, jusqu'à plus de 2000 m, au cours de leurs longues migrations dans l'Océan Antarctique. Les atouts de cette opération sont d'une part de fournir des données dans une région éloignée et difficilement accessible, et d'autre part de plonger plusieurs fois par jour jusqu'à plus de 1000 m de profondeur, alors que les flotteurs ARGO n'effectuent qu'un seul profil vertical de mesures tous les dix jours. Ainsi les éléphants de mer récoltent environ 80 % des données de température et de salinité dans cet océan, localisées le long de leur trajet migratoire qui, pendant sept mois chaque année, les mène à partir des îles Kerguelen à explorer une vaste zone comprise entre 70 °E et 100 °E, et 45 °S à 65 °S.

migration

Suivi ARGOS de 26 Éléphants de Mer se reproduisant sur les îles Kerguelen
(Mathieu Authier, 2011)

Les résultats des mesures sont transmis vers le site CORIOLIS et vers le centre de données international MEOP via le système ARGOS lorsque les éléphants de mer gagnent la surface. Entre 2004 et 2011, 125 000 profils de température et 28 000 de salinité ont ainsi été collectés par 154 éléphants de mer et transmis en temps quasi-direct à Mercator, le modèle français européen de l'océanographie opérationnelle.

D'autres programmes ont été mis en place ces dernières années qui permettent, comme celui décrit dans l'article ci-dessus, de compléter les observations dans les endroits où le réseau  Argo ne peut aller :

Les"gliders" ou planeurs sous-marins

Le glideur est un véhicule de forme hydrodynamique qui se déplace dans l'eau de manière autonome. Il se présente sous la forme d'une torpille de longueur 1,50 m environ et pèse 50 à 60 kg. 
Il se déplace grâce à des variations cycliques de sa flottabilité. Il commence par plonger lorsque son ballast se remplit d'eau, en conséquence sa flottabilité diminue. Ses ailes donnent alors naissance à une force de portance qui lui permet de planer. Pour remonter, il vide son ballast. Il se déplace ainsi en suivant une trajectoire en forme de ligne brisée.
Il est équipés de capteurs qui permettent d’acquérir des données océanographiques tels que paramètres physiques et biogéochimiques, comme la température, la salinité, l'oxygène, la chlorophylle,... avec une bonne résolution spatiale (tous les km pour un profil allant jusqu'à 200 m de profondeur, et tous les 5 km pour un profil à 1 000 m).
À fréquence régulière, il remonte à la surface, les données enregistrées pendant la plongée sont alors transmises et collectées à terre en temps réel via une liaison satellitaire, Iridium ou Argos. Le pilotage  du glider se fait par le même canal.
Il peut sillonner les océans pendant des milliers de kilomètres de quelques semaines à  plusieurs mois en fonction du type de piles embarqué, descendre jusqu'à une profondeur de 1 000 mètres, voir plus.


La gestion du glider et la collecte des données demande une organisation délicate. La collecte des données et le pilotage se faisant  par le même canal satellite, il faut gérer ce flux bidirectionnel et effectuer le traitement des données le plus rapidement possible afin de pouvoir réagir rapidement  pour piloter au mieux le glider. Sachant qu'un glider fait surface toutes les 2 à 5 heures, cela laisse peu de temps pour réagir. C'est une surveillance permanente.

Les planeurs sous-marins sont complémentaires des profileurs Argo qui sont limités à des petites distances.
Par rapport aux balises et capteurs embarqués sur des mammifères marins,  leur coût est plus élevé  et ils ont des difficultés  à éviter des obstacles non référencés comme des objets flottants, de la glace de mer. Comparé à un navire océanographique, son prix est bas.
Un avantage cependant est qu'ils peuvent réaliser de longues séries de mesures sur des zones définies selon un échantillonnage maîtrisé.

Cette idée de planeur est ancienne. Elle a été proposé par Henry Stommel  en 1989,  connu sous le nom de Slocum, en l'honneur de Joshua Slocum, qui a effectué le premier tour du monde en solitaire en voilier. L'idée était d'exploiter l'énergie du gradient thermique entre les eaux profondes de l'océan (2 à 4°C) et les eaux de surface (près de la température atmosphérique) pour atteindre une autonomie autour du globe, limitée uniquement par la puissance de la batterie à bord pour les communications, les capteurs et les ordinateurs de navigation. Henry Stommel, un des plus grands océanographes du XXème siècle déclarait en 1955 : «Faute d’observations, l’océanographie est surtout le fruit de l’imagination des océanographes».

L'utilisation de planeurs sous-marins pour les programmes d'observations des océans côtier et hauturier se s'est développée vers les années 2000.

Pour être mise en oeuvre de manière efficace, elle supposait une infrastructure  et  la création d'une flottille de Glider. Ceci a été réalisé par une mutualisation entre tous les acteurs au sein d’une structure technique dans le cadre d’une association entre les équipes de l'Ifremer et la Division Technique de l'INSU

En 2008, grâce à deux chercheurs océanographes  P. Testor (LOCEAN) et L. Mortier (ENSTA), le CNRS a créé le parc national des gliders en partenariat avec le CETSM / IFREMER et avec le concours de la DGA, l’IRD et l’UPMC. Il a été intégré à la Division Technique de l'INSU et  localisé à La Seyne-sur-mer.

10gliders 2 c321a

Crédit INSU

Les observations de l'océan par gliders sont utilisés par nombre de programmes : par exemple, les travaux de l'INSU sur le circuit 3D des masses d'eau en Méditerranée :

"Non seulement des mouillages, des bouées météo, des navires océanographiques et des avions de recherche ont été déployés, mais aussi des plateformes autonomes issues des derniers développements technologiques pour fournir l’extension dans le temps et dans l’espace en temps quasi-réel : bouées dérivant avec le courant de surface, flotteurs-profileurs (ARGO), planeurs sous-marins (« gliders »), capteurs installés sur un navire de commerce, et enfin profileurs de vent installés à terre."

Documentation

Parc national des gliders - Insu 

Engins sous-marins Ifremer

Projet collaboratif en Océanographie Côtière -  LEFE-GMMC

Ensta Présentation des gliders et des défis associés.

The Slocum Mission - Narrative and Illustration - Henry Stommel

Mesures radar HF

Article à venir.

Ces mesures concernent le suivi temps-réel des courants de surface sur une large zone couvrant les zones côtières.
La technique utilisée est le radar courantomètrique.

Réseau national de radars côtiers pour la mesure des courants, états de mer et vent. Mercator Océan.
Publications de Céline Quentin, chef de projet "Radar HF au CNRS", Institut Méditerranéen d'Océanologie
Archives ouvertes Hal - Toulon

 IV - Quels programmes ?

Un grand nombre d'équipes travaillant dans le monde entier, géophysiciens, biologistes, climatologues, océanographes... ont besoin pour leurs travaux théoriques ou appliqués d'une pluralité de données océanographiques. 

Comment utiliser au mieux toutes ces opportunités, technologies, et multiples mesures qui permettent d'observer l'évolution de l'océan et qui concernent l'ensemble de la planète ?

Une recette éprouvée, la coopération, le partenariat, et la pluridisciplinarité !!!

L'océanographie opérationnelle, héritière d'expériences mondiales comme WOCE (World Ocean Circulation Experiment) ou TOGA (Tropical Ocean Global Atmosphere), s'inscrit dans une démarche plus vaste de surveillance de la Planète. En effet, compte tenu des risques naturels ou artificiels, conséquences des activités humaines, une auscultation permanente de tous les compartiments de la biosphère (atmosphère, océan, végétation), est indispensable. Toute la difficulté de cette démarche à peine entamée est de faire converger les multiples initiatives par institutions, par culture, par région ou par type de problématique...

Outre les centaines de bouées fixes ou dérivantes déployées "individuellement" pour les besoins de l'Océanographie ou ceux de la Météorologie, des réseaux internationaux de bouées ou de flotteurs transmettent les données en temps quasi réel, et ce depuis plusieurs décennies. 

Citons le programme TAO (Tropical Atmosphere Ocean project) dont le développement a été motivé par le phénomène El Niño de 1982-1983. Le réseau prototype (TOGA), achevé en 1994, a déployé 70 mouillages opérationnels (type ATLAS, Autonomous Temperature Line Acquisition System) réparties dans l'océan Pacifique, donnant des informations sur le vent en surface, l'humidité relative, la température de l'air et de la mer en surface et subsurface. Cette expérience à laquelle participèrent les USA, la France, le Japon, Taiwan et la Corée s'est poursuivie, sous l'égide de CLIVAR, GOOS, et GCOS (voir ci-après).

Elle est devenue en 2000 le réseau TAO/TRITON , avec l'introduction des bouées Japonaise TRITON (Triangle Trans Ocean Buoy Network). 

La dernière initiative est le programme international Argo, le déploiement mondial d'un réseau de flotteurs profileurs qui est en pleine expansion.

Le programme Argo a été lancé en 2000 sous l'égide de la COI par 18 de ses pays membres.

Il complète les mesures d'altimétrie (satellites Jason puis Sentinel et Envisat) et permet ainsi d'alimenter les modèles numériques.

En septembre 2006, 2527 profileurs recueillaient des données sur la température et la salinité de l'eau dans tous les océans du monde.

Origine, International Argo Information Center

En 2020, c'est quasiment 4 000 flotteurs qui recouvrent l'ensemble des mers y compris l'océan Arctique.

Les deux réseaux TAO et ARGO, équipés de balises Argos transmettent leurs données par satellite à un centre de réception qui les redistribue aux équipes concernées, quasiment en temps réel, soit par internet, soit via le GTS (Global Telecommunications System) de l'OMM (Organisation Météorologique Mondiale). 

Le traitement en temps réel des données du programme Argo est effectué principalement dans deux centres spécialisés situé l'un en France, l'autre aux États Unis.

L’infrastructure Coriolis commune aux organismes IRD, IFREMER, SHOM, Météo France, CNES, CEREMA, IPEV rassemble un réseau de données incluant Argo, les flotteurs de surface, les marégraphes, les gliders et certaines données de navires marchands et de recherche. Beaucoup d'équipes de recherche françaises et étrangères transmettent leurs données des campagnes en temps réel au centre opérationnel Coriolis. L’ensemble plus complet des données des campagnes françaises sont gérées quant à elles dans la base de données SISMER de l’Ifremer. Le pôle de données ODATIS a été mis en place plus récemment pour regrouper l’ensemble des bases de données et des produits liés à l’observation de l’océan (in-situ et satellite).

Répartition des flotteurs Argo et bouées captées par Coriollis 

Des structures similaires pour la gestion des données océaniques existent dans les différents pays (e.g. NODC et Argo data centers aux USA).

Ces centres de collecte, de traitement et de diffusion de données ont été une première concrétisation d'initiatives antérieures dans le domaine de l'océan et du climat comme : Global Ocean Observing System (GOOS), Global Climate Observing System (GCOS), Climate Variability and Predictability Experiment (CLIVAR), and Global Ocean Data Assimilation Experiment (GODAE).

En 2003, les gouvernements ont créé GEOSS (Global Earth Observation System of Systems), afin de combler au niveau mondial le manque d’observations des facteurs qui influencent le climat de la Terre.
En Europe, un programme européen pour la surveillance mondiale pour l'environnement et la sécurité a été initié en 1998. Il s'agissait de GMES (Global Monitoring for Environment and Security) qui est devenu Copernicus (Europe's eyes on Earth) en 2014. Le programme Copernicus inclut une composante spatiale (les sentinelles), une composante in-situ mis en œuvre par les états membres et six services européens dont le service marin (CMEMS) mis en œuvre par Mercator Ocean International.

La création de l'ERIC Euro-Argo en 2014 a pour objectif d’optimiser et de pérenniser la contribution de l’Europe au programme mondial Argo et de fournir un service d’excellence à la communauté scientifique "océan- climat" et à l’océanographie opérationnelle.
Euro-Argo comprend également la réalisation d’une nouvelle phase du programme Argo : l'extension aux plus grandes profondeurs, aux paramètres biogéochimiques et à la couverture des zones polaires.

L'objectif d'Euro-Argo est d'organiser les contributions de ses membres afin de permettre à l'Europe de :

  • Déployer et maintenir un réseau de flotteurs Argo,
  • Fournir un service d'excellence aux communautés recherche (océan, climat) et océanographie opérationnelle (Copernicus Marine Environment Monitoring Service).

V - Quelles avancées technologiques ?
argo nov 2020 3914

Source Argo

Comme le montre la figure ci-dessus, près de 4 000 flotteurs couvrent toutes les mers du Globe, dont la plus grande partie recueille toujours des données sur la température et la salinité de l'eau, mais dont une autre partie recueille d'autres données grâce aux flotteurs biogéochimiques et aux mesures à grande profondeurs.
Ces développements ont été faits grâce au projet Equipex-NAOS , démarré en 2011.

Ils ont permis de développer de nouvelles génération de flotteurs :

  • les flotteurs "BCG-Argo" (BioGeoChimique) qui sont équipés de capteurs de mesures du ph, de l'oxygène ,du nitrate, de la chlorophylle.

bgc argo net

  • Les flotteurs profonds qui fournissent des données jusqu'à 4 000 m de profondeur (voire 6 000 m pour certains flotteurs) ce qui permet de connaître comment l’excès de chaleur pénètre et voyage dans l’océan.

deep models argo net

VI - Conclusions

Issue d'une coopération très réussie entre plus de 30 pays, ce réseau mondial unique d'observation globale in-situ des océans, complément indispensable des observations satellites, a permis de mettre en oeuvre la démarche préconisé par Claude Bernard : "observer, comprendre, prévoir", chère au Club des Argonautes.
On peut dire qu'il est maintenant pérennisé.

Depuis plus de deux décennies, on dispose de manière opérationnelle d'un grand nombre de données hydrologiques en temps réel :

  • Les mesures faites systématiquement à partir de navires dits d’opportunité le long de lignes de navires commerciaux (programme "Ship of opportunity")
  • Les flotteurs qui dérivent en surface au gré des courants (global drifter programme)
  • Le réseau de flotteurs de sub-surface du programme Argo, déployés dans tout l’océan qui sont programmés pour explorer tous les dix jours les 2000 premiers mètres de l’océan et au-delà
  • Les mouillages de longue durée comme ceux des réseaux TAO/ Triton et Pirata qui surveillent les océans Pacifique et Atlantique équatoriaux.

Cette série d'observations a permis des avancées remarquables dans la représentation par des modèles numériques de l’océan. Les données sont systématiquement utilisées par les systèmes mondiaux d’océanographie opérationnelle (e.g. NOAA aux USA, BOM en Australie, Mercator Ocean en France et le service marin de Copernicus qui fédère l’ensemble des systèmes européens).

La France est très présente dans tous les aspects du programme Argo : elle possède, à Brest, l'un des deux centres mondiaux de traitement des données Argo (Coriolis), elle participe au développement de l'instrumentation (NAOS programme Equipex) et à la mise à l'eau des flotteurs. De nombreux laboratoires contribuent à la recherche "océan, climat, biogéochimie" (Insu, Ipsl, Lops, Locean, Ifremer,.. liste loin d'être exhaustive) et à l’océanographie opérationnelle (Mercator Ocean, Service Marin de Copernicus).

Documentation :

Programme Argo

Tout sur Argo

Coriolis

Euro-Argo Eric

Copernicus Marine Service

Mercator Ocean International

Le projet NAOS 
Brochure finale NAOS
Réunion finale NAOS-EQUIPEX
Articles :
Preparing the New Phase of Argo: Scientific Achievements of the NAOS Project
Preparing the New Phase of Argo: Technological Developments on Profiling Floats in the NAOS Project

 

 

Mars 2005 - Dernière mise à jour : Mars 2017

Des progrès énormes ont été réalisés au cours des quatre dernières décennies en particulier grâce à l’avènement de nouveaux outils d’observation, les satellites, qui ont offert une vision globale, continue et homogène des océans. 

La période actuelle, dont cette page s'efforce de rendre compte, met en évidence la transition toujours délicate des missions expérimentales consacrées au progrès des connaissances vers les applications opérationnelles des résultats acquis. Pour avoir une idée de ces applications voir la News 2014 : Un point sur les satellites disponibles pour la météorologie et l'océanographie en 2014 et la News 2016 : Lancement de Jason-3- Le point sur l'altimétrie au 18/01/2016

envisat

Envisat Source ESA et Jason2 Source CNES

Le tableau ci-dessous résume les paramètres permettant de décrire  la surface océanique dans l'ordre où ils ont été observés depuis l'espace (pour plus de détails voir page AVISO Alimetry).
Dans colonne "Mission", on trouve les premiers satellites qui ont embarqué les instruments permettant l'observation des océans.
Certains ne sont plus opérationnels et beaucoup d'autres ont été mis en orbite.
Pour avoir une vision complète en temps réel, consulter la base de donnée du site OSCAR, page instrument : Observing Systems Capability Analysis and Review Tool
Pour accéder aux pages instruments, entrer "le nom de l'instruments" dans la zone "Search for" et la liste des satellites passés, présents ou futur comportant l'intrument s'affiche.

Paramètre mesuré 

Instruments

Mission

Température de surface (plusieurs systèmes complémentaires) 

Radiomètres infrarouge ou micro-onde

AVHRR sur satellites NOAA, ATSR  sur satellites ERS-1 &2, puis sur ENVISAT lancé en 2002 (précision 0,5°K, ou mieux)

À partir d'avril 2014, SLSTR/Sentinel 1A  qui sera suivi par une constellation de satellites Sentinel  qui donneront des images radar de la surface de la Terre, de jour comme de nuit, et quelles que soient les conditions météorologiques. (plus de détails ci-dessous)

Topographie océanique (au moins 2 missions complémentaires) 

Radar Altimètre ET orbitographie de précision 

TOPEX-Poséïdon avec DORIS, complété par l'altimètre d'ERS -1 & 2.

Jason-1 (décembre 2001) & Jason 2 (juin 2008), complétés par l'altimètre d'ENVISAT, puis Jason 3 (janvier 2016).

En avril 2010,SIRAL-2  sur Cryosat 2mission d'abord conçue pour la mesure des variations d'épaisseur de glace aux pôles (continentale et banquise).

Février 2013, Altika/SARAL (altimètre large bande, 500MHz à 35,75 GHz)  

En début 2016, Sentinel 3 A et en 2018, 3 B (altimètre bi-fréquence dans les deux bandes : 12-18 GHz et 4 - 8 GHz) 

À partir de 2020, une mesure altimétrique étendue en surface de part et d'autre de la trace sous satellite, à l'aide du nouveau système spatial SWOT.

En ce qui concerne la topographie dynamique, on dispose aujourd'hui de 8 satellites comportant un altimètre océanique.

Vent de surface (au moins 2 missions complémentaires)  

Diffusiomètre SAR

AMI d'ERS-1&2 + NSCAT/ADEOS1, QuickSCAT (en fin de vie)SEAWIND/ADEOS2 +ASCAT/METOP (METOPA lancé en 2006 et METOPB lancé en 2012) +SCAT/Oceansat depuis 2009

CFOSAT satellite héliosynchrone franco-chinois prévu en 2018 avec un radar diffusiomètre bande Ku et un radar altimétrique SWIM .

Couleur (=indicateur de l'activité biologique...) 

Radiomètre dans le visible & l'IR.

OCTS &, POLDER/ADEOS-1&2 SeaWIFS sur SEASTAR, MERIS sur ENVISAT; OCM sur Oceansat, satellite indien lancé en septembre 2009;

OLCI sur Sentinel 3 A en début 2016 et Sentinel 3B en 2017

Salinité de surface

Radiomètre interférométrique en bande L.

SMOS a été mis en orbite le 2 novembre 2009. Aquarius entièrement dédié à la mesure de salinité de surface, satellite de la NASA qui a été lancé en juin 2011.

 

Ce tableau ne prétend pas être exhaustif. 

Le site internet OSCAR de l'OMM (Organisation Météorologique Mondiale) donne la liste complète de tous les programmes satellites passés, en service et à venir. à vocation météorologique et observation de la Terre. Cette base de donnée unique fournit aussi le détail des programmes et des instruments de mesure.

Ce tableau appelle plusieurs observations :

  • Parmi les quatre premiers paramètres du tableau ci-dessus, observés en routine depuis des années, seuls l'altimètre et le diffusiomètre ne sont pas tributaires d'une faible couverture nuageuse.

  • La topographie dynamique fournie par l'altimètre permet d'accéder à l'information intégrée sur toute  la hauteur de la colonne d'eau pour le rôle de la température et de la salinité (qui déterminent les écarts de densité des masses océaniques). C'est une grandeur intégrale qui joue pour l'océan le même rôle que la pression atmosphérique en météorologie.

  • Depuis fin 2009, la salinité de surface fait désormais partie des mesures réalisées depuis l'espace (SMOS et Aquarius).

  • Certains  radars sur satellites dédiés (TRMM) permettent de mesurer les précipitations. L'océan représentant 70% de la surface de la Terre, ces mesures sont aussi des mesures océaniques! 

  • Jusqu'en 2018 (lancement de CFOSAT), il n'existe aucun instrument embarqué européen dédié à l'étude des champs de vagues. Cependant l'information sur les états de la mer peut être déduite des mesures de 2 autres types d'instrument, les diffusiomètres et les altimètres. Les altimètres ne fournissent que la hauteur significative des vagues (également appelée H 1/3). Les altimètres fournissent aussi la vitesse du vent tandis que les diffusiomètres fournissent à la fois la vitesse du vent et sa direction.

  • Parmi les mesures considérées comme vitales pour les modèles numériques, il y a la topographie (dont la pente par rapport au géoïde dénote un courant océanique). La mise en orbite de Jason 2, longtemps attendue, est venue limiter en juin 2008  le risque d'interruption des mesures altimétriques. En effet, depuis 2007/2008, Jason 1 et ENVISAT avaient tous deux dépassé la durée de vie prévue ; en outre, le successeur de la partie océanique d'ENVISAT, Sentinel 3A n'arrivera qu'au troisième trimestre 2015.

  • La complexité, la turbulence, la diversité du spectre spatio-temporel des phénomènes océaniques ne peuvent être appréhendés qu'à l'aide d'un nombre considérable de mesures; Un échantillonnage insuffisant peut dégrader la qualité des prévisions. L'analyse confirmée par plus de quinze ans d'expérience montre qu'il faut au moins 2 missions (sur des orbites distinctes), pour avoir une richesse de mesures suffisante. Pour les besoins de prédiction et de surveillance dans le domaine côtier, c'est même une constellation de microsatellites qui sera nécessaire. Dans le cas particulier de l'altimétrie océanique, le fait que l'une des 2 missions (TOPEX-Poséïdon et  Jason 1 hier, Jason-2 aujourd'hui) soit une mission dédiée, circulant sur une orbite non héliosynchrone permet d'accéder à une précision de mesure inaccessible aux satellites Multi-Mission en orbite héliosynchrone, tels qu'ERS ou ENVISAT
    A partir de Jason-1 et ENVISAT, cette complémentarité est confortée par l'emploi du système d'orbitographie précise DORIS, (présent sur ces 2 missions, ainsi que sur Sentinel 3 et dès l'origine sur TOPEX-Poséïdon). L'orbitographie précise est aussi assurée par télémétrie laser et GPS.

  • Comme indiqué ci-dessus, à l'exception de TOPEX-Poséïdon Jason-1 & Jason-2, tous les autres systèmes sont mis en orbite héliosynchrone avec des finalités multiples (observations de l'atmosphère, et/ou de la biosphère, et/ou de l'océan).   

  • Mis à part ASCAT/METOP, jusqu'en avril 2014 (lancement de Sentinel1A), les systèmes existants ou prévus, utiles pour la prévision océanique, étaient des systèmes expérimentaux mis en place à des fins de recherche ou de démonstration, que la communauté internationale s'est efforcé de pérenniser avec notamment Jason-3Sentinel 3A et 3B. Alors que l'expérience mondiale GODAE a été concluante, le risque d'interruption des observations, irréparable en ce qui concerne le suivi du niveau de la mer dans les diverses provinces océaniques, semble s'éloigner.  

  • Lancé en 2005, Copernicus (initialement appelé GMES) est un vaste projet de surveillance de l’environnement à l’échelle du globe mené par l’Union Européenne et développé en partenariat avec l’ESA et ses États membres. Pour sa composante spatiale, le programme s’appuie sur une constellation de satellites Sentinel, mais aussi sur des satellites nationaux comme ceux du CNES : Pléiades, SPOT, Jason-2, Jason-3 ou encore Mégha-Tropiques.

    Planning de lancement des satellites Sentinel dédiés au programme Copernicus :

    • Sentinel-1 : imagerie radar tout temps, jour et nuit, observation du sol et des océans. Lancement du 1er satellite,Sentinel-1A, le 3 avril 2014.

    • Lancement du 2e satellite Sentinel-1B, 24 avril 2016.

    • Sentinel-2 : imagerie optique haute résolution, observation des sols (utilisation des sols, végétation, zones côtières, fleuves, etc.). Lancement du 1er satellite Sentinel-2A, 23 juin 2015. Sentinel 2B lancé le 7 mars 2017.

    • Sentinel-3 : imagerie optique, observation globale des océans et terres émergées. Lancement du 1er satellite, Sentinel-3A, prévu 3e trimestre 2015, lancé le 4 février 2016.

    • Sentinel-3B, prévu en 2017.

    • Sentinel-4 : embarqué comme charge utile sur un satellite Météosat de 3e génération (MTG-S), données sur la composition de l'atmosphère. Lancement en 2021.

    • Sentinel-5 : embarqué comme charge utile sur un satellite de 2e génération (EPS-SG), données sur la composition de l'atmosphère. Lancement en 2021.

Les données issues des mesures spatiales sont transmises en temps réel aux centres d'exploitation qui les rediffusent aux laboratoires et centres opérationnels. =>Plus de détails sur Copernicus.

Pour la partie observation spatiale de l'océan, plusieurs organismes mettent à la disposition des utilisateurs les données en temps quasi réel, en particulier pour le Marine "Copernicus Marine Environment Monitoring Service" de Copernicus opéré par Mercator Ocean.  Il s'agit du Cnes via AVISO, du SAF Océan et glaces de mer, sans oublier le CERSAT, centre de traitement de données de l'Ifremer.

Exemple de cartographie de l'océan 

 

Topographie dynamique absolue - 2 février 2009 - Source Aviso

Température de surface 4 février 2009 - Source Mercator

Ce volet “observations spatiales” s’appuie depuis décembre 2001 sur le satellite dédié Jason1, puis Jason 2, successeurs de TOPEX-Poséïdon. Ces trois satellites, conçus exclusivement pour restituer le relief de la surface océaniquemesurent avec une précision de l’ordre du centimètre le niveau local des mers, paramètre très sensible aux fluctuations de la circulation océanique, et des transports d'énergie et de matière associés. 

Pour mieux comprendre l'acharnement mis dans l'amélioration des mesures altimétriques, il faut savoir ce que représente un centimètre de dénivellation : il peut dénoter un courant moyen de 1 à 7 millions de tonnes par seconde (selon la latitude). Comme l'expérience l'a bien montré, dans le cas du phénomène El Niño 97, le réalisme des prévisions est totalement tributaire de la précision des mesures injectées dans le modèle (ainsi, bien entendu, que du degré de sophistication de celui-ci).

TOPEX-Poséïdon, Jason 1 ont été le fruit d’une coopération exemplaire entre le CNES et la NASA débutée il y a plus de 20 ans. Grâce à la durée de vie exceptionnelle de Topex Poséidon, ces deux "arpenteurs des océans" ont pu voler côte a côte avec un écart de 500 Km environ, de décembre 2001 à août 2002. 

Ce "vol en formation", qui préfigurait d'ailleurs les "flottilles de satellites spécialisés" qui se mettent en place, a permis un "inter-étalonnage", une comparaison sans précédent de 2 systèmes de haute précision, conçus et lancés à 9 ans d'intervalle ! De même Jason-1, Jason-2 ont volé en formation serrée depuis juillet 2008, et ce jusqu'en février 2009. Jason-3 a été mis en orbite en 2008 et assure la continuité des mesures.

Les mesures sont utilisées par plusieurs centaines d'équipes scientifiques de par le monde, en synergie avec celles fournies par d’autres instruments (altimètres, diffusiomètres, radiomètres des satellites ERS, ADEOS, NOAA...).

Les mesures spatiales, les mesures In-Situ, et les Modèles numériques qu'elles alimentent, constituent les trois piliers de "l'approche intégrée", fondement de "l'Océanographie Opérationnelle".

Les mesures In Situ donnent accès aux profils de température et de salinité en fonction de la profondeur. Combinées à la topographie mesurée par satellite, ces deux grandeurs fondamentales de l'océanographie physique permettent une description tridimensionnelle de l'état de l'océan.

A titre indicatif, les satellites réalisent 50 000 mesures par jour et par altimètre, tandis que l'on dispose de quelques centaines de mesures In Situ chaque jour. 

L'ensemble de ces mesures peut paraître redondant. Compte tenu de l'ampleur et de la complexité de la tache, il s'agit en réalité d'un minimum tout juste suffisant ! En outre, cet ensemble permet d'estimer en permanence la cohérence des diverses mesures et de contrôler les risques d'erreur ou de dérive instrumentale ("validation croisée" et/ou inter étalonnage direct).


Voir aussi :

Sur ce site :

Lancement de Jason-3- Le point sur l'altimétrie au 18/01/2016

Un point sur les satellites disponibles pour la météorologie et l'océanographie en 2014

Année 2012 : de nouveaux satellites disponibles pour la météorologie et l'océanographie-Perspectives 2013 et au-delà.

En bonne posture pour observer la Terre sur le long terme 2010

SMOS : "Soil Moisture and Ocean Salinity" - Humidité des sols et salinité des océans 2009.

Quelles sont les variations actuelles du niveau de la mer ? Observations et causes - 2012.

Sur internet

Aviso Users News Letter de juillet 2016 : panorama des diverses missions d'altimétrie spatiale, passees, presentes, et futures (SARAL, Jason , Hy2A, Cryosat 2, CFOSAT etc.

Site Aviso, définitions

Bibliothèque des projets Cnes

ESA - Observation de la Terre 

NASA - Topographie de surface

Quelques définitions (extraites de la page Glossaire)

Hauteur (topographie) dynamique

Élévation locale du niveau de l’océan par rapport à une immersion de référence où le courant géostrophique est supposé nul (ou faible). Le plan horizontal à cette immersion est alors considéré comme une surface isobare (l’absence de gradient horizontal de pression implique un courant nul). Entre deux stations hydrologiques donnant la répartition de la densité jusqu’à cette immersion, la station présentant la densité moyenne la plus faible (sur toute cette profondeur) aura en surface une hauteur dynamique plus grande. À cette station, la surface de la mer se trouve à une altitude plus grande que celle de la seconde. Ainsi les thermographies satellitaires permettent de définir aisément la topographie dynamique des tourbillons océaniques. Un tourbillon «froid» (températures centrales plus basses que sur les bords), a les eaux les plus denses au centre. Ainsi on a un «creux» de la topographie (équivalent à un centre de basses pressions atmosphérique) et le tourbillon est cyclonique. À l’inverse, un tourbillon «chaud» est anticyclonique car il est caractérisé par une «bosse» de cette topographie (centre de hautes pressions). 

La hauteur dynamique est une "grandeur intégrale", représentative de toute la colonne d'eau: une carte de ce paramètre océanique, (c a d la "topographie dynamique"), permet de déduire les courants géostrophiques, (comme on le fait, pour les champs de vents, à partir des cartes de pressions atmosphériques). Les satellites altimétriques exploitent cette particularité pour observer en quelque sorte "sous la surface"... ce qui explique l'importance de cette technique d'observation.

Hauteur significative des vagues

La hauteur significative est une quantité statistique utilisée pour caractériser l'état de la mer. Elle est souvent abrégée en Hs ou H1/3 (ou SWH : Significant Wave Height en anglais). Elle représente la moyenne des hauteurs (mesurées entre crête et creux) du tiers des plus fortes vagues.

Chlorinité, Salinité

Teneur en chlore de l’eau de mer. On a longtemps évalué la salinité de l’eau de mer en mesurant, par des méthodes chimiques, sa chlorinité et en faisant l’hypothèse, vérifiée avec une bonne précision, d’un rapport constant entre salinité et chlorinité. Les chlorures représentent 88,7 % de la salinité, les sulfates 10,8 % et les autres sels 0,5 % ; cette constance dans les rapports est dite loi de Dittmar, chimiste anglais qui analysa les échantillons d’eau collectés par le Challenger. Cette constance est à rapprocher de celle du rapport oxygène/azote de l’atmosphère. Ainsi la salinité est la masse de sels contenus dans un kilogramme d’eau de mer ; elle est, en moyenne pour l’ensemble des océans et mers, de 35. 
La mesure de la salinité s’effectue maintenant par conductivité. Aussi, les nouvelles conventions internationales recommandent l’UPS (unité pratique de salinité, PSU en anglais) Certains auteurs l’expriment en UPS (unité pratique de salinité) à peu près égale à 1 mg de sels dissous par gramme d’eau de mer. Il est ainsi conseillé de ne plus la faire suivre d’unités ; on écrira donc une salinité de 35,25.

Géoïde

Forme qu’adopterait la surface de la mer en l’absence de toute perturbation (marée, vent, courant, etc.). Le géoïde reflète la gravité de la Terre, avec des irrégularités sur des grandes distances (cent mètres sur des milliers de kilomètres) dues aux inhomogénéités de l’intérieur de la planète (croûte, manteau, noyau). D’autres irrégularités, moins hautes (un mètre) et s’étendant sur de plus petites distances reflètent le relief des fonds océaniques.

 Mars 2005 - Mis a jour mars 2012

I - Les modèles, particularité de l'océan

II - La prévision, où en est-on?

III - Les prévisions océaniques, un expérience mondiale

I - Les modèles, particularité de l'océan

L'Océan: étendue d'eau incommensurable"...., cette affirmation risque d'être, au moins partiellement, remise en cause par les progrès récents de l'océanographie.

Il est commun d'observer que les techniques d'échantillonnage, de mesure, et de simulation numérique ont connu des progrès considérables au cours des dernières décennies. 

Origine Mercator PSY3

Dans le cas des phénomènes turbulents créés dans l'océan par le vent, la rotation terrestre, et le chauffage solaire, les océanographes, les physiciens, et les ingénieurs, ont su conjuguer ces avancées (entre elles, et avec celles des moyens de calcul), de façon à produire des descriptions réalistes du milieu océanique. C'est en cela que l'océan devient un peu moins incommensurable.

À l'image des simulations de l'état de l'atmosphère produites plusieurs fois par jour par les Services Météo, les modèles numériques d'analyse et de prévision de l'état de l'océan comportent désormais des millions de "points" dans les 3 dimensions.

Dans le cas de l'océan, tout comme de l'atmosphère, ces modèles mathématiques décrivent le mouvement des fluides (eau, air) à la surface de la terre, ainsi que les transports de chaleur et de matière qui leur sont associés. Chaque processus physique est traduit en équations mathématiques de façon à en calculer les effets sur les paramètres océaniques, vitesse, température et salinité, en tout lieu de la zone modélisée et au cours du temps. 

Comme pour la prévision numérique du temps, la simulation réaliste des phénomènes turbulents présents au sein du fluide océanique se fait avec une confiance qui dépend de la connaissance du spectre (spatio-temporel) des erreurs de mesure.

Pour la prévision météo, la "limite du chaos", liée à la description forcement incomplète des conditions initiales (le fameux effet "papillon" décrit par Lorenz, dans un article célèbre), est d'un peu plus de 10 jours: les spécialistes savent que, pour l'instant, on s'approche de cette limite selon le rythme de "1 jour tous les 5 ans". Bien entendu, ils n'escomptent pas que cela dure éternellement !

De même, pour l'océan, cette limite de prévisibilité, (liée à ce qu'on pourrait appeler "l'effet mérou"...), est de quelques semaines, tandis que le besoin de rafraîchir le jeu de mesures utilisé pour guider le modèle numérique est de quelques jours, (au lieu de quelques heures pour l'atmosphère). 

À titre d'illustration, voir ces deux animations montrant la variation de paramètres physiques de l'océan, la température obtenue à partir de modèles exploitant les données d'altimétrie spatiale et de mesures in-situ.

Mercator Océan :

Cette animation ci-dessous "Respiration de l'océan" montre la variation de température de surface de l'océan durant deux semaines de l'été 2010. Ces données sont le résultat des modèles Mercator qui exploitent les mesures à partir de l'espace et les données in-situ. Grâce à la fréquence horaire de ce modèle, on voit apparaitre deux cycles : le mouvement de marée dans l'Atlantique et le cycle diurne. 

 

 

NASA/Goddard space flight center

Cette animation montre les courants de surface de l'océan mondial pendant la période de juin 2005 à décembre 2007.

Ces résultats de circulation océanique sont issus du modèle ECCO2 qui exploite les données satellite et les données de mesures in-situ. Ce modèle a été développé par le MIT et le JPL.

 

 

 II - La prévision, où en est-on?

Dans un exercice de prévision de l'état et de la dynamique des masses d'eau (la circulation océanique), le modèle se nourrit des observations satellitaires et in situ (on dit qu'il les assimile), et peut ainsi rester plus longtemps sur la "bonne trajectoire", (dans "l'espace dual" où l'on trouve, pour certaines formes de chaos, des "attracteurs étranges"...). Dans ce cas favorable, la description de l'état tridimensionnel de l'océan à échéance de quelques semaines, (le "produit de base" de l'océanographie opérationnelle), sera de bonne qualité, en dépit du phénomène du chaos...

"Observer, comprendre, prévoir"

Parmi les mesures considérées comme vitales pour les modèles numériques il y a la topographie (altimètre), les mesures in situ au sein des masses d'eau océaniques et les forçages atmosphériques déduits des modèles météo eux aussi alimentés en mesures spatiales,( par exemple celle des diffusiomètres). La température et la salinité de surface sont aussi des valeurs utiles mais ne suffisent pas à contraindre un modèle à demeurer réaliste.

Les prévisions océaniques sont maintenant une réalité.

Voici un exemple de cartes fournies dans les bulletins prévisionnels Mercator

                      Courant de surface                      Salinité de surface                         Température de surface

La "chaîne de valeurs ajoutées" ou de "services aux activités maritimes" que l'on peut imaginer à partir de cette "matière première", ouvre des perspectives considérables, qu'il s'agisse de pertes évitées ou de gains de productivité. On peut d'ailleurs présumer qu'une grande partie de cet enjeu socio-économique reste à identifier. Pour s'en convaincre, il faut se souvenir que, lors des premières tentatives de prévision météorologique (cf. le rapport de Le Verrier après un désastre naval, en 1854, pendant la guerre de Crimée), l'aviation civile n'existait pas: il était difficile d'imaginer l'importance qu'allait prendre, pour ce seul secteur, la prévision du temps. Comment ne pas songer aussi au rôle de prévisionnistes comme Walter Munk pour annoncer l'accalmie du 6 juin 1944 sur les cotes normandes ?

III - Les prévisions océaniques, une expérience mondiale  

Tout au long de ce texte, un parallèle est fait avec les modèles et prévisions météorologiques. Ce parallèle est aussi pertinent au niveau de l'organisation que de la  prévision. 

Dans les années 90, on pouvait faire le double constat suivant :

D'une part, nombre d'équipes de recherche dans le monde, étudiaient la modélisation numérique de l'océan. Les équipes collaboraient bien entre elles mais aucune n'était capable de fournir régulièrement des informations détaillées sur l’état des océans,

D'autre part, un âge d'or de l'observation spatiale des océans était prévisible, compte tenu des plans publiés par les agences spatiales. 

En 1997, Neville Smith du Bureau de la Météorologie Australien et Michel Lefebvre, ancien responsable scientifique du CNES (Centre National d'Études Spatiales) proposèrent de suivre l'expérience réussie de la Météorologie.

Leur idée était de montrer clairement la faisabilité et la valeur d’un système d’observation océanique à l’échelle mondiale ainsi que l’intérêt de convaincre des gouvernements de financer la pérennisation de ces systèmes expérimentaux. C'est ainsi qu'après de multiples efforts de persuasion, l'expérience mondiale GODAE (Global Ocean Data Assimilation Experiment) est née.

L'idée a été reprise par l'OOPC (Ocean Observation Panel for Climate) en utilisant le précédent qu'avait été en 1979, la première expérience globale du GARP (Global Atmospheric Research Program).

L’OOPC, soutenu par les principaux acteurs du domaine [COI (Commission Océanographique Intergouvernementale), OMM (Organisation  Météorologique Mondiale) et CEOS (Comitee on Earth Observation Satellite) a lancé le projet GODAE, destiné à tirer parti du système global d’observation que commençaient à mettre en place les agences spatiales et les institutions océanographiques.

En effet, cet "âge d'or" des observations permettaient d'alimenter simultanément différents modèles numériques et aussi de tester par inter comparaison leurs mérites respectifs.

En se référant uniquement aux satellites, les années 2003-2005 semblaient le moment idéal pour effectuer une démonstration de faisabilité. Cela a bien été le cas.

Cette initiative est soutenue par la COI, l'OMM, les Agences Spatiales de différents pays ainsi que d'autres organismes. De nombreux laboratoires européens, américains, japonais, australiens participent à cette expérience mondiale. L'année 2005 a vu la fin de la phase de faisabilité.

À terme, GODAE devrait évoluer vers un "système mondial d’observations, de communications, de modélisations et d’assimilation, qui sera capable de fournir régulièrement des informations détaillées sur l’état des océans, sous une forme propre à promouvoir et à engendrer une vaste utilisation et une disponibilité permanente de cette ressource pour le plus grand profit des utilisateurs.
L’objectif de GODAE est de transformer ce concept en réalité, en faisant du suivi et des prévisions océaniques une activité de routine à l’image des prévisions météorologiques. GODAE fournira, à l’échelle mondiale, des informations océaniques précieuses pour le suivi des changements climatiques, le trafic maritime et les services de pêche."

Le grand succès de GODAE aura été de permettre des avancées scientifiques considérables et aussi de consolider le travail au plan institutionnel déjà entrepris dans le cadre de GOOS (Global Ocean Observing System) : la répartition des tâches et la bonne façon de s'y prendre, toutes réflexions qui ont débouché sur des initiatives comme GEOSS (Global Earth Observation System of Systems) et GMES (Global Monotoring for Environment and Security) qui inclue depuis 2009 le programme My Ocean. Ce programme est devenu  Copernicus, The european earth observation progam

Mars 2005
Mise à jour Bruno Voituriez - Décembre 2016

I - Naissance de l’océanographie opérationnelle

L’océanographie opérationnelle se propose d’établir un système d’observations et de simulations numériques pour suivre et prévoir en continu le devenir de l’océan, comme la météorologie le fait quotidiennement pour la prévision du temps à l’attention du grand public et des professionnels. L’observation et la simulation de l’océan en temps réel rendent possible la livraison régulière de bulletins océaniques comparables aux bulletins météorologiques mais à des échéances plus longues, de l’ordre de quelques jours à quelques semaines.

L’océanographie opérationnelle repose sur trois piliers :

  • Des mesures in situ de l’océan dans ses trois dimensions, réalisées par des navires ou des systèmes autonomes fixes ou dérivants,
  • Des mesures, à partir de plates-formes spatiales, de la topographie dynamique de la surface, mais aussi de la température de cette surface, du vent, de la concentration en chlorophylle et d’autres paramètres qui doivent être observés en continu dans l’espace et le temps,
  • Des simulations de l’océan par des modèles numériques capables d’assimiler ces données pour obtenir l’image la plus réaliste possible de l’état de l’océan et prévoir son évolution.

Pour mettre en œuvre un tel projet il fallait donc que l’on disposât en continu des moyens de mesure de la totalité de l’océan dans ses trois dimensions. Ce sont les moyens spatiaux qui l’ont rendu possible.
Les systèmes de localisation et de transmission des données depuis l’espace, comme Argos, ont permis de déployer dans l’océan des systèmes d’observations fixes ou dérivants munis de capteurs mesurant température et salinité.
Ainsi, dans le cadre du programme ARGO, un réseau de près de 4 000 flotteurs dérivants mesurent température et salinité jusqu’à 2 000 mètres dans tout l’ océan et transmettent par satellite les données recueillies.

La création en 2014 d'une structure légale européenne (European Research Infrastructure Consortium, ERIC) pour l'observation in situ des océans incluant ARGO est une première. C'est une étape majeure pour optimiser, pérenniser et renforcer les contributions européennes au réseau Argo. C’est l’Ifremer à Brest qui accueille cette structure pour une durée d’au moins cinq ans. Ces flotteurs ne sont pas encore dotés de capteurs biogéochimiques opérationnels mais des expérimentations sont en cours (en 2016) notamment à travers le projet français NAOS.

Les satellites permettent les mesures de paramètres directement depuis l’espace (température, salinité, chlorophylle) et particulièrement la topographie de surface (altimétrie) qui donne accès aux courants. C’est le lancement du satellite altimétrique Topex/Poseidon en 1992 qui a donné le signal du départ de l’océanographie opérationnelle.

En France l’aventure commence avec la création du groupe Mercator–Océan en 1995 qui publiera son premier bulletin de prévision sur l’Atlantique nord le 17 janvier 2001 et sur la totalité de l’océan le 14 octobre 2005.
De leur côté l’Union Européenne et l’Agence Spatiale Européenne ont mis en place le programme GMES ( Global Monitoring for Environment and Security) destiné à rationaliser les mesures spatiales et in situ relatives à l'environnement et à la sécurité, afin de disposer d'informations et de services fiables chaque fois que cela est nécessaire. La Commission Européenne confiera à Mercator-Océan en 2009 le soin de coordonner, via le projet expérimental MyOcean, le volet maritime de GMES : «Marine Core Service» . Le programme GMES deviendra COPERNICUS en 2013 pour passer en phase véritablement opérationnelle.

Le 11 novembre 2014 la Commission Européenne et Mercator-Océan ont signé un accord qui délègue à Mercator-Océan la mise en place du service européen Copernicus de surveillance des océans qui devient «Copernicus Marine Environnement Monitoring Service». Ce service opérationnel est officiellement en place depuis avril 2015.

L’océanographie opérationnelle est ainsi lancée à l’échelle européenne. Le contrat de délégation à Mercator-Ocean court jusqu’en 2021.

2 - Produits et applications

Le Copernicus Marine Environment Monitoring Service (CMEMS) a pour vocation de fournir régulièrement et gratuitement des informations sur l’état, la variabilité et la dynamique de l’océan et des écosystèmes marins pour l’océan global et les mers régionales européennes (Baltique, Arctique, Méditerranée, Mer Noire, Mer du Nord, Golfe de Gascogne, Mer d’Irlande etc).
Cela inclut les observations in situ et spatiales, les analyses, les ré-analyses et la prévision quand c’est possible.

Quatre domaines sont privilégiés :

  • la sécurité en mer (navigation, plateformes d’exploitation….),
  • l’environnement marin et côtier,
  • les ressources marines et la pêche,
  • la météorologie et la prévision climatique

Le catalogue de produits océaniques du service englobe :

  • des produits dérivés d’observation spatiale et in situ,
  • des prévisions et analyses en temps réel
  • et des séries temporelles sur plusieurs dizaines d’années dans le passé pour les ré-analyses.

Les paramètres pris en compte sont les suivants :

  • paramètres physiques (température, salinité, courants, glaces de mer, niveau de la mer, vent) ;
  • les paramètres chimiques (fer, nitrates, phosphates, silicates , oxygène) ;
  • les paramètres biologiques, concentration en chlorophylle et phytoplankton, production primaire.

Mercator Ocean alimente CMEMS avec les systèmes numériques et les modèles globaux (sur tous les océans du globe) qu’il a développés et qui sont capables de décrire l’état physique et biogéochimique de l’océan à tout instant, en surface comme en profondeur, à l’échelle du globe ou d’une région du globe.
On considère d’une part les paramètres physiques qui aboutissent à une modélisation et une prévision de la dynamique des océans :

  • température,
  • salinité,
  • courants,
  • topographie dynamique de la surface des océans.

avec deux échelles 1/12ème de degré pour l’océan global et 1/36ème de degré pour les mers européennes de Gibraltar à la mer d’Irlande et au nord de la Grande Bretagne.

D’autre part les paramètres biogéochimiques qui conditionnent la production biologique dont la prévision s’appuie sur la modélisation physique en y ajoutant un degré de complexité supplémentaire : les processus biologiques qui gèrent la chaîne alimentaire. Il s’agit en l’état des concentrations en nitrate , oxygène et chlorophylle sur l’océan global avec une résolution au 1/4 de degré.

Ce service est destiné à de nombreux usages, qu’ils soient de nature commerciale, scientifique, pour des missions de service public ou tout simplement pour les citoyens curieux de l’état de leurs océans.
On citera par exemple :

  • les politiques et règlements de l’Union européenne comme la directive cadre «stratégie pour le milieu marin»,
  • la lutte contre la pollution marine,
  • la protection de la biodiversité,
  • la sécurité et le routage maritimes,
  • l’exploitation durable de l’environnement côtier et des ressources marines,
  • les énergies marines,
  • la surveillance du climat,
  • la prévision des cyclones…

Le Copernicus Marine Service propose une large gamme de produits océanographiques : des produits d’observation (satellite et in situ) et des produits issus de modélisation numérique. Ces différents produits, répertoriés dans un catalogue unique, couvrent l’océan global et les 6 bassins européens : Arctique, Baltique, Atlantique Nord-Est partie nord et partie sud, Méditerranée et Mer Noire. Ces produits informent sur l’état physique et biogéochimique des océans. Ils couvrent de longues périodes temporelles remontant au début des années 1990 (parfois avant), le temps réel pour les produits d’observation : analyse et prévision à quelques jours pour les produits issus de modèles.

Ces produits sont conçus par différents producteurs européens et distribués par le Copernicus Marine Service via un catalogue en ligne. Mercator Océan fournit les produits de modélisation numérique de l’océan global qui figurent dans ce catalogue. Le Copernicus Marine Service est ouvert et gratuit dans le respect des conditions d’usage.

III - Exemples

Voici des exemples de prévision pour l’ Atlantique nord et la méditerranée produits par Mercator Océan et CMEMS

1 - Physique : prévision à 9 jours dans l’Atlantique nord de la température, de la topographie et du courant

Figure 1 : Prévision à 9 jours de la température de surface de l’Atlantique Nord le 30 novembre 2016 . Prévision effectuée le 21 novembre 2016 (Mercator-Ocean/CMEMS 1/12ème de degré)

Figure 2 : Prévision à 9 jours de la topographie de surface de l’ Atlantique Nord le 30 novembre 2016. Prévision effectuée le 21 novembre 2016 (Mercator-Ocean/CMEMS 1/12ème de degré)

Figure 3 : Prévision à 9 jours des courants de surface dans l’ Atlantique Nord le 30 novembre 2016. Prévision effectuée le 21 novembre 2016 (Mercator-Ocean/CMEMS 1/12ème de degré)

2 - Bogéochimie : analyse et prévision à 8 jours de la chlorophylle , et du phosphate en médierrannée

Figure 4 : Concentration en chlorophylle de la surface en méditerranée le 30 novembre 2016 (CMEMS)

Figure 5 : Prévision faite à 8 jours de la concentration en chlorophylle de surface (8 décembre 2016) à partir de la situation du 30 novembre (figure 4) (CMEMS)

Figure 6 : Concentration en phosphate de le surface de la méditerranée le 30 novembre 2016 (CMEMS)

Figure 7 : Prévision faite à 8 jours de la concentration en phosphate (8 décembre 2016) à partir de la situation du 30 novembre (fig 6) (CMEMS)

 


Autres sites à consulter :

Aviso

Ifremer

NOAA

Voir aussi : Vidéo ESA/CNES/Ariane Espace sur l'Observation des Océans

 

Observation des océans
Une grande diversité de moyens : satellites, bouées dérivantes, navires, avions,... Crédit : https://www.odatis-ocean.fr/
Altimétrie spatiale
Les satellites altimétriques sillonnent les océans et mesurent avec une précision remarquable la hauteur des océans et son évolution.
Réseau Argo
Réseau international de plus de 3500 flotteurs profilants qui mesurent en temps réel la température et la salinité des océans de la surface à 4 000 m de profondeur. Pour en savoir plus, cliquer sur l'image.
Le niveau de la mer monte..
Grâce aux missions altimétriques des satellites Topex-Poseidon, Jason-1,2,3, puis à compter de 2020 Sentinel-6A, le niveau moyen global des océans est connu de façon continue depuis 1993. Pour en savoir plus, cliquer sur l'image.
Mercator Océan Prévisions
Exemple de bulletin physique journalier du 27/06/2020 (Prévisions à 9 jours) - Domaine complet - Température - 0 m. Pour en savoir plus, cliquer sur l'image.
Mercator Océan Prévisions
Exemple de bulletin biogéochimique hebdomadaire du 27/06/2020 (Prévisions à 3 jours) - Domaine complet - Concentration en chlorophylle - 0. Pour en savoir plus, cliquer sur l'image.

 

L'Océan "mondial" ou Océan "global" se compose des cinq océans : Atlantique, Pacifique, Indien, Arctique et Austral qui communiquent tous entre eux.

Sa superficie est de 360 millions de km2, soit 70% de la surface du globe terrestre et 650 fois celle de la France continentale.L'Océan "mondial" ou Océan "global" se compose des cinq océans : Atlantique, Pacifique, Indien, Arctique et Austral qui communiquent tous entre eux. .

Sa masse est de 1,4.1018 tonnes, soit 97% de l’eau de notre biosphère et près de 300 fois plus que la masse de l’air de l’atmosphère.

L'Océan échange en permanence avec l'Atmosphère :

  • échange d'énergie, transfert de chaleur entre l'équateur et les pôles
  • échanges gazeux, notamment le gaz carbonique et l'oxygène

L'océan est aussi un réservoir d'énergie. Il fournit des sources d'énergie renouvelable, les courants marins, la houle, l'énergie thermique des mers, l'éolien.

C'est le plus vaste écosystème de la planète. il contient une flore et une faune très riches qui nous fournit des ressources, matières premières, nourritures, médicaments...

L'océan joue un rôle majeur pour l'avenir de l'humanité : évolution du climat, énergie, biodiversité.

L'homme s'intéresse à l'océan depuis plusieurs siècles, depuis quelques décennies la recherche scientifique et technologique a fait des progrès considérables dans les domaines de l'observation, de la modélisation et de la prévision. Et pourtant, c'est encore insuffisant.

D'où la nécessité d'intensifier les recherches afin de "observer, comprendre, prévoir".

Ce dossier présente l'état actuel des connaissances et les recherches et aplications en cours.

Décembre 2016

Jacques Merle - Décembre 2016

I - Le rôle de l'océan dans le climat

Le système climatique est une machine qui convertit et distribue l’énergie solaire que la Terre absorbe soit 240 W/m2 environ.
C’est une machine complexe aux nombreux acteurs :

  • les continents,
  • l’océan,
  • l’atmosphère,
  • la cryosphère,
  • et la biosphère

qui interagissent en échangeant de l’énergie.

Tous ces compartiments évoluent en permanence avec des vitesses qui leur sont propres et qui sont très différentes. Toute variation, toute perturbation de l’un d’entre eux retentit sur les autres qui réagissent à leur propre rythme. Le système climatique court en permanence après un équilibre qu’il n'atteint partiquement jamais. Il varie sans cesse à toutes les échelles de temps. L’essentiel est, pour l’homme, qu’il soit suffisamment stable pour rester dans des amplitudes et vitesse de variations supportables. Ce que l’accroissement rapide des gaz à effet de serre est en train de compromettre.

L’océan et l’atmosphère sont les principaux acteurs du système climatique : ce sont les deux fluides qui assurent le transport et la distribution de l’énergie thermique sur la Terre.
En permanence en contact l’un avec l’autre c’est entre eux que les échanges d’énergie sont les plus importants. Le couple qu’ils forment gère le climat de la planète et ses variations. Mais ils évoluent à des échelles de temps très différentes.
L’atmosphère n’a guère de mémoire : à un moment donné l’état de l’ atmosphère est indépendant de ce qu’il était trois semaines auparavant.
L’océan présente un temps d’évolution beaucoup plus long et a donc une bien meilleure mémoire : c’est de fait lui qui impose le rythme des variations climatiques.

Les Océans possèdent trois propriétés essentielles dans leur relation physique avec le climat :

  • capacité de stockage,
  • échange avec l’atmosphère
  • et transport par les courants.

Ces trois fonctions ne sont pas indépendantes mais liées par des lois de conservation :

Échange = Stockage + transport,

Ce qui signifie que le bilan net de l’échange de masse et d’énergie en un point de la surface air-mer se répartie en un stockage local et un transport à l’extérieur.

Cette relation s’applique à tous les constituants de l’océan :

  • masse (eau),
  • énergie (chaleur),
  • corps chimiques divers incluant le CO2.

Mais ces fonctions sont encore très mal évaluées et nécessitent des observations nombreuses et continues pour les prendre en compte dans la dynamique de l’atmosphère et du climat. D’où la nécessité de systèmes d’observations opérationnels (voir dans ce qui suit).

Stockage

L’océan est avant tout un gigantesque réservoir, d’eau, de corps chimiques divers, dont le carbone, et de chaleur.
L’océan stocke 97% de l’eau contenue à la surface de la Terre. Les 3% restant alimentent les fleuves, les lacs, les glaciers et les nappes souterraines.
L’eau de l’atmosphère, par comparaison, avec ses 0,001%, représenterait une couche de seulement 0,3 centimètre d’eau si elle était répartie sur la surface de la Terre. L’océan est ainsi le réservoir où s’alimente le cycle de l’eau.
L’océan est aussi le principal réservoir de carbone dans le cycle planétaire de cet élément essentiel à la vie et maintenant lourdement impliqué dans l’évolution du climat. Si l’atmosphère contient environ 800 Giga tonne de carbone, l’océan en contient 40 000 Gt, soit cinquante fois plus. Par ailleurs la biosphère continentale (forêts, prairies, animaux…) en contient également 800 Gt, ce qui fait de l’océan le milieu à la fois le plus central et le plus déterminant dans la dynamique de cet élément.

Ce gigantesque réservoir océanique de Carbone est en communication directe avec les autres réservoirs actifs que sont l’atmosphère et la biosphère continentale. Mais il est aussi en relation avec les réservoirs inertes que sont les sédiments accumulés dans les fonds océaniques qui deviendront, à l’échelle de millions d’années, des formations géologiques carbonatées.

Enfin l’océan est le milieu qui stocke le plus d’énergie solaire sous forme de chaleur. On estime que 70% du flux radiatif solaire entrant dans le système Terre (atmosphère, océan, continents,…) est absorbé et stocké dans les couches supérieures des régions océaniques tropicales. Cette grande capacité de stockage de l’énergie thermique de l’océan est liée à sa masse (300 fois celle de l’atmosphère) et à la chaleur spécifique de l’eau de mer (4 fois plus élevée que celle de l’air) qui conduit à une capacité thermique globale de l’océan plus de 1 200 fois supérieure à celle de l’atmosphère. C’est l’océan, qui en restituant une grande partie de cette énergie à l’atmosphère, principalement par le transfert de chaleur latente associé à l’évaporation, lui fournit l’essentiel de l’énergie nécessaire à sa dynamique.

Échanges avec l’atmosphère

Le plancher de l'atmosphère est en contact pour environ 71 % de sa surface avec l'océan et échange avec lui en permanence les constituants précités :

  • eau,
  • chaleur, et donc énergie,
  • mais aussi de la quantité de mouvement entre les vents et les courants qui est aussi une énergie,
  • ainsi que différents corps chimiques dont le CO2 qui joue un rôle très important dans le climat.

En ce qui concerne l’eau, l’océan restitue en moyenne par évaporation (E) un mètre d’eau par an à l’atmosphère qui est ainsi nourrie en vapeur d’eau ; c’est une quantité de laquelle il faut retrancher 80 cm de précipitations (P) locales pour aboutir à un bilan net :

E-P négatif pour l’océan, d’environ 20 cm que l’atmosphère redistribue par précipitation sur les continents et qui retourne ainsi dans l’océan par les fleuves.

Le bilan net de l’échange d’énergie à la surface air-mer, qui s’exprime en Watts par mètres carrés (W.m-2), est très variable d’un point à l’autre de l’océan mondial. Il varie surtout en fonction de la latitude avec un puits de chaleur océanique dans les tropiques (en moyenne de 75 à 100 W.m-2), et au contraire une perte dans les hautes latitudes.

 

L’échange de chaleur moyen entre l’océan et l’atmosphère à la surface en W.m-2 (Fieux 2010 – ENSTA).

Les échanges thermiques entre l’océan et l’atmosphère sont les plus intenses au voisinage des grands courants océaniques de bords ouest comme le Gulf Stream, courant chaud arrivant dans des régions de hautes latitudes, telles que la mer du Labrador, où l’air est froid et sec, restitue une énorme quantité de chaleur à l’atmosphère (entre 250 et 300 W.m-2 ), principalement sous forme de chaleur latente associée à une intense évaporation. La variabilité dans le temps de ces échanges est un élément déterminant de la variabilité climatique.
Le bilan net d’énergie échangé à l’interface air-mer est la somme algébrique de quatre termes :

  • le flux radiatif solaire incident qui apporte en moyenne 170 W.m-2 dont -10 W.m-2 sont réfléchi à la surface,
  • le flux radiatif rétro-diffusé dans l’infrarouge -60 W.m-2,
  • la chaleur latente d’évaporation -80 W.m-2,
  • la chaleur sensible - 20 W.m-2.

C’est l’océan qui fournit à l’atmosphère l’essentiel de l’énergie (~50%) qui la met en mouvement.

L’océan échange également avec l’atmosphère d’énormes quantités de CO2. L’océan régule le CO2atmosphérique d’origine anthropique.
En 2013 les émissions de CO2 d’origine anthropique ont été de 10.8 Gt de carbone qui se sont répartis ainsi :

  • 5.4 sont restés dans l’atmosphère,
  • 2.9 ont été absorbés par l’ océan
  • et 2.5 par les « puits » à terre.

C’est donc près de 30% des émissions anthropiques de CO2 qui se retrouvent dans l’océan qui représente le premier milieu qui régule en partie les émissions de carbone dans l’atmosphère par l’activité humaine.
Ce rôle de puits de carbone de l’océan est imputable à deux phénomènes essentiels :

  • Un «pompage physique» susceptible d’absorber le CO2 par solubilité en fonction de la pression partielle de ce gaz à l’interface atmosphère-océan dépendante de la température.
  • Un «pompage biologique» par la vie marine dont le premier étage est la production de phytoplancton entraînant à sa suite une chaîne du vivant qui au final dépose au fond des bassins sédimentaires océaniques des coquilles et des formations carbonatées.

Mais l’océan n’est pas un puits uniforme de carbone. Les océans arctique et antarctique absorbent beaucoup de CO2. Au contraire, les régions tropicales sont des «zones sources» à cause de leur température de surface élevée.
Le puits des hautes latitudes a 2 causes principales :

  • d’une part ce sont des régions à faible gradient vertical de densité, ce qui favorise une plongée des eaux de surface par convection dans les profondeurs disséminant ainsi rapidement le CO2sur toute la colonne d’eau. La «pompe physique» fonctionne bien,
  • d’autre part, ces régions sont très productives biologiquement et consomment beaucoup de CO2pour activer la photosynthèse du phytoplancton très abondant dans leurs eaux de surface. La «pompe biologique» fonctionne également à plein.

Transport : la circulation générale des océans

L’océan est susceptible de transporter d’énormes quantités d’énergie sur de très grandes distances par les courants océaniques. Cette fonction de transport de chaleur de l’océan, qui contribue à l’équilibre énergétique de la planète, n’a été quantifiée que récemment, dans les années 1970, lorsque les calculateurs permirent de compiler toutes les observations météorologiques et océanographiques accumulées depuis plus d’un siècle. On s’est alors aperçu que l’océan contribuait presque autant que l’atmosphère au transport énergétique méridien de chaleur (de l’ordre de 2 Péta W, 2.1015W) des basses latitudes, où cette énergie est accumulée, vers les hautes latitudes où au contraire elle est restituée à l’atmosphère. Le transport océanique s’opère par les courants dont l’ensemble constitue la circulation générale océanique.

Le transport opéré par la circulation générale de l'océan, associé à sa grande capacité de stockage et à ses échanges permanents à l’interface avec l'atmosphère, s'effectue à des vitesses très inférieures à celle du transport atmosphérique par les vents. Alors que la durée de vie maximale des perturbations atmosphériques est de l’ordre de trois semaines, les perturbations océaniques peuvent se maintenir et marquer les masses d’eaux en surface pendant plusieurs mois, et jusqu’à plusieurs siècles dans les profondeurs. C’est ce qui donne à l’océan une aussi grande importance dans le climat, sa variabilité et son changement à long terme.

Dans cette circulation générale des océans, les "grands courants de bord Ouest", comme le Gulf-Stream sur l’Atlantique nord ou le Kuroshio sur le nord Pacifique jouent un rôle prépondérant dans le transport de chaleur méridien. Ces courants naissent sous l'influence combinée de la rotation terrestre, des vents, et des flux de chaleur à l’interface Océan-Atmosphère. Ils contribuent au caractère turbulent de l'Océan, car ils engendrent eux-mêmes des tourbillons d’environ 100 km de diamètre véhiculant des énergies considérables.

Le Gulf-Stream transporte ainsi une 'énergie de l'équateur vers le pôle, de l’ordre de 2.1015 W soit 2 Péta W, l'équivalent de ce que fournirait environ un million de centrales électriques de 1000 MW chacune.

Ayant traversé l'Atlantique Nord en quelques mois, l'eau tropicale de surface s'est refroidie et évaporée tout au long de son périple de quelques 4 000 Km délivrant ses calories à l’atmosphère. En arrivant dans la zone sub-arctique, une partie de cette eau va repartir en surface vers le sud et rejoindre l’équateur pour se recharger à nouveau en chaleur, une autre partie enrichie en sel par l’évaporation se refroidit assez pour plonger vers le plancher océanique, et entreprendre un tour du monde qui va durer quelques centaines d'années : elle rejoint le fameux tapis roulant ("conveyor-belt"), une image très schématique, de ce que les océanographes appellent la circulation thermohaline.

Cette circulation contribue au transfert de la chaleur depuis les tropiques vers les pôles.

Le principal moteur de la circulation thermohaline se trouve ainsi dans l'Atlantique Nord. L'une des questions que se posent à son sujet certains experts du GIEC (Groupe d'experts Intergouvernemental d'Etude du Climat), est de savoir si le réchauffement climatique lié à l'excès de gaz à effet de serre pourrait perturber la circulation générale des océans au point de la ralentir, voire même le bloquer (Le Gulf Stream peut-il un jour s’arrêter?).

L’Océan connaît également des variations à l’échelle de la saison, liées aux variations d’intensité des vents et au refroidissement ou au réchauffement solaire des eaux aux différentes saisons. Il existe un lien direct entre saisons océaniques et saisons atmosphériques avec toutefois un décalage en temps de quelques 3 mois, du au délai de réaction des masses d’eau océaniques aux changements atmosphériques (c’est ainsi que l’été “océanique” a lieu pendant l’automne).

Ce cycle saisonnier peut lui-même être perturbé par des événements inhabituels. Le déséquilibre qui s’en suit peut alors avoir des conséquences importantes sur le climat et donc sur les populations. C’est le cas du phénomène El Niño qui se déclenche lors d'un fort affaiblissement des alizés sur le Pacifique équatorial.

El niño 2 octobre 1997 et 1 octobre 2015, hauteur de mer par rapport à la moyenne du Pacifique

Le transfert des masses d’eaux chaudes vers l’Est et les trains d’onde associés entraînent un dérèglement complet du système climatique à l’échelle du bassin Pacifique (sécheresses à l’est, précipitations à l’ouest), mais également à l’échelle globale via les hautes couches de l’atmosphère transitant autour du globe.

C’est ainsi que de telles anomalies sont également observées sur les autres bassins océaniques. Le couplage océan-atmosphère qui fait intervenir des dynamiques et des échelles différentes atteint ici toute sa complexité. Ces quelques exemples illustrent toute la difficulté de bien appréhender le milieu océanique, son interaction avec l’atmosphère (et avec les terres émergées) et donc ses conséquences sur le climat.

II - Rôle de l’océan dans le changement climatique actuel

Deux propriétés de l'océan sont essentielles dans le changement climatique d'origine anthropique actuel :

  • Sa capacité d'absorber une fraction importante de la chaleur résultant de l'effet de serre additionnel induit par les émissions de gaz à effet de serre (principalement le gaz carbonique) d'origine humaine.
  • Sa capacité d'absorber une partie de ce gaz carbonique additionnel injecté dans l'atmosphère.

Absorption de la chaleur par l'océan

Les milieux terrestres ne sont plus en équilibre radiatif du fait de l’impact des activités humaines :

  • injection continue de Gaz à Effet de Serre (GES) et d’aérosols dans l'atmosphère,
  • utilisation des surfaces terrestres qui modifient l’albedo etc.

Le forçage radiatif résultant de la somme des termes positifs (ou des apports radiatifs principalement par les GES et l'Ozone stratosphérique), et des termes négatifs (absorption radiative par les aérosols et leurs effets sur la couverture nuageuse et l'albedo, utilisation des terres), est appelé le "forçage anthropique". Il est de 1,6 W.m-2 sur l'ensemble de la surface de la Terre. Ces 1,6 W.m-2 supplémentaires servent à accroître le contenu thermique de l'atmosphère donc sa température moyenne (accroissement mesuré de près de 1°C depuis le début du XXème siècle). Cet accroissement de température de l'atmosphère est l'effet le plus visible du changement climatique et le plus sensible pour l'humanité. Mais une fraction importante de ces 1,6 W.m-2est également absorbée par la fonte des glaciers polaires, des glaciers continentaux et des glaces de mer, ainsi que par les continents et les océans. L'accroissement du contenu thermique de l'océan au cours du siècle passé peut être estimé avec une assez bonne précision à l'aide des mesures de températures réalisées régulièrement dans l'océan, au moins dans ses couches supérieures (0 - 3 000 m). L'estimation de la chaleur absorbée par la fonte des glaciers est également assez précise. Il n'en est cependant pas de même pour le changement du contenu thermique des continents (sols, couvert végétal) encore mal connu mais considéré comme non majoritaire.

Ainsi les chiffres, fournis par le 4ème rapport du GIEC pour la période 1961 - 2003, montrent sans contestation possible que c'est l'océan qui de très loin a réabsorbé le plus de chaleur :

Accroissement du contenu thermique de la planète entre 1961 et 2003.

Les unités sont en 1022 Joules.

 
Océan 14,10
Glacier 0,45
Atmosphère 0,50
Continents 0,75
Total 15,8

 

L'océan a donc réabsorbé près de 90 % du réchauffement induit par le forçage radiatif dû aux GES anthropiques.

Sans l'océan, le réchauffement que nous subissons serait plus rapide, sans que la valeur finale de la température d'équilibre ne soit en rien changée

Par ailleurs ce réchauffement océanique induit des effets secondaires qui pourraient être très importants voire catastrophiques et que l'on connaît encore mal.

Parmi ceux-ci, il y a évidemment l'élévation de son niveau moyen  (Quelles sont les variations actuelles du niveau de la mer?) qui est actuellement (en 2016) de 3.3 mm/an.

Le réchauffement de l'océan modifie aussi sa dynamique et les transports de chaleur et de sel en son sein perturbant ainsi localement les échanges énergétiques avec l'atmosphère à sa surface. La circulation thermohaline profonde peut être aussi perturbée et affecter le climat à une échelle globale en diminuant significativement les transports de chaleur vers le nord par l’océan dans l’Atlantique. Le GIEC estime très probable un ralentissement de 25% de cette circulation au cours du 21ème siècle, insuffisant cependant pour induire un refroidissement dans les régions de l’Atlantique nord.

La vie océanique peut aussi être très profondément perturbée par ces changements. Elle est en effet très dépendante de l’état physique de l’océan et de sa dynamique qui conditionnent la disponibilité des éléments nutritifs dans les couches productives superficielles. Ces perturbations biologiques entrent aussi dans des boucles d'interactions affectant le climat lui-même à travers le cycle du carbone qui intervient dans la capacité de l’océan d’absorber le CO2.

Absorption du gaz carbonique par l'océan

Le GIEC nous dit que le contenu en carbone total de l'océan s'est accru de 118 Giga tonne de C entre 1750 et 1994. Cet accroissement représentait encore 42 % du CO2 émis par l'homme au début de l'ère industrielle (moyenne entre 1750 et 1994). Depuis une vingtaine d'années on constate une diminution notable de cette capacité de l'océan de réabsorber le CO2 anthropique (entre 1980 et 2005 ce taux d'absorption est tombé à 37%). Ceci semble indiquer que l'océan approche de sa limite de saturation ; néanmoins le rapport du GIEC indique que ces estimations sont encore très incertaines et ne permettent pas de tirer des conclusions définitives. Quelles que soient les inconnues qui demeurent concernant cette capacité de l'océan de réguler une partie du CO2 anthropique, cette absorption a des effets secondaires, qui pourraient être graves à long terme notamment sur la vie marine. L'un de ces effets secondaires parmi les plus remarqués, évoqué récemment dans la littérature scientifique et la grande presse, est l'acidification de l'océan qui réduit sa capacité de former des carbonates et donc entraînerait une perturbation de sa fonction de dépositoire ultime du carbone au fond des océans et perturberait ainsi durablement le cycle du carbone. La construction des récifs coralliens pourrait être aussi gravement affectée.

III - Plaidoyer pour l'étude et l'observation permanente de l'océan

Comme on le voit l'océan joue un rôle majeur dans le climat ; et son changement à long terme, qui se déroule sous nos yeux, marquera profondément et pour longtemps cette enveloppe fluide essentielle de la Terre qui en retour affectera l'évolution future du climat.
En effet, comparé à l'atmosphère, l'océan présente deux caractéristiques qui lui confèrent un rôle essentiel dans le climat :

  1. Sa capacité thermique est énorme, plus de 1 000 fois celle de l'atmosphère; ainsi il stocke et transforme en chaleur l'essentiel du flux radiatif solaire.
  2. Il est affecté d'une dynamique beaucoup plus lente que l'atmosphère ; il est donc susceptible de mémoriser plus longtemps, à des échelles de temps compatibles avec la variabilité climatique, les perturbations (ou anomalies) qui l'affectent.

Mais cet océan est encore insuffisamment connu. Ses interactions avec l'atmosphère et le climat sont très complexes. De nombreuses inconnues demeurent concernant son implication dans le changement climatique anthropique.
Réduire ces inconnues et ces incertitudes est indispensable pour prévoir avec plus de sécurité cette évolution future du climat.
Observations et mesures sont les sources irremplaçables de nos connaissances.


Il faut donc mettre en place un système pérenne d'observation de grande ampleur, coordonné internationalement. en une Veille Mondiale des Océans et Climat, comme il existe une Veille Météorologique Mondiale pour l’atmosphère.