Mars 2005
Mise à jour Bruno Voituriez - Décembre 2016

I - Naissance de l’océanographie opérationnelle

L’océanographie opérationnelle se propose d’établir un système d’observations et de simulations numériques pour suivre et prévoir en continu le devenir de l’océan, comme la météorologie le fait quotidiennement pour la prévision du temps à l’attention du grand public et des professionnels. L’observation et la simulation de l’océan en temps réel rendent possible la livraison régulière de bulletins océaniques comparables aux bulletins météorologiques mais à des échéances plus longues, de l’ordre de quelques jours à quelques semaines.

L’océanographie opérationnelle repose sur trois piliers :

  • Des mesures in situ de l’océan dans ses trois dimensions, réalisées par des navires ou des systèmes autonomes fixes ou dérivants,
  • Des mesures, à partir de plates-formes spatiales, de la topographie dynamique de la surface, mais aussi de la température de cette surface, du vent, de la concentration en chlorophylle et d’autres paramètres qui doivent être observés en continu dans l’espace et le temps,
  • Des simulations de l’océan par des modèles numériques capables d’assimiler ces données pour obtenir l’image la plus réaliste possible de l’état de l’océan et prévoir son évolution.

Pour mettre en œuvre un tel projet il fallait donc que l’on disposât en continu des moyens de mesure de la totalité de l’océan dans ses trois dimensions. Ce sont les moyens spatiaux qui l’ont rendu possible.
Les systèmes de localisation et de transmission des données depuis l’espace, comme Argos, ont permis de déployer dans l’océan des systèmes d’observations fixes ou dérivants munis de capteurs mesurant température et salinité.
Ainsi, dans le cadre du programme ARGO, un réseau de près de 4 000 flotteurs dérivants mesurent température et salinité jusqu’à 2 000 mètres dans tout l’ océan et transmettent par satellite les données recueillies.

La création en 2014 d'une structure légale européenne (European Research Infrastructure Consortium, ERIC) pour l'observation in situ des océans incluant ARGO est une première. C'est une étape majeure pour optimiser, pérenniser et renforcer les contributions européennes au réseau Argo. C’est l’Ifremer à Brest qui accueille cette structure pour une durée d’au moins cinq ans. Ces flotteurs ne sont pas encore dotés de capteurs biogéochimiques opérationnels mais des expérimentations sont en cours (en 2016) notamment à travers le projet français NAOS.

Les satellites permettent les mesures de paramètres directement depuis l’espace (température, salinité, chlorophylle) et particulièrement la topographie de surface (altimétrie) qui donne accès aux courants. C’est le lancement du satellite altimétrique Topex/Poseidon en 1992 qui a donné le signal du départ de l’océanographie opérationnelle.

En France l’aventure commence avec la création du groupe Mercator–Océan en 1995 qui publiera son premier bulletin de prévision sur l’Atlantique nord le 17 janvier 2001 et sur la totalité de l’océan le 14 octobre 2005.
De leur côté l’Union Européenne et l’Agence Spatiale Européenne ont mis en place le programme GMES ( Global Monitoring for Environment and Security) destiné à rationaliser les mesures spatiales et in situ relatives à l'environnement et à la sécurité, afin de disposer d'informations et de services fiables chaque fois que cela est nécessaire. La Commission Européenne confiera à Mercator-Océan en 2009 le soin de coordonner, via le projet expérimental MyOcean, le volet maritime de GMES : «Marine Core Service» . Le programme GMES deviendra COPERNICUS en 2013 pour passer en phase véritablement opérationnelle.

Le 11 novembre 2014 la Commission Européenne et Mercator-Océan ont signé un accord qui délègue à Mercator-Océan la mise en place du service européen Copernicus de surveillance des océans qui devient «Copernicus Marine Environnement Monitoring Service». Ce service opérationnel est officiellement en place depuis avril 2015.

L’océanographie opérationnelle est ainsi lancée à l’échelle européenne. Le contrat de délégation à Mercator-Ocean court jusqu’en 2021.

2 - Produits et applications

Le Copernicus Marine Environment Monitoring Service (CMEMS) a pour vocation de fournir régulièrement et gratuitement des informations sur l’état, la variabilité et la dynamique de l’océan et des écosystèmes marins pour l’océan global et les mers régionales européennes (Baltique, Arctique, Méditerranée, Mer Noire, Mer du Nord, Golfe de Gascogne, Mer d’Irlande etc).
Cela inclut les observations in situ et spatiales, les analyses, les ré-analyses et la prévision quand c’est possible.

Quatre domaines sont privilégiés :

  • la sécurité en mer (navigation, plateformes d’exploitation….),
  • l’environnement marin et côtier,
  • les ressources marines et la pêche,
  • la météorologie et la prévision climatique

Le catalogue de produits océaniques du service englobe :

  • des produits dérivés d’observation spatiale et in situ,
  • des prévisions et analyses en temps réel
  • et des séries temporelles sur plusieurs dizaines d’années dans le passé pour les ré-analyses.

Les paramètres pris en compte sont les suivants :

  • paramètres physiques (température, salinité, courants, glaces de mer, niveau de la mer, vent) ;
  • les paramètres chimiques (fer, nitrates, phosphates, silicates , oxygène) ;
  • les paramètres biologiques, concentration en chlorophylle et phytoplankton, production primaire.

Mercator Ocean alimente CMEMS avec les systèmes numériques et les modèles globaux (sur tous les océans du globe) qu’il a développés et qui sont capables de décrire l’état physique et biogéochimique de l’océan à tout instant, en surface comme en profondeur, à l’échelle du globe ou d’une région du globe.
On considère d’une part les paramètres physiques qui aboutissent à une modélisation et une prévision de la dynamique des océans :

  • température,
  • salinité,
  • courants,
  • topographie dynamique de la surface des océans.

avec deux échelles 1/12ème de degré pour l’océan global et 1/36ème de degré pour les mers européennes de Gibraltar à la mer d’Irlande et au nord de la Grande Bretagne.

D’autre part les paramètres biogéochimiques qui conditionnent la production biologique dont la prévision s’appuie sur la modélisation physique en y ajoutant un degré de complexité supplémentaire : les processus biologiques qui gèrent la chaîne alimentaire. Il s’agit en l’état des concentrations en nitrate , oxygène et chlorophylle sur l’océan global avec une résolution au 1/4 de degré.

Ce service est destiné à de nombreux usages, qu’ils soient de nature commerciale, scientifique, pour des missions de service public ou tout simplement pour les citoyens curieux de l’état de leurs océans.
On citera par exemple :

  • les politiques et règlements de l’Union européenne comme la directive cadre «stratégie pour le milieu marin»,
  • la lutte contre la pollution marine,
  • la protection de la biodiversité,
  • la sécurité et le routage maritimes,
  • l’exploitation durable de l’environnement côtier et des ressources marines,
  • les énergies marines,
  • la surveillance du climat,
  • la prévision des cyclones…

Le Copernicus Marine Service propose une large gamme de produits océanographiques : des produits d’observation (satellite et in situ) et des produits issus de modélisation numérique. Ces différents produits, répertoriés dans un catalogue unique, couvrent l’océan global et les 6 bassins européens : Arctique, Baltique, Atlantique Nord-Est partie nord et partie sud, Méditerranée et Mer Noire. Ces produits informent sur l’état physique et biogéochimique des océans. Ils couvrent de longues périodes temporelles remontant au début des années 1990 (parfois avant), le temps réel pour les produits d’observation : analyse et prévision à quelques jours pour les produits issus de modèles.

Ces produits sont conçus par différents producteurs européens et distribués par le Copernicus Marine Service via un catalogue en ligne. Mercator Océan fournit les produits de modélisation numérique de l’océan global qui figurent dans ce catalogue. Le Copernicus Marine Service est ouvert et gratuit dans le respect des conditions d’usage.

III - Exemples

Voici des exemples de prévision pour l’ Atlantique nord et la méditerranée produits par Mercator Océan et CMEMS

1 - Physique : prévision à 9 jours dans l’Atlantique nord de la température, de la topographie et du courant

Figure 1 : Prévision à 9 jours de la température de surface de l’Atlantique Nord le 30 novembre 2016 . Prévision effectuée le 21 novembre 2016 (Mercator-Ocean/CMEMS 1/12ème de degré)

Figure 2 : Prévision à 9 jours de la topographie de surface de l’ Atlantique Nord le 30 novembre 2016. Prévision effectuée le 21 novembre 2016 (Mercator-Ocean/CMEMS 1/12ème de degré)

Figure 3 : Prévision à 9 jours des courants de surface dans l’ Atlantique Nord le 30 novembre 2016. Prévision effectuée le 21 novembre 2016 (Mercator-Ocean/CMEMS 1/12ème de degré)

2 - Bogéochimie : analyse et prévision à 8 jours de la chlorophylle , et du phosphate en médierrannée

Figure 4 : Concentration en chlorophylle de la surface en méditerranée le 30 novembre 2016 (CMEMS)

Figure 5 : Prévision faite à 8 jours de la concentration en chlorophylle de surface (8 décembre 2016) à partir de la situation du 30 novembre (figure 4) (CMEMS)

Figure 6 : Concentration en phosphate de le surface de la méditerranée le 30 novembre 2016 (CMEMS)

Figure 7 : Prévision faite à 8 jours de la concentration en phosphate (8 décembre 2016) à partir de la situation du 30 novembre (fig 6) (CMEMS)

 


Autres sites à consulter :

Aviso

Ifremer

NOAA

Voir aussi : Vidéo ESA/CNES/Ariane Espace sur l'Observation des Océans

Jacques Merle - Décembre 2016

I - Le rôle de l'océan dans le climat

Le système climatique est une machine qui convertit et distribue l’énergie solaire que la Terre absorbe soit 240 W/m2 environ.
C’est une machine complexe aux nombreux acteurs :

  • les continents,
  • l’océan,
  • l’atmosphère,
  • la cryosphère,
  • et la biosphère

qui interagissent en échangeant de l’énergie.

Tous ces compartiments évoluent en permanence avec des vitesses qui leur sont propres et qui sont très différentes. Toute variation, toute perturbation de l’un d’entre eux retentit sur les autres qui réagissent à leur propre rythme. Le système climatique court en permanence après un équilibre qu’il n'atteint partiquement jamais. Il varie sans cesse à toutes les échelles de temps. L’essentiel est, pour l’homme, qu’il soit suffisamment stable pour rester dans des amplitudes et vitesse de variations supportables. Ce que l’accroissement rapide des gaz à effet de serre est en train de compromettre.

L’océan et l’atmosphère sont les principaux acteurs du système climatique : ce sont les deux fluides qui assurent le transport et la distribution de l’énergie thermique sur la Terre.
En permanence en contact l’un avec l’autre c’est entre eux que les échanges d’énergie sont les plus importants. Le couple qu’ils forment gère le climat de la planète et ses variations. Mais ils évoluent à des échelles de temps très différentes.
L’atmosphère n’a guère de mémoire : à un moment donné l’état de l’ atmosphère est indépendant de ce qu’il était trois semaines auparavant.
L’océan présente un temps d’évolution beaucoup plus long et a donc une bien meilleure mémoire : c’est de fait lui qui impose le rythme des variations climatiques.

Les Océans possèdent trois propriétés essentielles dans leur relation physique avec le climat :

  • capacité de stockage,
  • échange avec l’atmosphère
  • et transport par les courants.

Ces trois fonctions ne sont pas indépendantes mais liées par des lois de conservation :

Échange = Stockage + transport,

Ce qui signifie que le bilan net de l’échange de masse et d’énergie en un point de la surface air-mer se répartie en un stockage local et un transport à l’extérieur.

Cette relation s’applique à tous les constituants de l’océan :

  • masse (eau),
  • énergie (chaleur),
  • corps chimiques divers incluant le CO2.

Mais ces fonctions sont encore très mal évaluées et nécessitent des observations nombreuses et continues pour les prendre en compte dans la dynamique de l’atmosphère et du climat. D’où la nécessité de systèmes d’observations opérationnels (voir dans ce qui suit).

Stockage

L’océan est avant tout un gigantesque réservoir, d’eau, de corps chimiques divers, dont le carbone, et de chaleur.
L’océan stocke 97% de l’eau contenue à la surface de la Terre. Les 3% restant alimentent les fleuves, les lacs, les glaciers et les nappes souterraines.
L’eau de l’atmosphère, par comparaison, avec ses 0,001%, représenterait une couche de seulement 0,3 centimètre d’eau si elle était répartie sur la surface de la Terre. L’océan est ainsi le réservoir où s’alimente le cycle de l’eau.
L’océan est aussi le principal réservoir de carbone dans le cycle planétaire de cet élément essentiel à la vie et maintenant lourdement impliqué dans l’évolution du climat. Si l’atmosphère contient environ 800 Giga tonne de carbone, l’océan en contient 40 000 Gt, soit cinquante fois plus. Par ailleurs la biosphère continentale (forêts, prairies, animaux…) en contient également 800 Gt, ce qui fait de l’océan le milieu à la fois le plus central et le plus déterminant dans la dynamique de cet élément.

Ce gigantesque réservoir océanique de Carbone est en communication directe avec les autres réservoirs actifs que sont l’atmosphère et la biosphère continentale. Mais il est aussi en relation avec les réservoirs inertes que sont les sédiments accumulés dans les fonds océaniques qui deviendront, à l’échelle de millions d’années, des formations géologiques carbonatées.

Enfin l’océan est le milieu qui stocke le plus d’énergie solaire sous forme de chaleur. On estime que 70% du flux radiatif solaire entrant dans le système Terre (atmosphère, océan, continents,…) est absorbé et stocké dans les couches supérieures des régions océaniques tropicales. Cette grande capacité de stockage de l’énergie thermique de l’océan est liée à sa masse (300 fois celle de l’atmosphère) et à la chaleur spécifique de l’eau de mer (4 fois plus élevée que celle de l’air) qui conduit à une capacité thermique globale de l’océan plus de 1 200 fois supérieure à celle de l’atmosphère. C’est l’océan, qui en restituant une grande partie de cette énergie à l’atmosphère, principalement par le transfert de chaleur latente associé à l’évaporation, lui fournit l’essentiel de l’énergie nécessaire à sa dynamique.

Échanges avec l’atmosphère

Le plancher de l'atmosphère est en contact pour environ 71 % de sa surface avec l'océan et échange avec lui en permanence les constituants précités :

  • eau,
  • chaleur, et donc énergie,
  • mais aussi de la quantité de mouvement entre les vents et les courants qui est aussi une énergie,
  • ainsi que différents corps chimiques dont le CO2 qui joue un rôle très important dans le climat.

En ce qui concerne l’eau, l’océan restitue en moyenne par évaporation (E) un mètre d’eau par an à l’atmosphère qui est ainsi nourrie en vapeur d’eau ; c’est une quantité de laquelle il faut retrancher 80 cm de précipitations (P) locales pour aboutir à un bilan net :

E-P négatif pour l’océan, d’environ 20 cm que l’atmosphère redistribue par précipitation sur les continents et qui retourne ainsi dans l’océan par les fleuves.

Le bilan net de l’échange d’énergie à la surface air-mer, qui s’exprime en Watts par mètres carrés (W.m-2), est très variable d’un point à l’autre de l’océan mondial. Il varie surtout en fonction de la latitude avec un puits de chaleur océanique dans les tropiques (en moyenne de 75 à 100 W.m-2), et au contraire une perte dans les hautes latitudes.

 

L’échange de chaleur moyen entre l’océan et l’atmosphère à la surface en W.m-2 (Fieux 2010 – ENSTA).

Les échanges thermiques entre l’océan et l’atmosphère sont les plus intenses au voisinage des grands courants océaniques de bords ouest comme le Gulf Stream, courant chaud arrivant dans des régions de hautes latitudes, telles que la mer du Labrador, où l’air est froid et sec, restitue une énorme quantité de chaleur à l’atmosphère (entre 250 et 300 W.m-2 ), principalement sous forme de chaleur latente associée à une intense évaporation. La variabilité dans le temps de ces échanges est un élément déterminant de la variabilité climatique.
Le bilan net d’énergie échangé à l’interface air-mer est la somme algébrique de quatre termes :

  • le flux radiatif solaire incident qui apporte en moyenne 170 W.m-2 dont -10 W.m-2 sont réfléchi à la surface,
  • le flux radiatif rétro-diffusé dans l’infrarouge -60 W.m-2,
  • la chaleur latente d’évaporation -80 W.m-2,
  • la chaleur sensible - 20 W.m-2.

C’est l’océan qui fournit à l’atmosphère l’essentiel de l’énergie (~50%) qui la met en mouvement.

L’océan échange également avec l’atmosphère d’énormes quantités de CO2. L’océan régule le CO2atmosphérique d’origine anthropique.
En 2013 les émissions de CO2 d’origine anthropique ont été de 10.8 Gt de carbone qui se sont répartis ainsi :

  • 5.4 sont restés dans l’atmosphère,
  • 2.9 ont été absorbés par l’ océan
  • et 2.5 par les « puits » à terre.

C’est donc près de 30% des émissions anthropiques de CO2 qui se retrouvent dans l’océan qui représente le premier milieu qui régule en partie les émissions de carbone dans l’atmosphère par l’activité humaine.
Ce rôle de puits de carbone de l’océan est imputable à deux phénomènes essentiels :

  • Un «pompage physique» susceptible d’absorber le CO2 par solubilité en fonction de la pression partielle de ce gaz à l’interface atmosphère-océan dépendante de la température.
  • Un «pompage biologique» par la vie marine dont le premier étage est la production de phytoplancton entraînant à sa suite une chaîne du vivant qui au final dépose au fond des bassins sédimentaires océaniques des coquilles et des formations carbonatées.

Mais l’océan n’est pas un puits uniforme de carbone. Les océans arctique et antarctique absorbent beaucoup de CO2. Au contraire, les régions tropicales sont des «zones sources» à cause de leur température de surface élevée.
Le puits des hautes latitudes a 2 causes principales :

  • d’une part ce sont des régions à faible gradient vertical de densité, ce qui favorise une plongée des eaux de surface par convection dans les profondeurs disséminant ainsi rapidement le CO2sur toute la colonne d’eau. La «pompe physique» fonctionne bien,
  • d’autre part, ces régions sont très productives biologiquement et consomment beaucoup de CO2pour activer la photosynthèse du phytoplancton très abondant dans leurs eaux de surface. La «pompe biologique» fonctionne également à plein.

Transport : la circulation générale des océans

L’océan est susceptible de transporter d’énormes quantités d’énergie sur de très grandes distances par les courants océaniques. Cette fonction de transport de chaleur de l’océan, qui contribue à l’équilibre énergétique de la planète, n’a été quantifiée que récemment, dans les années 1970, lorsque les calculateurs permirent de compiler toutes les observations météorologiques et océanographiques accumulées depuis plus d’un siècle. On s’est alors aperçu que l’océan contribuait presque autant que l’atmosphère au transport énergétique méridien de chaleur (de l’ordre de 2 Péta W, 2.1015W) des basses latitudes, où cette énergie est accumulée, vers les hautes latitudes où au contraire elle est restituée à l’atmosphère. Le transport océanique s’opère par les courants dont l’ensemble constitue la circulation générale océanique.

Le transport opéré par la circulation générale de l'océan, associé à sa grande capacité de stockage et à ses échanges permanents à l’interface avec l'atmosphère, s'effectue à des vitesses très inférieures à celle du transport atmosphérique par les vents. Alors que la durée de vie maximale des perturbations atmosphériques est de l’ordre de trois semaines, les perturbations océaniques peuvent se maintenir et marquer les masses d’eaux en surface pendant plusieurs mois, et jusqu’à plusieurs siècles dans les profondeurs. C’est ce qui donne à l’océan une aussi grande importance dans le climat, sa variabilité et son changement à long terme.

Dans cette circulation générale des océans, les "grands courants de bord Ouest", comme le Gulf-Stream sur l’Atlantique nord ou le Kuroshio sur le nord Pacifique jouent un rôle prépondérant dans le transport de chaleur méridien. Ces courants naissent sous l'influence combinée de la rotation terrestre, des vents, et des flux de chaleur à l’interface Océan-Atmosphère. Ils contribuent au caractère turbulent de l'Océan, car ils engendrent eux-mêmes des tourbillons d’environ 100 km de diamètre véhiculant des énergies considérables.

Le Gulf-Stream transporte ainsi une 'énergie de l'équateur vers le pôle, de l’ordre de 2.1015 W soit 2 Péta W, l'équivalent de ce que fournirait environ un million de centrales électriques de 1000 MW chacune.

Ayant traversé l'Atlantique Nord en quelques mois, l'eau tropicale de surface s'est refroidie et évaporée tout au long de son périple de quelques 4 000 Km délivrant ses calories à l’atmosphère. En arrivant dans la zone sub-arctique, une partie de cette eau va repartir en surface vers le sud et rejoindre l’équateur pour se recharger à nouveau en chaleur, une autre partie enrichie en sel par l’évaporation se refroidit assez pour plonger vers le plancher océanique, et entreprendre un tour du monde qui va durer quelques centaines d'années : elle rejoint le fameux tapis roulant ("conveyor-belt"), une image très schématique, de ce que les océanographes appellent la circulation thermohaline.

Cette circulation contribue au transfert de la chaleur depuis les tropiques vers les pôles.

Le principal moteur de la circulation thermohaline se trouve ainsi dans l'Atlantique Nord. L'une des questions que se posent à son sujet certains experts du GIEC (Groupe d'experts Intergouvernemental d'Etude du Climat), est de savoir si le réchauffement climatique lié à l'excès de gaz à effet de serre pourrait perturber la circulation générale des océans au point de la ralentir, voire même le bloquer (Le Gulf Stream peut-il un jour s’arrêter?).

L’Océan connaît également des variations à l’échelle de la saison, liées aux variations d’intensité des vents et au refroidissement ou au réchauffement solaire des eaux aux différentes saisons. Il existe un lien direct entre saisons océaniques et saisons atmosphériques avec toutefois un décalage en temps de quelques 3 mois, du au délai de réaction des masses d’eau océaniques aux changements atmosphériques (c’est ainsi que l’été “océanique” a lieu pendant l’automne).

Ce cycle saisonnier peut lui-même être perturbé par des événements inhabituels. Le déséquilibre qui s’en suit peut alors avoir des conséquences importantes sur le climat et donc sur les populations. C’est le cas du phénomène El Niño qui se déclenche lors d'un fort affaiblissement des alizés sur le Pacifique équatorial.

El niño 2 octobre 1997 et 1 octobre 2015, hauteur de mer par rapport à la moyenne du Pacifique

Le transfert des masses d’eaux chaudes vers l’Est et les trains d’onde associés entraînent un dérèglement complet du système climatique à l’échelle du bassin Pacifique (sécheresses à l’est, précipitations à l’ouest), mais également à l’échelle globale via les hautes couches de l’atmosphère transitant autour du globe.

C’est ainsi que de telles anomalies sont également observées sur les autres bassins océaniques. Le couplage océan-atmosphère qui fait intervenir des dynamiques et des échelles différentes atteint ici toute sa complexité. Ces quelques exemples illustrent toute la difficulté de bien appréhender le milieu océanique, son interaction avec l’atmosphère (et avec les terres émergées) et donc ses conséquences sur le climat.

II - Rôle de l’océan dans le changement climatique actuel

Deux propriétés de l'océan sont essentielles dans le changement climatique d'origine anthropique actuel :

  • Sa capacité d'absorber une fraction importante de la chaleur résultant de l'effet de serre additionnel induit par les émissions de gaz à effet de serre (principalement le gaz carbonique) d'origine humaine.
  • Sa capacité d'absorber une partie de ce gaz carbonique additionnel injecté dans l'atmosphère.

Absorption de la chaleur par l'océan

Les milieux terrestres ne sont plus en équilibre radiatif du fait de l’impact des activités humaines :

  • injection continue de Gaz à Effet de Serre (GES) et d’aérosols dans l'atmosphère,
  • utilisation des surfaces terrestres qui modifient l’albedo etc.

Le forçage radiatif résultant de la somme des termes positifs (ou des apports radiatifs principalement par les GES et l'Ozone stratosphérique), et des termes négatifs (absorption radiative par les aérosols et leurs effets sur la couverture nuageuse et l'albedo, utilisation des terres), est appelé le "forçage anthropique". Il est de 1,6 W.m-2 sur l'ensemble de la surface de la Terre. Ces 1,6 W.m-2 supplémentaires servent à accroître le contenu thermique de l'atmosphère donc sa température moyenne (accroissement mesuré de près de 1°C depuis le début du XXème siècle). Cet accroissement de température de l'atmosphère est l'effet le plus visible du changement climatique et le plus sensible pour l'humanité. Mais une fraction importante de ces 1,6 W.m-2est également absorbée par la fonte des glaciers polaires, des glaciers continentaux et des glaces de mer, ainsi que par les continents et les océans. L'accroissement du contenu thermique de l'océan au cours du siècle passé peut être estimé avec une assez bonne précision à l'aide des mesures de températures réalisées régulièrement dans l'océan, au moins dans ses couches supérieures (0 - 3 000 m). L'estimation de la chaleur absorbée par la fonte des glaciers est également assez précise. Il n'en est cependant pas de même pour le changement du contenu thermique des continents (sols, couvert végétal) encore mal connu mais considéré comme non majoritaire.

Ainsi les chiffres, fournis par le 4ème rapport du GIEC pour la période 1961 - 2003, montrent sans contestation possible que c'est l'océan qui de très loin a réabsorbé le plus de chaleur :

Accroissement du contenu thermique de la planète entre 1961 et 2003.

Les unités sont en 1022 Joules.

 
Océan 14,10
Glacier 0,45
Atmosphère 0,50
Continents 0,75
Total 15,8

 

L'océan a donc réabsorbé près de 90 % du réchauffement induit par le forçage radiatif dû aux GES anthropiques.

Sans l'océan, le réchauffement que nous subissons serait plus rapide, sans que la valeur finale de la température d'équilibre ne soit en rien changée

Par ailleurs ce réchauffement océanique induit des effets secondaires qui pourraient être très importants voire catastrophiques et que l'on connaît encore mal.

Parmi ceux-ci, il y a évidemment l'élévation de son niveau moyen  (Quelles sont les variations actuelles du niveau de la mer?) qui est actuellement (en 2016) de 3.3 mm/an.

Le réchauffement de l'océan modifie aussi sa dynamique et les transports de chaleur et de sel en son sein perturbant ainsi localement les échanges énergétiques avec l'atmosphère à sa surface. La circulation thermohaline profonde peut être aussi perturbée et affecter le climat à une échelle globale en diminuant significativement les transports de chaleur vers le nord par l’océan dans l’Atlantique. Le GIEC estime très probable un ralentissement de 25% de cette circulation au cours du 21ème siècle, insuffisant cependant pour induire un refroidissement dans les régions de l’Atlantique nord.

La vie océanique peut aussi être très profondément perturbée par ces changements. Elle est en effet très dépendante de l’état physique de l’océan et de sa dynamique qui conditionnent la disponibilité des éléments nutritifs dans les couches productives superficielles. Ces perturbations biologiques entrent aussi dans des boucles d'interactions affectant le climat lui-même à travers le cycle du carbone qui intervient dans la capacité de l’océan d’absorber le CO2.

Absorption du gaz carbonique par l'océan

Le GIEC nous dit que le contenu en carbone total de l'océan s'est accru de 118 Giga tonne de C entre 1750 et 1994. Cet accroissement représentait encore 42 % du CO2 émis par l'homme au début de l'ère industrielle (moyenne entre 1750 et 1994). Depuis une vingtaine d'années on constate une diminution notable de cette capacité de l'océan de réabsorber le CO2 anthropique (entre 1980 et 2005 ce taux d'absorption est tombé à 37%). Ceci semble indiquer que l'océan approche de sa limite de saturation ; néanmoins le rapport du GIEC indique que ces estimations sont encore très incertaines et ne permettent pas de tirer des conclusions définitives. Quelles que soient les inconnues qui demeurent concernant cette capacité de l'océan de réguler une partie du CO2 anthropique, cette absorption a des effets secondaires, qui pourraient être graves à long terme notamment sur la vie marine. L'un de ces effets secondaires parmi les plus remarqués, évoqué récemment dans la littérature scientifique et la grande presse, est l'acidification de l'océan qui réduit sa capacité de former des carbonates et donc entraînerait une perturbation de sa fonction de dépositoire ultime du carbone au fond des océans et perturberait ainsi durablement le cycle du carbone. La construction des récifs coralliens pourrait être aussi gravement affectée.

III - Plaidoyer pour l'étude et l'observation permanente de l'océan

Comme on le voit l'océan joue un rôle majeur dans le climat ; et son changement à long terme, qui se déroule sous nos yeux, marquera profondément et pour longtemps cette enveloppe fluide essentielle de la Terre qui en retour affectera l'évolution future du climat.
En effet, comparé à l'atmosphère, l'océan présente deux caractéristiques qui lui confèrent un rôle essentiel dans le climat :

  1. Sa capacité thermique est énorme, plus de 1 000 fois celle de l'atmosphère; ainsi il stocke et transforme en chaleur l'essentiel du flux radiatif solaire.
  2. Il est affecté d'une dynamique beaucoup plus lente que l'atmosphère ; il est donc susceptible de mémoriser plus longtemps, à des échelles de temps compatibles avec la variabilité climatique, les perturbations (ou anomalies) qui l'affectent.

Mais cet océan est encore insuffisamment connu. Ses interactions avec l'atmosphère et le climat sont très complexes. De nombreuses inconnues demeurent concernant son implication dans le changement climatique anthropique.
Réduire ces inconnues et ces incertitudes est indispensable pour prévoir avec plus de sécurité cette évolution future du climat.
Observations et mesures sont les sources irremplaçables de nos connaissances.


Il faut donc mettre en place un système pérenne d'observation de grande ampleur, coordonné internationalement. en une Veille Mondiale des Océans et Climat, comme il existe une Veille Météorologique Mondiale pour l’atmosphère.

Mars 2005 - Mise à jour Madeleine Zaharia, Yves Dandonneau, décembre 2020.
Remerciements à Pierre Yves Le Traon de Mercator Océan pour la relecture de cet article et les compléments apportés.

 I - Introduction

 II - Quelles mesures ?

 III - Quels systèmes de mesures ?

 IV - Quels programmes ?

 V - Quelles avancées technologiques ?

 VI - Conclusions 

I - Introduction

Les mesures et observations de l'océan "In-Situ" ne datent pas d'aujourd'hui. 

C'est la pose du premier câble télégraphique sous-marin en 1851 entre la France et la Grande Bretagne qui a fait prendre conscience de la nécessité de mieux connaître les fonds marins (topographie, température, sédiments, courants).
L'expédition britannique du navire Challenger de 1872 à 1876, avec ses quelques 400 stations de mesures réparties dans les océans Atlantique, Pacifique et Indien fut la première à réaliser de véritables observations de l'océan. Ce fut un succès et le début de la science "océanographique". 


challenger
 HMS Challenger Plateforme instrumentale

D'autres expéditions ont suivi mais les moyens dont on disposait rendaient les campagnes de mesures et d'exploitation très longues. Il a fallu attendre le milieu du 20ème siècle et ses formidables progrès technologiques notamment en matière de communication spatiale pour accéder à une connaissance dynamique des océans.

Depuis la fin des années 60, l'électronique et sa miniaturisation ont permis de faire des mesures océanographiques In Situ de plus en plus précises et en permanence. 

Origine CNES

À la fin des années 70, la mise en place du système de collecte de données et de localisation par satellite à couverture mondiale, Argos, a donné aux mesures In Situ une dimension supplémentaire : la faculté d'être disponibles quasiment en temps réel dans tous les laboratoires concernés de la planète.

Ce système a été mis au point dans le cadre d'une collaboration Franco-Américaine entre le CNES (Centre National d’Études Spatiales) et la NASA puis la NOAA (National Ocean and Atmospheric Administration). 

Il est exploité en France par CLS (Collecte et localisation par Satellite).

II - Quelles mesures in situ ? 

Il existe une grande diversité de paramètres hydrologiques mesurés in situ : température, salinité, pression, conductivité, courants, paramètres physico-chimiques... ayant des applications dans des domaines aussi variés que l'océanographie, la biologie, la météorologie, la climatologie, la sismologie, plus récemment la biogéochimie. Ces paramètres hydrologiques constituent aussi un outil de base pour l'étude du fond des océans pour la paléoclimatologie et le paléomagnétisme...

L'océanographie opérationnelle utilise les profils de température et de salinité et les mesures de vitesses le long des trajectoires de flotteurs qui viennent compléter les données obtenues par satellites.

Voir Mercator océan, les composantes systèmes

III - Quels systèmes de mesures ?

Mesures du réseau Argo

Les mesures océanographiques In Situ sont effectuées par des instruments de mesures en surface ou immergés (en profondeur depuis la sub surface jusqu'au plancher océanique). Les mesures sont faites, soit lors de passage de navires océanographiques ou même marchands, soit par des systèmes automatiques, fixes ou dérivants.

moyen mesures in situ

Crédit Euro-Argo ERIC

Les navires larguent au bout d'un câble à la fois mécanique et électrique, des sondes qui permettent de mesurer les paramètres hydrologiques sur un profil vertical de la surface jusqu'au fond. Il s'agit des bathysondes CTD (conductivité pour la mesure de la salinité, température, profondeur). Une bathysonde peut être munie de capteurs additionnels (turbidité, chlorophylle, oxygène dissous); elle est souvent montée sur un dispositif de prélèvement d'eau de mer nommé "rosette" (barillet portant des bouteilles de prélèvement dont la fermeture peut être commandée de la surface). Les échantillons recueillis sont utilisés pour étalonner les capteurs de la bathysonde et mesurer d’autres paramètres.

Les bouées fixes (encore appelées bouées ancrées, ou mouillages) entrent dans la catégorie des capteurs dit "Eulériens" et permettent, en un lieu donné, de suivre l'évolution des paramètres océaniques tels que température, salinité, courants, et paramètres biogéochimiques, en fonction de la profondeur et du temps.

Les bouées et flotteurs dérivants entrent dans la catégorie des capteurs dit "Lagrangiens" : ils évoluent librement au gré des courants. En fonction de leur situation, ils donnent des indications sur les courants en surface (flotteurs de surface) et en profondeur (flotteurs de subsurface pouvant être localisés acoustiquement en profondeur ou simplement localisés quand ils remontent en surface à intervalles réguliers). D’abord destinés à mieux connaître la circulation générale, les flotteurs de subsurface se sont peu à peu transformés en profileurs automatiques (profileurs Argo) en fournissant régulièrement des profils de température et salinité entre la surface et 2 000 m d’immersion. Plus récemment, ont été développé des flotteurs pouvant descendre jusqu'à 4 000 m de profondeur, certains étant conçus pour aller jusqu'à 6 000 m (Deep Argo). De nouveaux capteurs biogéochimiques (oxygène, nitrate, chlorophylle, pH, carbone particulaire, éclairement) ont été ajoutés sur des versions plus complexes de ces flotteurs (BioGeoChemical Argo).

Réseau Pirata. Origine IRD. Jacques Servain

Il existe une grande diversité de mesures avec des moyens et procédés différents.
Les navires océanographiques sont des moyens lourds nécessitant une importante intervention humaine, donc coûteux.
Le recours aux navires de commerce permet de répéter à moindre coût des observations dont l’exécution est aisée (XBT, température de surface, salinité) sur de longues lignes de navigation.
Les mouillages sont aussi coûteux car il faut un bateau pour aller les poser, les entretenir et les rechercher. 

Les flotteurs dérivants sont moins onéreux, ils nécessitent un bateau pour leur mise en place initiale mais ont ensuite leur autonomie qui peut aller jusqu'à 5 ans. 

La quasi totalité de ces points de mesure est maintenant équipée de balises Argos ou Iridium (avec capteur GPS) pour la localisation et la transmission des données. Les données sont transmises à un centre de traitement qui les met à disposition des utilisateurs en temps quasi réel.

Mesures complémentaires de celles du réseau Argo

Les animaux marins

Les grands mammifères marins qui, pour se nourrir, effectuent fréquemment des plongées à de grandes profondeurs, peuvent transporter des capteurs de température, de salinité et de profondeur, et aussi de concentration en chlorophylle et en oxygène. Ceci est rendu possible, depuis 2004, grâce à la miniaturisation des capteurs.
Lancée à l'initiative de Christophe Guinet du Centre d'études biologiques de Chizé (CNRS), une opération de collecte de données océanographiques utilise des éléphants de mer qui, avec ces capteurs collés sur leur tête, effectuent des plongées très profondes, jusqu'à plus de 2000 m, au cours de leurs longues migrations dans l'Océan Antarctique. Les atouts de cette opération sont d'une part de fournir des données dans une région éloignée et difficilement accessible, et d'autre part de plonger plusieurs fois par jour jusqu'à plus de 1000 m de profondeur, alors que les flotteurs ARGO n'effectuent qu'un seul profil vertical de mesures tous les dix jours. Ainsi les éléphants de mer récoltent environ 80 % des données de température et de salinité dans cet océan, localisées le long de leur trajet migratoire qui, pendant sept mois chaque année, les mène à partir des îles Kerguelen à explorer une vaste zone comprise entre 70 °E et 100 °E, et 45 °S à 65 °S.

migration

Suivi ARGOS de 26 Éléphants de Mer se reproduisant sur les îles Kerguelen
(Mathieu Authier, 2011)

Les résultats des mesures sont transmis vers le site CORIOLIS et vers le centre de données international MEOP via le système ARGOS lorsque les éléphants de mer gagnent la surface. Entre 2004 et 2011, 125 000 profils de température et 28 000 de salinité ont ainsi été collectés par 154 éléphants de mer et transmis en temps quasi-direct à Mercator, le modèle français européen de l'océanographie opérationnelle.

D'autres programmes ont été mis en place ces dernières années qui permettent, comme celui décrit dans l'article ci-dessus, de compléter les observations dans les endroits où le réseau  Argo ne peut aller :

Les"gliders" ou planeurs sous-marins

Le glideur est un véhicule de forme hydrodynamique qui se déplace dans l'eau de manière autonome. Il se présente sous la forme d'une torpille de longueur 1,50 m environ et pèse 50 à 60 kg. 
Il se déplace grâce à des variations cycliques de sa flottabilité. Il commence par plonger lorsque son ballast se remplit d'eau, en conséquence sa flottabilité diminue. Ses ailes donnent alors naissance à une force de portance qui lui permet de planer. Pour remonter, il vide son ballast. Il se déplace ainsi en suivant une trajectoire en forme de ligne brisée.
Il est équipés de capteurs qui permettent d’acquérir des données océanographiques tels que paramètres physiques et biogéochimiques, comme la température, la salinité, l'oxygène, la chlorophylle,... avec une bonne résolution spatiale (tous les km pour un profil allant jusqu'à 200 m de profondeur, et tous les 5 km pour un profil à 1 000 m).
À fréquence régulière, il remonte à la surface, les données enregistrées pendant la plongée sont alors transmises et collectées à terre en temps réel via une liaison satellitaire, Iridium ou Argos. Le pilotage  du glider se fait par le même canal.
Il peut sillonner les océans pendant des milliers de kilomètres de quelques semaines à  plusieurs mois en fonction du type de piles embarqué, descendre jusqu'à une profondeur de 1 000 mètres, voir plus.


La gestion du glider et la collecte des données demande une organisation délicate. La collecte des données et le pilotage se faisant  par le même canal satellite, il faut gérer ce flux bidirectionnel et effectuer le traitement des données le plus rapidement possible afin de pouvoir réagir rapidement  pour piloter au mieux le glider. Sachant qu'un glider fait surface toutes les 2 à 5 heures, cela laisse peu de temps pour réagir. C'est une surveillance permanente.

Les planeurs sous-marins sont complémentaires des profileurs Argo qui sont limités à des petites distances.
Par rapport aux balises et capteurs embarqués sur des mammifères marins,  leur coût est plus élevé  et ils ont des difficultés  à éviter des obstacles non référencés comme des objets flottants, de la glace de mer. Comparé à un navire océanographique, son prix est bas.
Un avantage cependant est qu'ils peuvent réaliser de longues séries de mesures sur des zones définies selon un échantillonnage maîtrisé.

Cette idée de planeur est ancienne. Elle a été proposé par Henry Stommel  en 1989,  connu sous le nom de Slocum, en l'honneur de Joshua Slocum, qui a effectué le premier tour du monde en solitaire en voilier. L'idée était d'exploiter l'énergie du gradient thermique entre les eaux profondes de l'océan (2 à 4°C) et les eaux de surface (près de la température atmosphérique) pour atteindre une autonomie autour du globe, limitée uniquement par la puissance de la batterie à bord pour les communications, les capteurs et les ordinateurs de navigation. Henry Stommel, un des plus grands océanographes du XXème siècle déclarait en 1955 : «Faute d’observations, l’océanographie est surtout le fruit de l’imagination des océanographes».

L'utilisation de planeurs sous-marins pour les programmes d'observations des océans côtier et hauturier se s'est développée vers les années 2000.

Pour être mise en oeuvre de manière efficace, elle supposait une infrastructure  et  la création d'une flottille de Glider. Ceci a été réalisé par une mutualisation entre tous les acteurs au sein d’une structure technique dans le cadre d’une association entre les équipes de l'Ifremer et la Division Technique de l'INSU

En 2008, grâce à deux chercheurs océanographes  P. Testor (LOCEAN) et L. Mortier (ENSTA), le CNRS a créé le parc national des gliders en partenariat avec le CETSM / IFREMER et avec le concours de la DGA, l’IRD et l’UPMC. Il a été intégré à la Division Technique de l'INSU et  localisé à La Seyne-sur-mer.

10gliders 2 c321a

Crédit INSU

Les observations de l'océan par gliders sont utilisés par nombre de programmes : par exemple, les travaux de l'INSU sur le circuit 3D des masses d'eau en Méditerranée :

"Non seulement des mouillages, des bouées météo, des navires océanographiques et des avions de recherche ont été déployés, mais aussi des plateformes autonomes issues des derniers développements technologiques pour fournir l’extension dans le temps et dans l’espace en temps quasi-réel : bouées dérivant avec le courant de surface, flotteurs-profileurs (ARGO), planeurs sous-marins (« gliders »), capteurs installés sur un navire de commerce, et enfin profileurs de vent installés à terre."

Documentation

Parc national des gliders - Insu 

Engins sous-marins Ifremer

Projet collaboratif en Océanographie Côtière -  LEFE-GMMC

Ensta Présentation des gliders et des défis associés.

The Slocum Mission - Narrative and Illustration - Henry Stommel

Mesures radar HF

Article à venir.

Ces mesures concernent le suivi temps-réel des courants de surface sur une large zone couvrant les zones côtières.
La technique utilisée est le radar courantomètrique.

Réseau national de radars côtiers pour la mesure des courants, états de mer et vent. Mercator Océan.
Publications de Céline Quentin, chef de projet "Radar HF au CNRS", Institut Méditerranéen d'Océanologie
Archives ouvertes Hal - Toulon

 IV - Quels programmes ?

Un grand nombre d'équipes travaillant dans le monde entier, géophysiciens, biologistes, climatologues, océanographes... ont besoin pour leurs travaux théoriques ou appliqués d'une pluralité de données océanographiques. 

Comment utiliser au mieux toutes ces opportunités, technologies, et multiples mesures qui permettent d'observer l'évolution de l'océan et qui concernent l'ensemble de la planète ?

Une recette éprouvée, la coopération, le partenariat, et la pluridisciplinarité !!!

L'océanographie opérationnelle, héritière d'expériences mondiales comme WOCE (World Ocean Circulation Experiment) ou TOGA (Tropical Ocean Global Atmosphere), s'inscrit dans une démarche plus vaste de surveillance de la Planète. En effet, compte tenu des risques naturels ou artificiels, conséquences des activités humaines, une auscultation permanente de tous les compartiments de la biosphère (atmosphère, océan, végétation), est indispensable. Toute la difficulté de cette démarche à peine entamée est de faire converger les multiples initiatives par institutions, par culture, par région ou par type de problématique...

Outre les centaines de bouées fixes ou dérivantes déployées "individuellement" pour les besoins de l'Océanographie ou ceux de la Météorologie, des réseaux internationaux de bouées ou de flotteurs transmettent les données en temps quasi réel, et ce depuis plusieurs décennies. 

Citons le programme TAO (Tropical Atmosphere Ocean project) dont le développement a été motivé par le phénomène El Niño de 1982-1983. Le réseau prototype (TOGA), achevé en 1994, a déployé 70 mouillages opérationnels (type ATLAS, Autonomous Temperature Line Acquisition System) réparties dans l'océan Pacifique, donnant des informations sur le vent en surface, l'humidité relative, la température de l'air et de la mer en surface et subsurface. Cette expérience à laquelle participèrent les USA, la France, le Japon, Taiwan et la Corée s'est poursuivie, sous l'égide de CLIVAR, GOOS, et GCOS (voir ci-après).

Elle est devenue en 2000 le réseau TAO/TRITON , avec l'introduction des bouées Japonaise TRITON (Triangle Trans Ocean Buoy Network). 

La dernière initiative est le programme international Argo, le déploiement mondial d'un réseau de flotteurs profileurs qui est en pleine expansion.

Le programme Argo a été lancé en 2000 sous l'égide de la COI par 18 de ses pays membres.

Il complète les mesures d'altimétrie (satellites Jason puis Sentinel et Envisat) et permet ainsi d'alimenter les modèles numériques.

En septembre 2006, 2527 profileurs recueillaient des données sur la température et la salinité de l'eau dans tous les océans du monde.

Origine, International Argo Information Center

En 2020, c'est quasiment 4 000 flotteurs qui recouvrent l'ensemble des mers y compris l'océan Arctique.

Les deux réseaux TAO et ARGO, équipés de balises Argos transmettent leurs données par satellite à un centre de réception qui les redistribue aux équipes concernées, quasiment en temps réel, soit par internet, soit via le GTS (Global Telecommunications System) de l'OMM (Organisation Météorologique Mondiale). 

Le traitement en temps réel des données du programme Argo est effectué principalement dans deux centres spécialisés situé l'un en France, l'autre aux États Unis.

L’infrastructure Coriolis commune aux organismes IRD, IFREMER, SHOM, Météo France, CNES, CEREMA, IPEV rassemble un réseau de données incluant Argo, les flotteurs de surface, les marégraphes, les gliders et certaines données de navires marchands et de recherche. Beaucoup d'équipes de recherche françaises et étrangères transmettent leurs données des campagnes en temps réel au centre opérationnel Coriolis. L’ensemble plus complet des données des campagnes françaises sont gérées quant à elles dans la base de données SISMER de l’Ifremer. Le pôle de données ODATIS a été mis en place plus récemment pour regrouper l’ensemble des bases de données et des produits liés à l’observation de l’océan (in-situ et satellite).

Répartition des flotteurs Argo et bouées captées par Coriollis 

Des structures similaires pour la gestion des données océaniques existent dans les différents pays (e.g. NODC et Argo data centers aux USA).

Ces centres de collecte, de traitement et de diffusion de données ont été une première concrétisation d'initiatives antérieures dans le domaine de l'océan et du climat comme : Global Ocean Observing System (GOOS), Global Climate Observing System (GCOS), Climate Variability and Predictability Experiment (CLIVAR), and Global Ocean Data Assimilation Experiment (GODAE).

En 2003, les gouvernements ont créé GEOSS (Global Earth Observation System of Systems), afin de combler au niveau mondial le manque d’observations des facteurs qui influencent le climat de la Terre.
En Europe, un programme européen pour la surveillance mondiale pour l'environnement et la sécurité a été initié en 1998. Il s'agissait de GMES (Global Monitoring for Environment and Security) qui est devenu Copernicus (Europe's eyes on Earth) en 2014. Le programme Copernicus inclut une composante spatiale (les sentinelles), une composante in-situ mis en œuvre par les états membres et six services européens dont le service marin (CMEMS) mis en œuvre par Mercator Ocean International.

La création de l'ERIC Euro-Argo en 2014 a pour objectif d’optimiser et de pérenniser la contribution de l’Europe au programme mondial Argo et de fournir un service d’excellence à la communauté scientifique "océan- climat" et à l’océanographie opérationnelle.
Euro-Argo comprend également la réalisation d’une nouvelle phase du programme Argo : l'extension aux plus grandes profondeurs, aux paramètres biogéochimiques et à la couverture des zones polaires.

L'objectif d'Euro-Argo est d'organiser les contributions de ses membres afin de permettre à l'Europe de :

  • Déployer et maintenir un réseau de flotteurs Argo,
  • Fournir un service d'excellence aux communautés recherche (océan, climat) et océanographie opérationnelle (Copernicus Marine Environment Monitoring Service).

V - Quelles avancées technologiques ?
argo nov 2020 3914

Source Argo

Comme le montre la figure ci-dessus, près de 4 000 flotteurs couvrent toutes les mers du Globe, dont la plus grande partie recueille toujours des données sur la température et la salinité de l'eau, mais dont une autre partie recueille d'autres données grâce aux flotteurs biogéochimiques et aux mesures à grande profondeurs.
Ces développements ont été faits grâce au projet Equipex-NAOS , démarré en 2011.

Ils ont permis de développer de nouvelles génération de flotteurs :

  • les flotteurs "BCG-Argo" (BioGeoChimique) qui sont équipés de capteurs de mesures du ph, de l'oxygène ,du nitrate, de la chlorophylle.

bgc argo net

  • Les flotteurs profonds qui fournissent des données jusqu'à 4 000 m de profondeur (voire 6 000 m pour certains flotteurs) ce qui permet de connaître comment l’excès de chaleur pénètre et voyage dans l’océan.

deep models argo net

VI - Conclusions

Issue d'une coopération très réussie entre plus de 30 pays, ce réseau mondial unique d'observation globale in-situ des océans, complément indispensable des observations satellites, a permis de mettre en oeuvre la démarche préconisé par Claude Bernard : "observer, comprendre, prévoir", chère au Club des Argonautes.
On peut dire qu'il est maintenant pérennisé.

Depuis plus de deux décennies, on dispose de manière opérationnelle d'un grand nombre de données hydrologiques en temps réel :

  • Les mesures faites systématiquement à partir de navires dits d’opportunité le long de lignes de navires commerciaux (programme "Ship of opportunity")
  • Les flotteurs qui dérivent en surface au gré des courants (global drifter programme)
  • Le réseau de flotteurs de sub-surface du programme Argo, déployés dans tout l’océan qui sont programmés pour explorer tous les dix jours les 2000 premiers mètres de l’océan et au-delà
  • Les mouillages de longue durée comme ceux des réseaux TAO/ Triton et Pirata qui surveillent les océans Pacifique et Atlantique équatoriaux.

Cette série d'observations a permis des avancées remarquables dans la représentation par des modèles numériques de l’océan. Les données sont systématiquement utilisées par les systèmes mondiaux d’océanographie opérationnelle (e.g. NOAA aux USA, BOM en Australie, Mercator Ocean en France et le service marin de Copernicus qui fédère l’ensemble des systèmes européens).

La France est très présente dans tous les aspects du programme Argo : elle possède, à Brest, l'un des deux centres mondiaux de traitement des données Argo (Coriolis), elle participe au développement de l'instrumentation (NAOS programme Equipex) et à la mise à l'eau des flotteurs. De nombreux laboratoires contribuent à la recherche "océan, climat, biogéochimie" (Insu, Ipsl, Lops, Locean, Ifremer,.. liste loin d'être exhaustive) et à l’océanographie opérationnelle (Mercator Ocean, Service Marin de Copernicus).

Documentation :

Programme Argo

Tout sur Argo

Coriolis

Euro-Argo Eric

Copernicus Marine Service

Mercator Ocean International

Le projet NAOS 
Brochure finale NAOS
Réunion finale NAOS-EQUIPEX
Articles :
Preparing the New Phase of Argo: Scientific Achievements of the NAOS Project
Preparing the New Phase of Argo: Technological Developments on Profiling Floats in the NAOS Project

 

 

 Mars 2005 - Mis a jour mars 2012

I - Les modèles, particularité de l'océan

II - La prévision, où en est-on?

III - Les prévisions océaniques, un expérience mondiale

I - Les modèles, particularité de l'océan

L'Océan: étendue d'eau incommensurable"...., cette affirmation risque d'être, au moins partiellement, remise en cause par les progrès récents de l'océanographie.

Il est commun d'observer que les techniques d'échantillonnage, de mesure, et de simulation numérique ont connu des progrès considérables au cours des dernières décennies. 

Origine Mercator PSY3

Dans le cas des phénomènes turbulents créés dans l'océan par le vent, la rotation terrestre, et le chauffage solaire, les océanographes, les physiciens, et les ingénieurs, ont su conjuguer ces avancées (entre elles, et avec celles des moyens de calcul), de façon à produire des descriptions réalistes du milieu océanique. C'est en cela que l'océan devient un peu moins incommensurable.

À l'image des simulations de l'état de l'atmosphère produites plusieurs fois par jour par les Services Météo, les modèles numériques d'analyse et de prévision de l'état de l'océan comportent désormais des millions de "points" dans les 3 dimensions.

Dans le cas de l'océan, tout comme de l'atmosphère, ces modèles mathématiques décrivent le mouvement des fluides (eau, air) à la surface de la terre, ainsi que les transports de chaleur et de matière qui leur sont associés. Chaque processus physique est traduit en équations mathématiques de façon à en calculer les effets sur les paramètres océaniques, vitesse, température et salinité, en tout lieu de la zone modélisée et au cours du temps. 

Comme pour la prévision numérique du temps, la simulation réaliste des phénomènes turbulents présents au sein du fluide océanique se fait avec une confiance qui dépend de la connaissance du spectre (spatio-temporel) des erreurs de mesure.

Pour la prévision météo, la "limite du chaos", liée à la description forcement incomplète des conditions initiales (le fameux effet "papillon" décrit par Lorenz, dans un article célèbre), est d'un peu plus de 10 jours: les spécialistes savent que, pour l'instant, on s'approche de cette limite selon le rythme de "1 jour tous les 5 ans". Bien entendu, ils n'escomptent pas que cela dure éternellement !

De même, pour l'océan, cette limite de prévisibilité, (liée à ce qu'on pourrait appeler "l'effet mérou"...), est de quelques semaines, tandis que le besoin de rafraîchir le jeu de mesures utilisé pour guider le modèle numérique est de quelques jours, (au lieu de quelques heures pour l'atmosphère). 

À titre d'illustration, voir ces deux animations montrant la variation de paramètres physiques de l'océan, la température obtenue à partir de modèles exploitant les données d'altimétrie spatiale et de mesures in-situ.

Mercator Océan :

Cette animation ci-dessous "Respiration de l'océan" montre la variation de température de surface de l'océan durant deux semaines de l'été 2010. Ces données sont le résultat des modèles Mercator qui exploitent les mesures à partir de l'espace et les données in-situ. Grâce à la fréquence horaire de ce modèle, on voit apparaitre deux cycles : le mouvement de marée dans l'Atlantique et le cycle diurne. 

 

 

NASA/Goddard space flight center

Cette animation montre les courants de surface de l'océan mondial pendant la période de juin 2005 à décembre 2007.

Ces résultats de circulation océanique sont issus du modèle ECCO2 qui exploite les données satellite et les données de mesures in-situ. Ce modèle a été développé par le MIT et le JPL.

 

 

 II - La prévision, où en est-on?

Dans un exercice de prévision de l'état et de la dynamique des masses d'eau (la circulation océanique), le modèle se nourrit des observations satellitaires et in situ (on dit qu'il les assimile), et peut ainsi rester plus longtemps sur la "bonne trajectoire", (dans "l'espace dual" où l'on trouve, pour certaines formes de chaos, des "attracteurs étranges"...). Dans ce cas favorable, la description de l'état tridimensionnel de l'océan à échéance de quelques semaines, (le "produit de base" de l'océanographie opérationnelle), sera de bonne qualité, en dépit du phénomène du chaos...

"Observer, comprendre, prévoir"

Parmi les mesures considérées comme vitales pour les modèles numériques il y a la topographie (altimètre), les mesures in situ au sein des masses d'eau océaniques et les forçages atmosphériques déduits des modèles météo eux aussi alimentés en mesures spatiales,( par exemple celle des diffusiomètres). La température et la salinité de surface sont aussi des valeurs utiles mais ne suffisent pas à contraindre un modèle à demeurer réaliste.

Les prévisions océaniques sont maintenant une réalité.

Voici un exemple de cartes fournies dans les bulletins prévisionnels Mercator

                      Courant de surface                      Salinité de surface                         Température de surface

La "chaîne de valeurs ajoutées" ou de "services aux activités maritimes" que l'on peut imaginer à partir de cette "matière première", ouvre des perspectives considérables, qu'il s'agisse de pertes évitées ou de gains de productivité. On peut d'ailleurs présumer qu'une grande partie de cet enjeu socio-économique reste à identifier. Pour s'en convaincre, il faut se souvenir que, lors des premières tentatives de prévision météorologique (cf. le rapport de Le Verrier après un désastre naval, en 1854, pendant la guerre de Crimée), l'aviation civile n'existait pas: il était difficile d'imaginer l'importance qu'allait prendre, pour ce seul secteur, la prévision du temps. Comment ne pas songer aussi au rôle de prévisionnistes comme Walter Munk pour annoncer l'accalmie du 6 juin 1944 sur les cotes normandes ?

III - Les prévisions océaniques, une expérience mondiale  

Tout au long de ce texte, un parallèle est fait avec les modèles et prévisions météorologiques. Ce parallèle est aussi pertinent au niveau de l'organisation que de la  prévision. 

Dans les années 90, on pouvait faire le double constat suivant :

D'une part, nombre d'équipes de recherche dans le monde, étudiaient la modélisation numérique de l'océan. Les équipes collaboraient bien entre elles mais aucune n'était capable de fournir régulièrement des informations détaillées sur l’état des océans,

D'autre part, un âge d'or de l'observation spatiale des océans était prévisible, compte tenu des plans publiés par les agences spatiales. 

En 1997, Neville Smith du Bureau de la Météorologie Australien et Michel Lefebvre, ancien responsable scientifique du CNES (Centre National d'Études Spatiales) proposèrent de suivre l'expérience réussie de la Météorologie.

Leur idée était de montrer clairement la faisabilité et la valeur d’un système d’observation océanique à l’échelle mondiale ainsi que l’intérêt de convaincre des gouvernements de financer la pérennisation de ces systèmes expérimentaux. C'est ainsi qu'après de multiples efforts de persuasion, l'expérience mondiale GODAE (Global Ocean Data Assimilation Experiment) est née.

L'idée a été reprise par l'OOPC (Ocean Observation Panel for Climate) en utilisant le précédent qu'avait été en 1979, la première expérience globale du GARP (Global Atmospheric Research Program).

L’OOPC, soutenu par les principaux acteurs du domaine [COI (Commission Océanographique Intergouvernementale), OMM (Organisation  Météorologique Mondiale) et CEOS (Comitee on Earth Observation Satellite) a lancé le projet GODAE, destiné à tirer parti du système global d’observation que commençaient à mettre en place les agences spatiales et les institutions océanographiques.

En effet, cet "âge d'or" des observations permettaient d'alimenter simultanément différents modèles numériques et aussi de tester par inter comparaison leurs mérites respectifs.

En se référant uniquement aux satellites, les années 2003-2005 semblaient le moment idéal pour effectuer une démonstration de faisabilité. Cela a bien été le cas.

Cette initiative est soutenue par la COI, l'OMM, les Agences Spatiales de différents pays ainsi que d'autres organismes. De nombreux laboratoires européens, américains, japonais, australiens participent à cette expérience mondiale. L'année 2005 a vu la fin de la phase de faisabilité.

À terme, GODAE devrait évoluer vers un "système mondial d’observations, de communications, de modélisations et d’assimilation, qui sera capable de fournir régulièrement des informations détaillées sur l’état des océans, sous une forme propre à promouvoir et à engendrer une vaste utilisation et une disponibilité permanente de cette ressource pour le plus grand profit des utilisateurs.
L’objectif de GODAE est de transformer ce concept en réalité, en faisant du suivi et des prévisions océaniques une activité de routine à l’image des prévisions météorologiques. GODAE fournira, à l’échelle mondiale, des informations océaniques précieuses pour le suivi des changements climatiques, le trafic maritime et les services de pêche."

Le grand succès de GODAE aura été de permettre des avancées scientifiques considérables et aussi de consolider le travail au plan institutionnel déjà entrepris dans le cadre de GOOS (Global Ocean Observing System) : la répartition des tâches et la bonne façon de s'y prendre, toutes réflexions qui ont débouché sur des initiatives comme GEOSS (Global Earth Observation System of Systems) et GMES (Global Monotoring for Environment and Security) qui inclue depuis 2009 le programme My Ocean. Ce programme est devenu  Copernicus, The european earth observation progam

Une grande "Cause Mondiale"

Mars 2005 - Dernière mise à jour : Février 2016

I- La planète Terre, notre habitat : Un système fragile

II - Un enjeu nouveau : La dynamique de la Terre

III - « Inventerre » : Où en sommes nous? que nous manque-t-il?

IV - L’apport décisif des systèmes spatiaux

V - La continuité des mesures

VI - La nécessité d'une action au niveau mondial 

I- La planète Terre, notre habitat : Un système fragile

La planète Terre est notre irremplaçable habitat car nous ne disposons pas d’alternative. En effet, il y a peu de chances de pouvoir coloniser un corps du système solaire et même si l’on découvre sans cesse de nouveaux systèmes planétaires, leur accès est hors de portée pour longtemps.

Notre planète est unique à bien des points de vue : en particulier, c’est la seule planète du système solaire où l’eau, source de toute vie, se trouve à l’état naturel sous forme gazeuse, liquide et solide. 

Elle bénéficie en outre d’une atmosphère qui contient l’oxygène suffisant pour maintenir la vie, d’une couche d’ozone stratosphérique qui protège des rayonnements UV en provenance du soleil et d’un « effet de serre » qui permet de maintenir des conditions de températures acceptables pour la vie et les écosystèmes.

La planète Terre est le résultat d’une très longue évolution qui met en jeu des interactions complexes entre ses différentes composantes (i.e. les océans, les calottes polaires, les terres émergées, l’atmosphère) et le rayonnement solaire en tant que source d’énergie. Il est clair que les activités humaines ont toujours influencé l’environnement terrestre, cependant, la croissance exponentielle de la population mondiale et de l’exploitation des ressources naturelles ainsi que l’industrialisation rapide aux 19ème et 20ème siècles conduisent à des changements dramatiques du système Terre. Les activités humaine liées essentiellement à l’utilisation de l’énergie fossile (pétrole, gaz, charbon), les modifications du couvert végétal dues à l’agriculture moderne, le développement des grandes concentrations urbaines, la déforestation …etc, ont des effets perturbateurs sur toutes les composantes du système Terre à l’origine du réchauffement global de notre planète et des changements climatiques.

Les scientifiques, même s’il y a encore beaucoup à explorer, comprendre et quantifier, sont maintenant unanimes à reconnaître l’influence anthropogénique sur la pollution atmosphérique et l’intensification de l’effet de serre, l’élévation du niveau moyen des océans, la disparition progressive des glaciers et, par conséquence, l’augmentation de la fréquence des épisodes météorologiques extrêmes ou violents, l’appauvrissement de la biodiversité…etc. 

L’Homme, passager de la Terre ( en quelque sorte «Géonautes»), se doit d’explorer, de découvrir, de comprendre pour essayer de prévoir l’évolution du système fragile auquel il appartient afin de réduire les incertitudes qui pèsent sur son avenir à court, moyen et long terme. Le concept de «Développement durable», c’est-à-dire "un mode de développement qui s'efforce de répondre aux besoins du présent sans compromettre la capacité des générations futures à satisfaire les leurs", qui est apparu dans les années quatre-vingt et a pris son essor avec le Sommet de Rio, implique la recherche d’un nouveau Savoir à partager essentiel pour un Vivre durable.

II - Un enjeu nouveau : La dynamique de la Terre

On peut sans doute dire que la Terre est la plus complexe et la plus « dynamique » des planètes connues, celle qui évolue le plus rapidement et aussi la seule où la vie participe activement à cette évolution. Le système Terre évolue à toutes les échelles de temps : depuis celle de la dynamique du manteau qui «gère» la tectonique des plaques et modèle continents et océans à celle de l’atmosphère qui fait la pluie et le beau temps au jour le jour. Toutes ces échelles sont interconnectées et l’on peut ainsi remonter de la météorologie à la tectonique des plaques : les circulations atmosphériques et océaniques et donc les climats sur Terre ne seraient pas ce qu’ils sont si océans et continents avaient une autre configuration. Les études paléo-climatiques utilisant les sédiments marins ou bien les carottes glaciaires l’ont bien montré.

Jusqu’aux années cinquante, la Terre n’était pas un objet d’étude par elle-même mais plutôt l’addition de secteurs ou disciplines qui, dans une certaine mesure, s’ignoraient. Elle commence pourtant à devenir « planète » avec l’Année Géophysique Internationale de 1957-1958 qui tente d’analyser globalement pour la première fois les interactions entre les enveloppes supérieures de la Terre avec le rayonnement solaire. Coïncidence et vision, le premier satellite artificiel est lancé en octobre 1957. L’ère spatiale de l’observation de la Terre va pouvoir commencer. Observée comme ses consœurs cette fois depuis l’espace, elle peut devenir enfin une planète à part entière. 

Il faut aussi mentionner la prise de conscience, depuis deux décennies environ et sous l’impulsion des scientifiques, par les décideurs politiques et le grand public de l’évolution du climat qui, du fait de l’Homme, s’accélère et semble nous faire sortir des limites des variations climatiques que la Terre a connues ces huit cents milles dernières années comme le montre le dernier rapport du Groupe Intergouvernemental d'experts pour l’Etude du Climat( GIEC, en anglais IPCC).

Cette prise de conscience nous contraint d’étudier la Terre comme un Système global en privilégiant les échelles temporelles de la décennie à quelques siècles et la dynamique et le couplage de ses enveloppes supérieures : atmosphère, surfaces continentales, océans, cryosphère, biosphère ainsi que leurs relations avec la source d’énergie qui les anime : le rayonnement solaire. 

III- «Inventerre» : Où en sommes nous ? que nous manque-t-il ?

Où en sommes-nous ?

La connaissance fine des processus physiques, chimiques et biologiques qui régissent le système Terre est essentielle pour anticiper et mieux encore, prévoir son évolution et prendre les meilleures décisions possibles. Malheureusement la méthode expérimentale classique est inapplicable ici : on ne peut pas mettre la Terre en laboratoire ! On crée alors des laboratoires virtuels, les modèles numériques, avec lesquels on simule des scénarios d’évolution possible en jouant sur tel ou tel paramètre. La construction de ces modèles implique au préalable l’observation et la mesure des nombreux différents paramètres permettant la mise en équation de ces processus. Les cent cinquante ans d’histoire de la science météorologique illustrent bien la démarche qui, d’observations et mesures en modèles, a permis de progressivement réduire l’incertitude des prévisions du temps à un, trois puis sept voire quinze jours dans un futur proche. Les modèles eux-mêmes ne peuvent fonctionner que s’ils sont calés sur des mesures et des observations de qualité et ce sont encore les observations qui diront ensuite ce que valent les simulations.

La connaissance du système terre a progressé de manière très inégale, des étapes très importantes ayant été franchies pour les processus physiques, par exemple en océanographie physique où il existe maintenant des modèles robustes de prévision opérationnelle de la circulation océanique à l’échelle globale ainsi qu’à échelle moyenne (existence des champs tourbillonnaires), des capacités de détection précoce et de prévision saisonnière du phénomène d’ El Niño aux conséquences multiples (sécheresses, inondations, feux de forêts, productions agricoles…). On pourrait également mentionner les processus physiques et chimiques de l’atmosphère avec les applications opérationnelles bien connues en météorologie citées précédemment. Il est important de mentionner que ces progrès ont bénéficié d’une part du développement prodigieux de l’observation spatiale et d’autre part des performances sans cesse croissantes des moyens informatiques et des nouvelles techniques de traitement de l’information.

La connaissance de la biosphère, des processus bio-chimiques et biologiques, bien qu’en progrès constant, n’a pas suivi le même rythme de croissance. Ceci est principalement dû à la très grande complexité des phénomènes dans les domaines, par exemple, de la biodiversité, des écosystèmes marins et côtiers, à leurs interactions encore imparfaitement connues avec les processus physiques et plus généralement aux difficultés de modélisation de ces processus.

Que nous manque-t-il ?

L’évolution du climat est un processus dynamique continu. Le dispositif d’observation et de mesures doit donc être permanent à la fois dans le temps et dans la démarche scientifique, allant de l’acquisition des connaissances jusqu'aux  applications. 

En particulier, il n’y a pas lieu de différencier la recherche scientifique et les applications opérationnelles qui, toutes deux, ont besoin de systèmes d’observation et sont interactives, les secondes renvoyant à la première. Il y a donc urgence à garantir la pérennité de la "géoscopie" c'est à dire des systèmes d’observation de «la planète Terre». 

Le développement durable suppose un savoir durable, des systèmes et des moyens également durables d’acquisition de connaissances permettant d’observer, mesurer, modéliser et prévoir.

  IV- L’apport décisif des systèmes spatiaux

La Terre navigue dans le temps. Même en se limitant aux enveloppes superficielles de la Terre qui constituent notre habitat, les échelles temporelles à prendre en compte sont multiples et vont de la prévision météorologique au quotidien aux évolutions climatiques et à celles de la biosphère sur plusieurs siècles. Les échelles spatiales sont également cruciales et vont du local, de l’échelle d’un bassin versant par exemple, au régional et au global pour le climat. Les systèmes d’observation doivent donc prendre en compte cette diversité des échelles spatio-temporelles et des milieux.

Les systèmes d’observation spatiaux, qu’ils soient en orbite proche autour de la Terre ou en orbite géostationnaire, sont les seuls à pouvoir fournir des informations objectives, continues et cohérentes sur toute la Terre avec les pouvoirs de résolution spatiale adaptés et ceci durablement dans le temps. Ils permettent en particulier d’observer des zones difficiles d’accès pour des raisons géographiques (calottes polaires, océans, forêts tropicales) ou politiques (zones de conflits). Ils permettent aussi d’observer des évènements aléatoires dans le temps tels que les catastrophes naturelles (Tsunami dans l’océan Indien en décembre 2004) ou provoquées par l’homme (pollution marine par le pétrolier Erika sur les côtes espagnoles et françaises en novembre 2002). Ils résolvent donc le problème si difficile des échelles spatio-temporelles imbriquées.

En outre, les systèmes spatiaux de localisation et de transmission de données permettent le déploiement et la collecte des données, partout sur la Terre et dans la durée, en provenance des systèmes d’observation « in situ » donnant par exemple accès à la dimension verticale ou à des échelles spatiales ou temporelles très fines que l’observation par satellite ne permet pas d’atteindre.

La combinaison des réseaux d’observation in situ et des systèmes spatiaux d’observation, de localisation et de transmission de données résolvent donc non seulement les problèmes d’échelles, mais ils permettent aussi l’intégration cohérente de tous les systèmes déployés. 

  V - La "vie d'une mesure"

  A l'occasion de la journée du Bureau des Longitudes consacrée à Arago en 2003, son descendant Bruno Frachon rappelait l'importance que François Arago attachait aux séries d'observations. En effet son illustre ancêtre écrivait à propos de la météorologie :

"il faut, en effet, songer à pourvoir nos successeurs de termes de comparaison dont nous manquons nous-mêmes; il faut leur préparer les moyens de résoudre une foule d’importantes questions qu’il ne nous est pas permis d’aborder." C'était il y a un peu moins de deux siècles!

Cette phrase est encore d'actualité et s'applique à merveille à l'observation de l'océan! 

On a vu tout au long des documents qui précèdent l'intérêt considérable de disposer, grâce aux moyens informatique et de communication,  de résultats de mesures en temps réel ou quasi réel. Mais la vie d'une observation ne s'arrête pas là. Elle présente aussi un intérêt en temps différé pour nos successeurs. 

Une même mesure peut aussi au cours de "sa vie" servir plusieurs domaines  d'activité (océanographie, météorologie, biologie..), alimenter des travaux de recherches, des travaux d'applications ou d'exploitation.

Ce propos peut être illustré par le réseau de mouillage TAO et le réseau de flotteurs ARGO . Tous deux sont issus de la recherche, TAO est déjà opérationnel, ARGO va le devenir prochainement. 

L'un et l'autre servent les communautés de recherche et des centres opérationnels. 

Dans le cadre de ARGO France, les responsables scientifiques ont été sélectionnés et participent au déploiement des profileurs et à la qualification des données pour le plus grand bien de l'opérationnel temps réel, puis de l'acquisition de connaissances en mode recherche.

Une multitude de projets sont concernés dans des domaines différents. Citons, GOODHOPE-LPO (réseau de mesures  dans l'Océan Austral, le long d'une radiale reliant les continents Africain et Antarctique), CIRENE (observation de l’océan Indien Tropical aux échelles de temps intrasaisonnières à inter annuelles, sur une période s’étendant de fin 2004 à fin 2007)., FLOSTRAL-LEGOS (flotteurs australs)....

  VI -  La nécessité d'une action mondiale 

Les processus physiques, chimiques et biologiques qui régissent notre système Terre ne connaissent pas les frontières des pays. 

Aucune initiative locale  même dotée de moyens considérables n'a de chance d'aboutir à des résultats cohérents.

La Météorologie a été reconnue très tôt comme une préoccupation planétaire, indispensable au bien de l'humanité, et appartenant à tous.

C'est pourquoi, l'Organisation Météorologique Mondiale est, depuis 1950, un réseau mondial unifié des Services Météorologiques et Hydrographiques des nations, permettant mondialement un libre échange des données, informations et services en temps réel.
La prévision océanique, peut-être parce que plus récente, n'a pas ce statut. Grâce à plusieurs initiatives, des réseaux coexistent. Plusieurs organisations dont l'objectif est de travailler pour le bénéfice de l'environnement et de l'humanité ont été créées, elles ont certes des relations d'échanges entre elles mais pas d'unité. 

Citons les trois principales ainsi que leurs nombreux rattachements :

GOOS (The Global Ocean Observing System) a été créé en 1991 par l'Assemblée de la COI (Intergovernmental Oceanographic Commission de l'UNESCO)  pour répondre au désir de nombreuses nations d'améliorer la gestion des océans et des mers, ainsi que les prévisions climatiques. 

GOOS fait partie d'une Stratégie mondiale intégrée d'observation (IGOS), au sein de laquelle des agences du système des Nations Unies [l'UNESCO et sa COI; l'OMM; le PNUE (Programme  des Nations Unies pour l'Environnement) et la FAO (Food and Agriculture Organisation), l'ICSU (International Concil of Scientific Unions) et les agences spatiales (réunies au sein du Comité sur les satellites d'observation de la Terre - CEOS (Commitee on Earth Observation Satellites). 

GEOSS (Global Earth Observation System of Systems) de l'U.S  EPA (Environmental Protection Agency) née d'une réunion du "Sommet de l'Observation de la Terre" à Washington en juillet 2003, poursuivie début 2004 par un nouveau sommet à Tokyo. L'objectif est de mettre en place avec les Nations développées un plan sur 10 ans de collecte des données. Un Bureau chargé de cette tâche est en cours d'installation à l'OMM à Genève..

Le projet Copernicus (anciennement GMES, Global Monotoring for Environment and Security qui a été lancé en 1998), initiative conduite par l’Union européenne et développée en partenariat avec l’ESA et ses États membres, vise à fédérer et rationaliser les activités européennes d’observation de la Terre.

Il comprend un ensemble de cinq services thématiques :

Ces services ont atteint différents degrés de maturité. Certains sont déjà opérationnels (land monitoring et emergency management) tandis que d'autres sont encore dans un mode pre-operationel (atmosphere monitoring et marine monitoring) ou en phase de développement (climate change monitoring et services for security applications).
Tous ces services sont gratuits.
Le 11 novembre 2014 la Commission Européenne et Mercator-Océan ont signé un accord qui délègue à Mercator -Océan la mise en place du service Copernicus de surveillance des océans (Marine Monitoring).

Les projets MyOcean 1 (2009-2012)MyOcean 2 ( 2012-2014) et MyOcean follow-on ( octobre 2014- mars 2015)  financés par la Commission Européenne avaient pour objectif la mise en place (définition, conception, développement et validationd’une phase de démonstration de la capacité européenne intégrée ("Marine Core Service")pour la surveillance, l'analyse et la prédiction des Océans, en s’appuyant sur l’ensemble des compétences et moyens existants au niveau national".

Ces projets constitués d'un consortium de 61 partenaires répartis dans 29 pays ont été les précurseurs de la composante  "Marine Environment Monitoring Service" du programme Copernicus lequel est désormais en phase d'opération. Voir la page Copernicus "Fourniture des produits et services pour toutes les applications marines. 

La description de ces diverses initiatives, en Europe et dans le monde est "volontairement simplifiée" afin de ne pas lasser le lecteur !! Ceux qui voudrait approfondir peuvent se plonger dans les sites internet de chaque organisation.

Un tel foisonnement est très encourageant. Il implique toutefois un minimum de convergence entre ces initiatives, toutes légitimes, faute de quoi en effet, le "soutien international durable", clé du passage à l'opérationnel, risquerait de ne pas être au rendez- vous.

Voir aussi notre CR de la réunion Oceanobs2009

 

Observation des océans
Une grande diversité de moyens : satellites, bouées dérivantes, navires, avions,... Crédit : https://www.odatis-ocean.fr/
Altimétrie spatiale
Les satellites altimétriques sillonnent les océans et mesurent avec une précision remarquable la hauteur des océans et son évolution.
Réseau Argo
Réseau international de plus de 3500 flotteurs profilants qui mesurent en temps réel la température et la salinité des océans de la surface à 4 000 m de profondeur. Pour en savoir plus, cliquer sur l'image.
Le niveau de la mer monte..
Grâce aux missions altimétriques des satellites Topex-Poseidon, Jason-1,2,3, puis à compter de 2020 Sentinel-6A, le niveau moyen global des océans est connu de façon continue depuis 1993. Pour en savoir plus, cliquer sur l'image.
Mercator Océan Prévisions
Exemple de bulletin physique journalier du 27/06/2020 (Prévisions à 9 jours) - Domaine complet - Température - 0 m. Pour en savoir plus, cliquer sur l'image.
Mercator Océan Prévisions
Exemple de bulletin biogéochimique hebdomadaire du 27/06/2020 (Prévisions à 3 jours) - Domaine complet - Concentration en chlorophylle - 0. Pour en savoir plus, cliquer sur l'image.

 

L'Océan "mondial" ou Océan "global" se compose des cinq océans : Atlantique, Pacifique, Indien, Arctique et Austral qui communiquent tous entre eux.

Sa superficie est de 360 millions de km2, soit 70% de la surface du globe terrestre et 650 fois celle de la France continentale.L'Océan "mondial" ou Océan "global" se compose des cinq océans : Atlantique, Pacifique, Indien, Arctique et Austral qui communiquent tous entre eux. .

Sa masse est de 1,4.1018 tonnes, soit 97% de l’eau de notre biosphère et près de 300 fois plus que la masse de l’air de l’atmosphère.

L'Océan échange en permanence avec l'Atmosphère :

  • échange d'énergie, transfert de chaleur entre l'équateur et les pôles
  • échanges gazeux, notamment le gaz carbonique et l'oxygène

L'océan est aussi un réservoir d'énergie. Il fournit des sources d'énergie renouvelable, les courants marins, la houle, l'énergie thermique des mers, l'éolien.

C'est le plus vaste écosystème de la planète. il contient une flore et une faune très riches qui nous fournit des ressources, matières premières, nourritures, médicaments...

L'océan joue un rôle majeur pour l'avenir de l'humanité : évolution du climat, énergie, biodiversité.

L'homme s'intéresse à l'océan depuis plusieurs siècles, depuis quelques décennies la recherche scientifique et technologique a fait des progrès considérables dans les domaines de l'observation, de la modélisation et de la prévision. Et pourtant, c'est encore insuffisant.

D'où la nécessité d'intensifier les recherches afin de "observer, comprendre, prévoir".

Ce dossier présente l'état actuel des connaissances et les recherches et aplications en cours.

Décembre 2016