logo argo large new

ocean

  • Yves Dandonneau

    Afin d’exploiter la différence de température entre l’eau profonde et l’eau superficielle pour en retirer de l’énergie, on doit amener de l’eau froide, profonde, jusqu’à l’usine chargée d’effectuer cette transformation (centrale ETM pour «énergie thermique des mers»). Or, cette eau froide est riche en carbonates et en gaz carbonique, et elle présente donc, en cas de contact prolongé avec l'atmosphère, le risque d’émettre du gaz carbonique vers l’atmosphère, réduisant ainsi l’intérêt de cette source d’énergie puisqu’elle contribuerait elle aussi au réchauffement climatique global induit par l’effet de serre dû à ce gaz.

    L’approche ci-dessous, combinant pompe physique et biologique, montre qu’il n’en est rien.

    Que se passe-t-il si de l’eau profonde est portée en surface vers une centrale ETM ?

    L’eau froide, riche en carbonates, a une pression partielle de gaz carbonique plus élevée que celle de l’atmosphère, et va donc émettre ce gaz vers l’atmosphère tant que la différence de pression partielle entre ces deux milieux ne se sera pas annulée. Pis, cette eau, exposée au rayonnement solaire, va se réchauffer ; or, pour une augmentation de 1 °C, la pression partielle de gaz carbonique de l’eau de mer augmente de 2,3 %. L’écart de température entre l’eau de surface et l’eau profonde requis pour un rendement satisfaisant d’une centrale ETM étant de l’ordre de 20 °C, une eau profonde dont la pression partielle de CO2 serait de l’ordre de 950 microatmosphères atteindrait ainsi, après avoir atteint la même température que l’eau de surface, une valeur proche de 1500 microatmosphères. L’évasion de gaz carbonique serait alors très intense.

    Heureusement, l’eau profonde n’est pas seulement riche en carbonates, mais aussi en sels nutritifs. Ces derniers, en présence de lumière, favorisent une croissance végétale intense au cours de laquelle du carbone est fixé sous forme de matière organique, puis entraîné vers la profondeur avec les débris planctoniques. Ce processus tend à faire diminuer de façon importante la pression partielle de gaz carbonique, et tend donc à contrecarrer l’effet purement physique précédent.
    Ces transformations prennent place dans un milieu océanique où les masses d’eau se répartissent en fonction de leur densité, c'est-à-dire, dans les régions favorables à l’exploitation de l’ETM (les centres des océans tropicaux), en fonction de leur température. Ainsi, l’eau froide, quelque peu réchauffée après usage, mais toujours plus dense que l’eau chaude de surface, tendra à rejoindre un nouveau niveau d’équilibre en profondeur.

    Il est difficile d’estimer la quantité de CO2 qui serait émise vers l’atmosphère par l’ETM…

    C’est seulement lorsque de l’eau originaire de la profondeur se trouve en surface qu’elle peut émettre du CO2 vers l’atmosphère. Le dégazage n’est donc théoriquement possible que pendant une courte période, avant que l’eau ne commence à s’enfoncer, ou du fait du mélange turbulent d’une partie de cette eau avec l’eau de surface. Notons que ce mélange doit être évité dans la mesure du possible, car il aurait pour conséquence de refroidir l’eau de surface au voisinage de la centrale ETM, et par conséquent d’en réduire le rendement. Certains projets prévoient d’ailleurs pour éviter cela de canaliser l’eau refroidie usagée par un tuyau jusqu’à sa nouvelle position d’équilibre à plusieurs dizaines de mètres de profondeur.
    Au contraire, d’autres projets, nombreux, envisagent de garder en surface l’eau profonde après usage, afin de produire de la biomasse grâce à la lumière et aux sels nutritifs qu’elle contient. Dans de tels cas, on doit s’attendre dans un premier temps à un dégazage intense, puis, au fur à mesure que la photosynthèse piège le gaz carbonique, à une inversion du flux de CO2, vers l’eau mise en incubation en surface.
    Enfin, la structure verticale de l’océan est légèrement modifiée par une centrale ETM, qui refroidit une partie de l’eau de surface et réchauffe une partie de l’eau profonde. Ceci peut avoir une incidence à long terme, difficile à évaluer, sur les mélanges verticaux auxquels est soumis l’océan.

    mais il est facile d’en estimer la limite supérieure.

    La concentration en carbone inorganique total (TCO2 = carbonates + bicarbonates +CO2gaz) des eaux de surface dans les régions favorables à l’ETM correspond à un état d’équilibre entre l’océan et l’atmosphère. Il s’agit d’eaux qui ont dérivé longtemps à la surface de l’océan, qui s’y sont réchauffées, et dépourvues de sels nutritifs car ceux-ci ont été incorporés via la photosynthèse dans des formes vivantes, devenues débris organiques, et qui ont sédimenté vers la profondeur. Elles représentent l’état vers lequel vont tendre les eaux profondes remontées en surface pour l’exploitation de l’ETM, au terme d’une évolution qui leur fera perdre une quantité de carbone en excès :

    Cexcès = Cprof - Csurf

    où Cprof et Csurf sont respectivement les concentrations en TCO2 de l’eau profonde et de l’eau de surface.

    Une part de ce carbone en excès va cependant être fixée par l’activité biologique permise par les sels nutritifs, notamment les nitrates. L’élaboration de la matière vivante s’opère en utilisant en moyenne 6,8 moles de CO2 pour une mole de nitrate. Finalement, le carbone émis vers l’atmosphère sera donc :

    Cémis = Cexcès – 6,8 Nitrateprof

    Où Nitrateprof est la concentration en nitrate de l’eau à la profondeur où est puisée l’eau froide pour la centrale ETM.

    Ce calcul simple effectué dans des régions où la température de l’eau de surface dépasse 25 °C, et en utilisant les concentrations en TCO2 et en nitrate (1) de l’eau profonde à une température inférieure à 5 °C, donne les résultats suivants :
     

     

    Nombre de données

    Potentiel d’émission de carbone

    Atlantique nord

    150

    40 µmole kg-1

    Atlantique sud

    178

    -65 µmole kg-1

    Océan Indien

    392

    125 µmole kg-1

    Pacifique nord est

    49

    131 µmole kg-1

    Pacifique nord ouest

    45

    131 µmole kg-1

    Pacifique sud est

    143

    38 µmole kg-1

    Pacifique sud ouest

    15

    91 µmole kg-1

    L’émission pour une production d’électricité de 1 MWh par une centrale ETM nécessitant 9 000 m3 d’eau profonde (2), serait donc, au maximum, de 16, -26, 50, 52, 52, 15 ou 36 kg de CO2 (3) selon les bassins océaniques.

    Il est à noter que dans l’Atlantique sud, les gradients respectifs de nitrate et de TCO2 sont tels que l’exploitation de l’ETM y constituerait un puits potentiel de carbone pour l’atmosphère et non pas une source ?

    Par comparaison, une centrale thermique fonctionnant au gaz émet au moins 500 kg de CO2 / MWh, et une centrale au fuel lourd en émet beaucoup plus. En fait, ces émissions maximales de l’ETM ne sont à considérer que dans les cas où l’eau froide serait gardée en surface pour produire de la biomasse. Dans le cas d’une centrale purement ETM, les émissions seraient beaucoup plus faibles.
    L’approche ci-dessus est basée sur le couplage entre nitrates et carbone. Or, lorsque les nitrates ont été épuisés par la photosynthèse, il reste environ 0,2 µmole kg-1 de phosphates dans l’eau de mer. Certaines cyanobactéries marines photosynthétiques (en particulier, les Trichodesmiums, sont capables de fixer du carbone en l’absence de nitrates en utilisant l’azote atmosphérique. Les 0,2 µmole kg-1 de phosphate résiduel pourraient ainsi fixer 22 µmoleC kg-1, à déduire du tableau ci-dessus. Toutefois, la croissance de ces cyanobactéries est très lente, et n’épuise généralement pas la totalité des phosphates en surface. La concentration moyenne en phosphates dans les zones examinées reste en effet de l’ordre de 0,15 µmole kg-1.

      En synthèse :

    Cette étude établit, pour la première fois à notre connaissance, les résultats suivants concernant le bilan carbone de l'ETM, selon de destin de l'eau froide profonde après usage :

    • en cycle fermé avec ré enfouissement naturel ou forcé, il n'y a aucun contact avec l'atmosphère et aucun risque de dégazage;
       

    • lorsque l'eau froide profonde est volontairement maintenue en surface après usage, et qu'elle a donc l'occasion de libérer dans l'atmosphère le CO2 qu'elle contient, l'effet de la pompe biologique est de réduire considérablement cet excès de gaz carbonique qui devient négligeable au regard de la production d'énergie par combustible fossile dans les zones tropicales;
       

    • dans l'Atlantique sud, compte tenu des gradients respectifs de nitrate et de TCO, l’exploitation de l’ETM constituerait même un puits potentiel de carbone.


    (1) les données utilisées pour ces estimations sont celles archivées au CDIAC.  Retour

    (2) Cette estimation est celle proposée dans l’ouvrage de William H. Avery et C. Wu : "Renewable Energy from the Ocean: A Guide to OTEC", Oxford University Press, New York. Elle est donnée ici à titre indicatif car elle dépend de nombreux facteurs tels que l’efficacité des échangeurs de chaleur, le choix du fluide de transfert etc… Retour

    (3) Quantités obtenues en multipliant les chiffres du tableau par 9 106 (pour 9 000 m3) puis en les divisant par 106 (afin d’obtenir des moles de carbone) puis en multipliant par 44 10-3 (pour obtenir des kg de CO2). Retour  

     

  • Introduction aux Energies Marines

    Michel Gauthier 

    L’océan est un vaste réservoir d’énergie. Sous des formes diverses, cette énergie se manifeste par des phénomènes naturels dont la puissance a fasciné les hommes depuis très longtemps. Dès l’Antiquité, ils ont su utiliser les vents et les courants pour mouvoir leurs navires, et le flux des marées pour actionner leurs moulins. Au début de l’ère industrielle, ils ont conçu des machines utilisant l’énergie mécanique des vagues et la chaleur des eaux de l’océan pour servir leur industrie.  

    L’abondance relative et le faible coût, en termes financiers, de l’énergie produite par la combustion du charbon, puis du pétrole et du gaz, n’en a pas permis le développement. 

    Aujourd’hui, avec le constat de l’inadaptation de nos modes de production dits «traditionnels» aux exigences du développement durable, ces «Énergies Marines» renouvelables suscitent un regain d’intérêt et un consensus international semble établi selon lequel elles pourraient contribuer à satisfaire nos besoins en énergie primaire.

    La valeur de référence de ces besoins est celle de la consommation mondiale actuelle d’énergie primaire, soit 10 milliards de tonnes d’équivalent pétrole par an (10 Gtoe/a) ou 120 000 TWh/a)

    Par ce dossier Océan et Énergie, le Club des Argonautes souhaite faire connaître les principes et l’état de l’art des techniques de conversion de l’énergie de ces phénomènes naturels en travail utile, et donner des avis documentés sur leurs avantages et leurs inconvénients. 

    Avant de décrire ces techniques, ce texte d' introduction  est un essai pour apporter des éléments de réponse à la question : 

    «Quelle fraction de ces besoins l’exploitation des énergies marines pourrait-elle satisfaire de façon durable ?» 

    Les énergies marines 

    Les phénomènes marins susceptibles d’être utilisés pour produire de l’énergie sont nombreux. On se limitera ici à l’examen de ceux dont l’expérimentation a atteint le stade de la démonstration technique in situ à des échelles extrapolables jusqu’à plusieurs millions de watts (MW) et pour lesquels on dispose d’estimations de coûts de production réputés acceptables économiquement à plus ou moins long terme. 

    Le critère d’acceptabilité économique auquel on fait ici allusion est d’autant plus flou que l’évolution des coûts de l’énergie, à 20 où 50 ans, est très incertaine. Cette évolution dépend non seulement de celle des coûts de combustibles mais aussi du changement de la structure même des coûts de production avec l’introduction de taxes nouvelles et la prise en compte de coûts aujourd’hui «externalisés ». 

    Les phénomènes et les procédés de conversion retenus sont :

    • la marée avec les procédés du type «la Rance» et du type «hydroliennes» , 

    • le vent avec les éoliennes «en mer», 

    • la houle avec les « houlomotrices », 

    • la circulation générale des masses d’eaux avec le procédé « ETM - Energie Thermique des Mers ». 

    À l’exception des marées qui résultent de l’action de forces gravitationnelles tous ces phénomènes sont les résultats d’échanges d’énergie et de matière - de l’eau notamment sous ses trois formes : liquide, vapeur et glace - entre les masses d’eau océanique, l’atmosphère et les terres émergées. L’ETM puise dans la chaleur stockée dans l’eau de surface de l’océan tropical. Les éoliennes et les houlomotrices puisent dans le flux commun de l’énergie mécanique exprimée par le vent dont la source primaire est la même que celle de l’ETM :

     C’est l’apport thermique du Soleil à la planète Terre. 

    Les technologies développées pour l’exploitation de ces phénomènes sont par nature réputées non polluantes dans la mesure où elles n’introduisent dans la biosphère ni énergie, ni composants chimiques nouveau  ; elles n’impliquent que des perturbations des flux naturels d’énergie et de matière, des emprises sur le domaine maritime, des contraintes pour la navigation et d’autres nuisances, visuelles, voire auditives. La connaissance des effets de toutes ces perturbations, contraintes et nuisances est encore insuffisante pour évaluer avec précision les limites d’acceptabilité environnementale et sociale de l’exploitation de ces ressources. On ne pourra donc en tenir compte que de façon très incomplète dans ce premier essai.

    Pour chacune des formes d’énergie on a quantifié :

    • La puissance moyenne du flux d’énergie exprimée dans l’ensemble des mers et des océans par le phénomène naturel «source ». On l’appelle RNG - Ressource Naturelle Globale. On a extrait les données pertinentes d’un document relativement récent de Rui Xin Huang du WHOI  
      et,

    • La fraction de ce flux naturel que l’on estime pouvoir exploiter durablement à l’horizon des décennies à venir. On l’appelle PTE, Potentiel Techniquement Exploitable
      Le manque d’expériences industrielles prolongées dans l’exploitation de la plupart de ces énergies ne permet pas d’apprécier de façon fiable les limites de leur « acceptabilité » en termes économiques, sociaux et environnementaux. Les valeurs des PTE utilisées dans cet essai ne sont donc encore que des ordres de grandeurs, des « best guesses », qu’il conviendra de préciser au fur et à mesure du développement de l’exploitation de ces nouvelles formes d’énergies .

    Conclusions

    L’objet de cet essai était d’approcher une réponse à la question: 

    «Quelle fraction de nos besoins en énergie l’exploitation des énergies marines pourrait-elle satisfaire de façon durable ?». 

    Une première réponse à cette interrogation est donnée par le tableau ci-dessous :

    Formes d'énergie

    Potentiel Techniquement Exploitable

    PTE en TWh/a

    Potentiel relatif

     en %

    ETM

    100 000

    82

    Vent 

    &

    Houle

    18 400

    &

    1400

    17
    Marée

    800

    <1
    Total 

    120 000

    100

    Les hypothèses et le détail de ces calculs sont donnés dans la page : "Calcul des potentiels exploitables des énergies marines"

    Ces résultats montrent que l’exploitation des énergies marines pourrait assurer une production annuelle de 120.000 TWh. Ceci est de l’ordre de grandeur de la consommation mondiale actuelle d’énergie primaire. 

    Ces résultats montrent aussi que la ressource renouvelable en énergie marine est abondante mais n’est probablement pas démesurée par rapport aux besoins à venir de l’humanité. Il convient de prendre conscience de cette dimension pour ne pas laisser accroire que les générations futures pourraient puiser sans réserve dans l’océan toute l’énergie nécessaire à leurs besoins (hors extraction éventuelle des combustibles de la filière « fusion nucléaire »).

    Le tableau montre que les contributions respectives des quatre formes d’énergies retenues varient dans une fourchette de 1 à 80. Ce résultat, sans occulter l’existence de «niches» propices à l’exploitation de la houle, du vent et des marées dans des sites particulièrement propices, met en évidence l‘importance du potentiel de production de l’ETM.  

    Il conforte la recommandation exprimée par le club des Argonautes pour que l’Europe, aujourd’hui absente du domaine de la recherche et du développement de cette filière, en fasse l’évaluation objective. 

    Mise à jour : juin 2012

  • La mer domestiquée ?

    Il y a trois sortes d’hommes disait paraît-il Aristote : les vivants, les morts, et ceux qui vont sur la mer.

  •  Quelles menaces et incertitudes pour les écosystèmes marins? 
  • Jacques Merle - juin 2014

    Dans la région intertropicale (20°S – 20°N), occupée en surface par des eaux chaudes (plus de 25°C en général), des eaux plus froides remontent jusqu’à quelques centaines de mètres de de la surface, comme on peut le voir dans l’Atlantique sur une section méridienne de température réalisée dans le cadre du programme WOCE. (Figure 1 - Atlas WOCE). Á l’équateur, l’upwelling équatorial porte ces eaux froides jusqu’à la surface. Originaires des hautes latitudes où elles ont plongé dans les profondeurs autour de l’Arctique et de l’Antarctique, elles se réchauffent alors au contact du Soleil tropical. Les deux phénomènes : remontées dans les régions tropicales et plongée des eaux dans les hautes latitudes constituent le principal mécanisme de la «ventilation» de l’océan qui permet, entre autres, le transport de la chaleur, reçue en excès du soleil dans les tropiques, vers les hautes latitudes où au contraire elle est restituée à l’atmosphère, assurant ainsi l’équilibre thermique de la planète.

    Figure 1 : Section thermique méridienne Woce (A 16) de 70° N à 55° S montrant les plongées d’eaux froides dans les régions Arctique et Antarctique et leur remontée dans la région équatoriale, souligné par le rectangle noir.

    Mais cette remontée d’eaux froides à proximité d’une source de chaleur abondante affectant l’air et les couches superficielles océaniques des tropiques présente au moins un double intérêt :

    • Celui de rendre facilement accessible des eaux froides pour des usages divers, par exemple la climatisation ….etc.

    • Celui d’offrir une source d’énergie potentiellement exploitable, appelée Energie Thermique des Mers (ETM) en rapprochant ces eaux froides du gisement d’eaux chaudes superficielles ( entre 25 et 30 °C). Il a été montré que le potentiel offert par les océans tropicaux pour l’ETM avec un impact minime sur le champ thermique océanique est très grand (*), et que le  risque de relâcher dans l’atmosphère le gaz carbonique abondant. dans l’eau froide est pratiquement négligeable.

    L’exploitation de ces ressources sera d’autant plus facile et rentable que les eaux froides seront plus proches de la réserve d’eau chaude en surface. Or, c’est cette situation qu’on observe dans des régions particulières de la zone tropicale appelées les «Dômes d’eaux froides» où ces eaux froides, sous l’effet de la courbure du courant, remontent tout près de la surface.
    Dans l’océan tropical, les dômes d’eaux froides les plus connus sont situés sur les bords Est de l’Océan Atlantique (dôme de Guinée vers 10°N, et dôme d’Angola vers 10°S) et de l’Océan Pacifique (dôme de Costa Rica vers 10°N). A l’Ouest de l’Atlantique, il existe aussi deux dômes grossièrement symétriques par rapport à l’équateur mais qui ne portent pas de nom, l’un au Nord et au large de la Guyane (Vers 7°N) et l’autre au Sud au large du Nord-Est Brésil (Vers 5°S) (Figure 2).

    Il existe une différence importante entre les dômes de bord Est et ceux de bord Ouest : à l'Est où la thermocline est peu profonde les structures caractéristiques des dômes d'eau froide (couche de surface homogène chaude surmontant une thermocline peu profonde) ne se manifestent au large de la Guinée et d'Angola qu'en été de leur hémisphère. A l'Ouest en revanche où l'eau chaude (jusqu’à 30°C) amenée par le courant équatorial sous l'action des alizés s'accumule, cette structure permanente maintient un gradient de plus de 20°C sur à peine 300 mètres de profondeur.
    Au Nord de l’équateur, les dômes de Guinée et de Costa Rica se prolongent vers l’Ouest par une crête formée par la convergence entre le Courant Équatorial Nord et le Contre Courant Équatorial Nord. Là aussi, on observe un gradient vertical de 20°C sur 300 m.

    Figure 2 : La température moyenne à 300 mètres montrant des températures inférieures à 9°C en deux points qui marquent le cœur des dômes d’eaux froides de l’Atlantique tropical occidental. (Extrait de la réanalyse Glorys)

    Outre ces dômes et ces crêtes qui présentent de très forts gradients verticaux de température, la région intertropicale est généralement caractérisée par des eaux chaudes (plus de 25°C) sur 50 à 300 m d’épaisseur, tandis qu’à une profondeur variable (de 300 m à 1000 m), on trouve de l’eau à moins de 5°C.

    Il y a aussi, dans l’océan tropical, des zones dites d’upwelling où sous l’effet des alizés, les eaux froides atteignent la surface. Les plus connues se situent dans les courants des Canaries, de Benguela, de Californie et de Humboldt, mais on en trouve aussi, de dimensions plus modestes, lorsque la configuration de la côte, du vent et du courant le permettent, comme par exemple au Cabo Frio au Brésil.

    Il est clair que les upwellings de bord Est sont favorables à une exploitation de l’eau froide à des fins de climatisation sur le continent africain. En revanche, avec en surface de l’eau dont la température dépasse difficilement 20°C il y est impossible d’atteindre le différentiel requis de 20°C pour une exploitation de l’ETM.
    Par contre les dômes froids occidentaux Nord et Sud permanents et particulièrement marqués dans l’océan Atlantique (Figure 2), cachés sous une thermocline située à moins de 150 m de profondeur seraient très favorables à une exploitation de l’ETM. Ceux de Guinée, d’Angola et de Costa Rica, éloignés des côtes et non permanents n’y sont guère propices. Les crêtes citées ci-dessus, nécessiteraient des installations totalement offshore encore difficilement concevables. Les dômes du Brésil et de Guyane, proches des côtes, pourraient accueillir des installations destinées à la fois à la climatisation et à l’exploitation de l’ETM.

    En conclusion, on peut faire remarquer que ces structures hydrologiques particulières, susceptibles de constituer une source d’énergie, ou d'économie d'énergie, ne font pas encore l'objet d'un recensement systématique, décrivant entre autres leur situation, leur étendue, leur variabilité saisonnière et leur caractère plus ou moins stable dans le temps. Depuis près de 20 ans, des progrès considérables en modélisation du milieu océanique ont été accomplis et ont donné naissance à une activité nouvelle, comparable à la prévision météorologique, que l'on appelle l'«0céanographie opérationnelle». On ne peut que souhaiter que les responsables du programme européen "Copernicus" accordent une priorité suffisante à l'établissement d'une cartographie détaillée et périodiquement mise à jour des ressources en eaux froides profondes des régions intertropicales !

    Référence :

    (*) Rajagopalan, K. and G.C. Nihous,(2013). Estimates of global Ocean Thermal Energy Conversion (OTEC) resources using an Ocean General Circulation Model (pdf 3,8 Mo), Renewable Energy, 50, 532-540. Retour

  • À propos d’Emiliana huxleyi, de son petit nom Ehux…
  • Jacques Ruer

    I - Généralités – Vagues et houle

    II - Ressources énergétiques

    III - Les systèmes houlomoteurs

    IV - Principales technologies houlomotrices 

    Chambre d’eau oscillante (en anglais : Oscillating Water Column)

    Volet oscillant

    Bouées houlomotrices

    Flotteurs articulés

    V - Autres utilisations de l'énergie des vagues

    VI - Conclusions sur l’énergie de la houle

    Pour aller plus loin


     I - Généralités – Vagues et houle

    Les vagues sont un mouvement ondulatoire de la surface de la mer. Elles sont créées par le vent qui transfère de l’énergie de l’atmosphère dans la mer. Les phénomènes en jeu sont très compliqués, et les études théoriques se poursuivent encore maintenant.
    En un lieu et à un moment donné, la force des vagues définit ce qu’on nomme un état de mer. Celles-ci sont caractérisées par leur hauteur, leur période et la direction de leur propagation.
    Toutes les vagues ne sont pas de la même hauteur. Pour décrire un état de mer, on parle de hauteur significative des vagues Hs. En pratique, si on mesure toutes les vagues de crête à creux durant l’événement, on trouve qu’un tiers des vagues sont plus hautes que Hs et les autres plus basses. C’est pourquoi certains parlent aussi de H1/3 pour désigner la hauteur significative. La hauteur des vagues maximales est typiquement égale à 1,8 x Hs – Voir figure 1.

    Figure 1 : Exemple de relevé des hauteurs significatives Hs et maximales Hmax Source : ELSAM

    Plus le vent est fort, plus il souffle longtemps, plus la hauteur des vagues est importante.
    L’étendue de la surface marine sur laquelle le vent souffle est dénommée fetch. Celui-ci est un paramètre influant, comme on peut le voir sur la figure 2 qui donne la hauteur significative des vagues en fonction des principaux facteurs à condition que la profondeur d’eau soit suffisante. Ces valeurs théoriques correspondent à un état de mer dit développé. Si les paramètres sont plus faibles que ceux du diagramme, la hauteur des vagues est plus faible. Par exemple, pour un vent de 15 m/s soufflant durant 7 h, la hauteur des vagues est de 3 m à condition que le fetch soit au moins de 100 km. Par contre, si le fetch n’est que de 30 km, la hauteur des vagues sera de 2 m ; celle-ci sera d’ailleurs atteinte après 3 h. Si la profondeur d’eau est réduite, les phénomènes sont différents, comme on va le voir ci-dessous.

    Figure 2 : Diagramme théorique donnant la hauteur significative et la période des vagues – Reproduction d’après Gröen et Dorrestein (1976)

    La figure 2 doit être considérée comme une simplification de la réalité. Durant les fortes tempêtes, on observe parfois des vagues bien plus grosses que les autres. Voir figure 3. On observe dans certaines conditions des vagues monstrueuses, ou freak waves, parfois appelées aussi vagues scélérates, traduction directe du nom en anglais rogue waves. Elles atteignent 30m de crête à creux.

    Figure 3 : Relevé des vagues enregistrées le 1 janvier 1995 à 15h20 sur la plateforme pétrolière Draupner en Mer du Nord – La profondeur d’eau sur le site est de 70 m – Une vague unique de 26 m crête à creux est survenue alors que l’état de mer avait une Hs de 8 m – Source : Draupner wave – en.wikipedia.org

    Les vagues se propagent sur l’océan. Quand elles quittent la zone ventée qui leur a donné naissance, elles se transforment en un mouvement plus régulier qui est la houle.
    La houle est une onde qui agite la surface de façon périodique. Lorsque la profondeur est suffisante, les particules d’eau suivent des trajectoires circulaires, comme schématisé sur la figure 4.

    Figure 4 : Schéma d’une houle se propageant de gauche à droite.

    Les mouvements des particules d’eau sont des trajectoires circulaires dont le rayon de giration diminue avec la profondeur. Les flotteurs sur la surface visualisent le mouvement à différents instants.

    La période de la houle T est le nombre de secondes qui sépare le passage de 2 crêtes successives.
    La longueur d’onde λ est la distance entre 2 crêtes successives. Elle est liée à la période :

    λ = 1,56.T2 (m)

    Le rayon de giration des particules en fonction de la profondeur z (au repos) est :

    L’onde se propage à la vitesse C :

    C = 1,56.T (m/s)

    Les ondes longues se déplacent plus vite que les autres. Elles peuvent voyager sur des milliers de kilomètres.
    Si la hauteur de la houle au large dépasse 0,14 λ (par exemple parce que le vent souffle), la houle devient instable et déferle à son sommet, formant des «moutons». On remarque d’ailleurs sur la figure 2 que les grosses vagues ne peuvent pas avoir de courtes périodes.
    Plusieurs trains de houle créés en des endroits différents peuvent se rencontrer et se superposer. Une situation similaire existe lorsque le vent crée localement des vagues dont la direction est différente de celle de la houle provenant du large. On parle de mer croisée ou de mer hachée. Les états de mer correspondants sont dangereux pour la navigation.

    Figure 5 : Exemple de mer croisée avec 2 trains de houle de directions différentes – Source : Waitwow.com

    Lorsque la houle s’approche de la côte, la profondeur d’eau diminue. La proximité du fond modifie le mouvement de la houle à partir du moment où la profondeur est inférieure à la moitié de la longueur d’onde.

    Figure 6 : Schéma de la houle en faible profondeur.

    Les trajectoires des particules d’eau ne sont plus circulaires mais elliptiques. Sur le fond, l’eau suit un mouvement alternatif.

    La vitesse de l’onde diminue lorsque la profondeur se réduit. Par faible fond, cette vitesse s’approche de la valeur limite :

    - g : accélération de la pesanteur = 9,81m/s2 – z : profondeur d'eau locale (m)

    On remarque que cette célérité ne dépend plus de la hauteur de la vague. La période restant inchangée, la longueur d’onde diminue aussi, si bien que l’énergie se concentre dans une vague plus courte mais plus haute.

    Figure 7 : Schéma du comportement de la houle à l'approche du rivage

    1. Houle océanique
    2. La profondeur décroit, la célérité et la longueur d'onde diminuent. La hauteur de la vague augmente
    3. Quand la cambrure de la vague est trop forte, le sommet déferle. De l'eau est projetée vers l'avant. Ceci dissipe de l'énergie. De l'énergie est aussi perdue à cause du frottement sur le fond
    4. Le déferlement continu dissipe progressivement l'énergie de la vague dont la hauteur se réduit
    5. L'énergie résiduelle est dissipée sur le rivage, soit sous la forme de brisants, soit de rouleaux en fonction de la pente du sol
    6. Le déferlement provoque un courant d'eau vers le rivage en surface, accompagné d'un courant de retour au fond
    La profondeur diminuant encore, la vague se cabre, puis lorsque la cambrure est trop prononcée, elle se brise en formant des moutons. L’eau située au sommet est propulsée vers l’avant. C’est ce mouvement qui permet aux surfeurs d’avancer aussi vite que la vague. L’énergie cinétique emportée par les moutons est dissipée dans la masse d’eau, mais leur quantité de mouvement génère un léger courant de la surface qui est dirigé dans le sens de propagation de la houle. Ce courant est bien entendu compensé par un courant de retour à proximité du fond dirigé vers le large. Ce mécanisme consomme progressivement l’énergie de la houle, dont la hauteur diminue au fur et à mesure qu’elle avance vers le rivage. La houle perd également de l’énergie par frottement sur le sol. A l’arrivée sur le rivage, toute l’énergie résiduelle est dissipée sous forme de brisants, parfois sous forme de rouleaux plongeants, selon la pente du fond.

    Le ralentissement de l'onde quand la profondeur d'eau diminue a pour effet de diffracter les vagues. Le front de la vague a tendance à modifier sa direction pour devenir parallèle à la côte. La houle se renforce autour des promontoires, et s'étale au fond d’une baie.
    Ce phénomène doit être pris en compte pour l’implantation des houlomoteurs.

     

    Figure 8 : Réfraction de la houle autour d’une pointe. La houle qui vient du large en haut de l’image tourne autour de la pointe. Elle s’étale dans la baie et se concentre sur la pointe – Source : Surflanka

    On sait maintenant calculer par modélisation numérique ce que seront les vagues dans les prochaines heures, voire les prochains jours. Exemple : NOAA – National Weather Service Environmental Modelling Center

    Les figures suivantes illustrent les phénomènes décrits ci-dessus pour la journée du 15 janvier 2015 au large de la Bretagne. La période des vagues était d’environ 14 secondes. La hauteur significative de la houle dépassait 9 m au large. Il s’agit d’une tempête relativement classique qui n’a rien d’exceptionnelle.

    Figure 9 : Hauteurs des vagues en Mer d’Iroise lors de la tempête du 15 janvier 2015 – On remarque que la hauteur des vagues s’écroule à l’approche de la côte, car la profondeur d’eau diminue – Notez la diffraction à l’approche de la côte – Source : Previmer

    Figure 10 : Agitation sur le fond – La vitesse alternative de l’eau s’accroit là où la profondeur est faible – Source : Previmer

    Figure 11 : Amplitude du mouvement alternatif de l’eau sur le fond. – Source : Previmer

    II - Ressource énergétique

    On calcule l’énergie de la houle en intégrant l’énergie des particules d’eau sur toute la profondeur supposée suffisamment grande. Pour une houle régulière de hauteur H et de période T, on obtient la formule théorique suivante :

    Dans laquelle :

    ρ est la masse volumique de l’eau de mer (1024 kg.m-3)
    g est l’accélération de la pesanteur (9,81 m.s-2)
    Hs est la hauteur de la houle mesurée en mètres. Comme on suppose ici une houle régulière, donc toutes les vagues ont la même hauteur H, bien entendu égale à Hs
    T est la période de la houle en secondes.
    Le résultat E est en watts par mètre de crête (W/m).

    Cette formule théorique est valable si la profondeur d’eau est grande, lorsque la profondeur est supérieure à la moitié de la longueur d’onde.

    Voir Wikipedia : Wave power

    Si on fait le calcul des termes constants, on obtient :

    E = 490. Hs2.T

    En fait, une houle n’est que rarement régulière, mais est généralement la superposition de plusieurs ondes. La résultante est une houle dont la hauteur est Hs et la période apparente T. L’énergie est alors supérieure à celle d’une houle pure. Pour tenir compte de ce phénomène on utilise la formule empirique suivante si on calcule E en watts par mètre de crête :

    E = 500. Hs2.T (W/m)

    Si on désire exprimer la puissance en kilowatts par mètre de ligne parallèle à la côte, on a :

    E = ½ .Hs2.T (kW/m)

    Exemples :

    Houle de 2m et de période 4s : 8 kW/m
    Houle de 3m et de période 6s : 27 kW/m
    Houle de 10m et de période 14s : 700 kW/m

    Ces quelques valeurs soulignent la puissance considérable des vagues de tempête et expliquent pourquoi les installations destinées à récolter l’énergie des vagues doivent être conçues pour résister aux tempêtes.

    L’énergie est la somme de l’énergie cinétique et de l’énergie potentielle de toutes les particules d’eau entrainées dans leurs trajectoires circulaires. Ceci amène une remarque importante : la moitié de l’énergie correspond à la composante verticale du mouvement, et la moitié à la composante horizontale. Si un système houlomoteur utilise le seul mouvement vertical de la houle, il ne peut exploiter que la moitié de la ressource. Pareil pour un volet oscillant qui n’exploite que le seul mouvement horizontal.

    La carte de la figure 12 indique la puissance moyenne annuelle sur les mers du Globe. On constate que la ressource de la houle est abondante dans les zones tempérées balayées par les dépressions océaniques. Des études ont conduit à estimer la ressource théorique à 3 TW. Oceanor paper_OMAW_2010 (Assessessing the global wave energy potential)
    La ressource accessible serait de 0,5 TW, soit 10% de la consommation mondiale d’électricité. Aw energy

    Figure 12 : Puissance moyenne des vagues au large des côtes – Source : A Global Wave Energy Resource Assesment – Andrew Cornett (2008)

    Cette moyenne cache une grande disparité selon les saisons, en conformité avec la variation saisonnière des vents, comme on le voit sur la figure 13 qui montre la puissance moyenne des vagues en Mer d’Iroise au cours des divers mois de l’année.

    Figure 13 : Puissance moyenne des vagues au cours de l’année – Source : Scientific Figure on ResearchGate. Available from: researchgate.net

    Les houlomotrices doivent être adaptées aux vagues rencontrées sur le site d’implantation. Il est donc nécessaire de connaître la distribution statistique de la hauteur des vagues et des périodes associées. On parle du climat de vagues local. Les mesures sont réalisées par des bouées spécialisées ancrées sur le site pendant une durée d’environ 1 année. La figure 14 montre un exemple d’histogramme relevé au large de l’Ile d’Yeu. On remarque qu’il existe dans ce cas particulier 2 populations distinctes : les vagues dues au vent local de faible amplitude et la houle de plus grandes périodes. On constate ici aussi qu’il n’y a pas de hautes vagues ayant une courte période.

    Figure 14 : Histogramme hauteur-période des vagues au large de l’Ile d’Yeu

    III - Les systèmes houlomoteurs

    L’énergie des vagues a depuis longtemps excité l’imagination des inventeurs. Demandez à un ingénieur d’imaginer une machine pour exploiter cette forme d’énergie, nul doute qu’il fera une proposition, probablement accompagnée d’un grand enthousiasme. On trouve sur internet une foison de concepts. Voir le site Aquaret.
    Une analyse réalisée en 1999 par l’université de Trondheim montrait qu’il y avait déjà plus de 1000 brevets sur le sujet.
    Une revue faite en 2013 est disponible sur le site Buch der Synergie (en allemand).
    On y relève 180 concepts différents. Il ne peut être question de les passer en revue ici.

    Une machine houlomotrice subit l’assaut de 4 millions de vagues par an. La tenue des équipements à la fatigue est donc un aspect essentiel. Lors des tempêtes, les efforts auxquels il faut résister sont décuplés. Les machines doivent par conséquent être étudiées pour survivre aux événements extrêmes.

    Tout concept doit satisfaire les fonctions suivantes :

    • captation de l’énergie du mouvement d’eau
    • transmission à un convertisseur d’énergie
    • stockage de l’énergie durant quelques secondes entre 2 vagues successives pour lisser la production
    • export de l’énergie utile vers les utilisateurs

    Au coté de ces fonctions primaires, un projet houlomoteur doit aussi prendre en compte les impositions suivantes :

    • Adaptation du capteur au climat de vague du site
    • Adaptation au marnage sur le site
    • Dispositions assurant la survie lors des tempêtes
    • Mode d’ancrage en fonction du type de sol
    • Capacités industrielles à proximité pour la construction, la mise à l’eau, l’installation sur le site
    • Raccordement au réseau électrique à terre
    • Permis de construction et d’exploitation après étude des impacts sur l’environnement
    • Méthode de maintenance, moyens navals à prévoir

    Lors de la conception d’un système houlomoteur un grand nombre de degrés de liberté s’offrent au concepteur. Ceci explique la grande quantité de machines différentes inventées et testées en mer. Sans être exhaustif, on peut noter les paramètres suivants :

    • exploitation du mouvement vertical de la vague, du mouvement horizontal, de leur combinaison, du tangage
    • mouvement du capteur par rapport au fond, par rapport à un corps d’inertie immergé, un frein sous-marin, par rapport à d’autres points de la surface
    • énergie captée par un corps solide, par une membrane en élastomère, transmise à de l’air comprimé
    • installation sur la côte, fixée au fond de la mer, flottante dans une profondeur d’eau choisie
    • dispositions pour l’adaptation au climat de vagues local et au marnage
    • dispositifs pour ajuster la fréquence de résonance à celle des vagues
    • production d’électricité, d’eau douce, d’air comprimé, d’hydrogène, etc.
    • énergie convertie dans chaque capteur, ou collectée et transmise à un convertisseur commun sous forme d’eau pressurisée, d’air comprimé, d’huile sous pression, d’électricité
    • stockage de l’énergie sous forme de fluide sous pression, de volant d’inertie, dans des batteries ou des super-capacités

    Pour illustrer ces généralités, examinons à titre d’exemple comment on pourrait dessiner une bouée houlomotrice, dite point absorber. On va voir dans ce qui suit 4 variantes possibles, sans être exhaustif. Des combinaisons entre les diverses dispositions constructives montrées ici peuvent être envisagées et ont souvent été testées. En effet, tous ces systèmes ont déjà été étudiés, parfois par plusieurs entrepreneurs en repartant de zéro à chaque fois.

    Figure 15 : Bouée ancrée sur le fond

    Le convertisseur d’énergie (en vert) est ici une pompe hydraulique qui fait circuler un fluide entre 2 réservoirs à des pressions différentes. La pression minimale du fluide permet de maintenir la ligne d’ancrage sous tension lorsque passe un creux de vague, du moins tant que le piston n’est pas à son point bas. Le fluide accumulé dans le réservoir à haute pression assure un stockage d’énergie entre les vagues. Le fluide retourne vers le réservoir basse pression au travers d’un moteur hydraulique qui transforme l’énergie en électricité.
    La pompe doit comporter une fin de course capable d’encaisser les efforts maximaux quand une vague de tempête submerge l’ensemble.
    Si plusieurs bouées sont implantées proches les unes des autres, le stockage et la conversion de l’énergie peuvent être centralisés.
    La technologie CETO est voisine de cette description. Voir  Carnegie wave energy
    L’illustration montre l’implantation de nombreux équipements sur le fond. En alternative, ces équipements peuvent être intégrés dans le flotteur Un marnage important n’est pas compatible avec ce système.

    Figure 16 : Flotteurs coulissants

    La bouée qui capte l’énergie coulisse autour d’un flotteur colonne ballasté de manière à se tenir verticalement dans l’eau. Il faut que le mouvement vertical de la colonne soit très différent de celui de la bouée pour développer la force de captation d’énergie. Ceci peut être obtenu en donnant une grande taille à la colonne. On peut ajouter un frein hydrodynamique. La plaque est immergée à une profondeur suffisante pour ne pas être trop soumise à l’action des vagues. Des patins de guidage fonctionnant dans l’eau de mer compensent les efforts horizontaux des vagues et assurent le bon coulissage de la bouée.
    Les vagues de tempête introduisent de fortes tensions dans les amarres qui ne sont normalement pas sollicitées. Le convertisseur doit comporter une fin de course capable d’encaisser les efforts maximaux quand une vague submerge l’ensemble. Le système est compatible avec un marnage important.
    La technologie OPT correspond à la description faite ici. Ocean power technologies
     

    Figure 17 : Flotteur combiné à une turbine sous-marine

    Le mouvement du flotteur provoque un mouvement d’eau sur la turbine. Une plaque permet de renforcer la vitesse de l’eau dans le passage central. Dans les sites très énergétiques, cette plaque n’est pas nécessaire. La force de rappel est assurée par un lest. La turbine peut être bloquée lors des tempêtes. La maintenance nécessite la sortie de la turbine de l’eau. Le marnage n’a pas d’incidence.

    Figure 18 : Flotteur combiné à une turbine aérienne

    Ce concept aussi dénommé colonne d’eau oscillante flottante. Le mouvement des vagues fait entrer et sortir l’air alternativement de la chambre. Des turbines spéciales tournent toujours dans le même sens et exploitent les 2 sens du courant d’air. (Par exemple turbine Wells ou bien turbine à action bidirectionnelle)
    La bouée peut être ancrée au fond, auquel cas le système n’accepte pas de marnage important. Elle peut aussi être freinée par un frein hydrodynamique, solution convenable dans les sites avec fort marnage.
    Plusieurs chambres peuvent être assemblées sur un même flotteur. Voir Oceanlinx

    On peut signaler ici la possibilité de rechercher une résonance entre la bouée et la houle. En choisissant soigneusement le volume immergé et la section de la bouée au niveau de l’eau, il est possible d’ajuster la fréquence de pilonnement, ce qui augmente la quantité d’énergie captée.

    Figure 19 : Bouée pilonnante – Le volume immergé constitue une masse d’inertie qui conduit l’ensemble à résonner verticalement

    La résonance en pilonnement nécessite un grand volume immergé, donc a priori un grand tirant d’eau. On peut réduire celui-ci avec des volumes additionnels sous l’eau comme dans la figure ci-dessus, ou en disposant la colonne résonante à l’horizontale, comme dans la figure suivante.

     

    Figure 20 : Chambre à air avec colonne d’eau horizontale

    Le mouvement de l’air est provoqué par le tangage – La longueur de la colonne d’eu favorise la résonance – L’expérience a montré que l’ouverture doit être située à l’arrière dans le sens de la propagation de la houle
    Malheureusement, sur la plupart des sites la fréquence de la houle est variable, si bien que la résonance est rarement efficace.

    IV - Principales technologies houlomotrices

    Parmi tous les concepts imaginés, on retrouve de façon récurrente quelques systèmes illustrés ci-dessous.

    Chambre d’eau oscillante (en anglais : Oscillating Water Column)

    Le principe est schématisé sur la figure 21. Une enceinte en béton armé est munie d’une ouverture immergée vers la mer, et d’une autre vers l’atmosphère à travers une turbine. Les vagues provoquent un mouvement alternatif de l’air confiné dans la chambre. Le passage de l’air dans la turbine est alternatif, mais le dessin de la turbine lui permet de toujours tourner dans le même sens (Turbine Wells ou turbine à action bidirectionnelle). La turbine travaille dans l’air, mais celui-ci est chargé d’embruns, et il faut la protéger contre la corrosion. En cas de tempête, un clapet ferme l’évent de la turbine pour éviter le passage de paquets d’eau sur les pales.
    La turbine tourne très vite. Un volant d’inertie stocke de l’énergie entre l’arrivée de vagues successives. La conception de la chambre doit être étudiée en fonction de la bathymétrie des fonds alentours, de la marée locale, du climat de vagues local. Il faut veiller à ce que le mouvement de l’eau qui ressort de la chambre ne perturbe pas trop l’énergie de la vague suivante.
    Plusieurs installations ont été construites sur ce principe.

    Figure 21 : Chambre d’eau oscillante

    A ce jour, la réalisation la plus remarquable est l’installation intégrée dans le nouveau brise-lames qui protège l’entrée du port de Mutriku en Espagne, dans le Pays Basque à 82 km d’Hendaye. Mise en route en 2011, elle comporte 16 turbines pour une puissance totale de 296 kW. La production est de l’ordre de 600 MWh/an. Voir
    Mutriku Wave Power Plant : from the thinking out to the reality 2009


     

    Figure 22 : Vue du brise-lames de Mutriku

    L’installation houlomotrice est située dans l’enceinte bétonnée dont la longueur est voisine de 100 m

    Figure 23 : Tempête sur l’installation de Mutriku en cours de construction

    À ce stade du chantier, seule la chambre à vagues est terminée, les turbines ne sont pas installées. On constate les projections d’eau dans les ouvertures, montrant l’importance de protéger les turbines dans ce type d’usine.

    Figure 24 : Vue de la salle des turbines dans l’enceinte de Mutriku 

    La chambre ouverte sur la mer est située sous le plancher de la salle des turbines. Les leviers jaunes correspondent aux obturateurs de sécurité. La salle atténue le bruit émis dans l’environnement car les turbines qui tournent vite sont bruyantes ; notez le caisson en haut à droite qui contient un silencieux.

    La production d’énergie ne suffit pas à justifier la construction d’une jetée de ce type. Par contre, s’il est prévu de construire une nouvelle jetée, l’option consistant à intégrer une génération d’énergie devrait être considérée.

    Volet oscillant

    La figure 25 illustre le principe. Le mouvement horizontal de l’eau fait osciller un volet (voir figure 6). Ce mouvement anime par exemple une pompe à eau, qui est envoyée à la côte vers une turbine, ou convertie en électricité sur place. Plusieurs volets sont parfois combinés les uns derrière les autres. Si le marnage est important, la puissance des vagues sur le volet baisse à marée haute. Pour la survie lors des tempêtes, le volet est abaissé et verrouillé sur l’embase.
    Ce concept nécessite moins de matériaux que beaucoup d’autres, puisqu’on ne cherche pas à faire flotter un volume. Il est adapté aux profondeurs d’eau allant de 10m à 20m selon les conditions de site.

    Figure 25 : Volet oscillant

    La société Fortum a developpé un système de ce type. 2 prototypes ont été installés au Portugal. En France, DCNS prévoit d’utiliser cette technologie pour un projet dans la Baie d’Audierne.

    Figure 26 : Schéma du WaveRoller

    L’embase comporte 3 volets – La conversion en électricité est effectuée sur place – Source : Fortum

    Figure 27 : Vue du prototype WaveRoller durant l’installation.

    Les volets sont rabattus durant cette opération – La longueur de l’embase est supérieure à la profondeur d’eau. L’immersion est réalisée en coulant d’abord une extrémité de l’embase, tandis que l’autre est encore en surface. Puis lorsque celle-ci a touché le fond, l’ensemble est ballasté pour être posé. Voir Aw-energy gallery

    Bouées houlomotrices

    De très nombreux prototypes ont été testés en mer. On peut citer la technologie CETO qui sera utilisée par EDF pour un projet à la Réunion. Voir Carnegie Wave
    Une autre version est représentée par Ocean Power Technologies (figure 27). Elle peut être déployée au large et contribuer à fournir de l’électricité à des systèmes isolés, tels que des installations de surveillance. Un modèle (APB350) délivre 350W en continu, grâce à une batterie stockant 20 à 60 kWh selon la ressource du site. La bouée a une masse de 10 t, une hauteur de 12,75 m et est munie d’un flotteur de 2,7 m de diamètre. Elle convient pour des profondeurs d’eau allant de 25 m à 1000 m.

    Figure 28 : Vue d’une bouée OPT.

    Un flotteur colonne (en noir) est ballasté de manière à se tenir verticalement en dépassant de la surface. Une bouée (en jaune) coulisse autour en suivant les vagues. Le mouvement relatif actionne un convertisseur d’énergie. Une plaque immergé amortit les mouvements verticaux de la colonne, ce qui augmente le mouvement relatif. Voir Ocean power technologies

    Flotteurs articulés

    Plusieurs flotteurs sont articulés entre eux. La captation de l’énergie est obtenue par la courbure de la surface qui déforme l’ensemble. Les vagues qui ont une grande énergie ont également une grande période, donc une grande longueur d’onde. La déformation de la surface est faible, donc il faut un train de flotteurs très long et de grand volume pour obtenir les forces suffisantes pour développer une puissance intéressante.
    L’expérience acquise a montré l’intérêt d’avoir au moins 3 flotteurs en série pour stabiliser l’ensemble face à la houle. Lorsque la vague incidente est très cambrée, le flotteur de tête plonge dans la vague, ce qui limite les efforts lors des tempêtes. Les mouvements des articulations actionnent des pompes à huile, le fluide sous pression faisant travailler un moteur hydraulique qui entraine un générateur. L’accumulation d’huile pressurisée assure la continuité de la production malgré l’intermittence des mouvements.

    Figure 29 : Schéma d’un houlomoteur à flotteurs articulés

    La réalisation la plus aboutie à ce jour est le PELAMIS. Un modèle de 750 kW a une longueur de 140 m et un diamètre de 3,5 m.
    Des prototypes testés au Portugal ont souffert des tempêtes, ce qui a conduit à renforcer et améliorer la technologie. La société porteuse de cette technologie a été dissoute pour des raisons financières. Toutefois, le gouvernement écossais a repris l’ensemble de la propriété intellectuelle car il considère que l’expérience acquise sera très utile pour la poursuite du développement de l’énergie houlomotrice.

    Figure 30 : Vue d’un PELAMIS P2

    Les articulations entre les segments récupèrent les mouvements de déformation verticaux et horizontaux – Source : Ocean Power Delivery Ltd

    V - Autres utilisations de l’énergie des vagues

    En dehors de la production d’électricité, l’énergie peut être utilisée pour produire de l’eau douce, Carnegie wave, voire de l’hydrogène. H2 ocean-project.eu

    Signalons aussi que les vagues peuvent servir à la propulsion marine. Le meilleur exemple est fourni par la technologie Wave Glider.

    Figure 31 : Vue d’un Wave Glider

    L’action des vagues sur le flotteur de ce robot fait osciller les ailerons sous-marins, ce qui le propulse – Le cap est choisi grâce à un gouvernail sous le flotteur – Ce robot qui est également muni de panneaux photovoltaïques peut effectuer de longues campagnes de mesures en mer.

    VI - Conclusions sur l’énergie de la houle

    L’énergie de la houle représente une grande ressource, surtout au large. A proximité des côtes, la hauteur des vagues est plus faible, mais la profondeur d’eau est moindre et le raccordement à la terre est plus économique. De très nombreux dispositifs ont été testés ou sont en cours de développement. Selon les conditions du site, certains concepts sont mieux adaptés que d’autres.
    La capacité de survivre aux tempêtes est un facteur essentiel de la conception. Tous les équipements doivent résister à la fatigue aux contraintes du milieu marin.
    L’énergie des vagues restera toujours plus chère que d’autres formes d’énergie car les efforts mécaniques impliqués lors la captation sont très importants.
    Actuellement, des unités de petites puissances sont disponibles. Elles se justifient économiquement dans les régions dépourvues de moyens économiques de production d’énergie.
    Lorsqu’un nouvel ouvrage de génie maritime doit être construit en mer, l’intégration d’une production d’énergie houlomotrice mériterait d’être considérée.

    Pour aller plus loin

    École Centrale de Nantes
    Aquaret
    France-energies-marines
    Paper OMAW 2010 20473 Final
    Oceanlinx
    Awsocean
    Aw-energy

  • Les hydroliennes

    Jacques Ruer

    I - Principe

    II - Ressource énergétique des courants de marées

    III - Conversion de l’énergie cinétique du courant

    IV - Contrôle de la puissance − cas d’une hydrolienne avec rotor-hélices 

    V - Production énergétique d’une hydrolienne

    VI - Cavitation

    VII - Influence de l’orientation relative du rotor avec le courant

    VIII - Types d’hydroliennes

    VIII - 1 Rotor à axe horizontal

    VIII - 2 Rotor à flux transverse

    VIII - 3 Capteurs oscillants

    Pour aller plus loin

    I - Principe

    Une hydrolienne est une machine hydraulique qui exploite l’énergie cinétique de la masse d’eau environnante. Elle peut être comparée à une éolienne sous-marine produisant de l’électricité à partir du courant d’eau.

    II - Ressource énergétique des courants de marée

    On verra au paragraphe suivant que seuls les courants ayant une vitesse maximale supérieure à 2 m/s, voire 2,5 m/s présentent un intérêt pour l’implantation d’hydroliennes. En mer, on observe des courants périodiques induits par la marée, ainsi que des courants océaniques qui sont relativement stables.

    Les courants de marée sont importants dans les régions où le marnage est important, dans les zones où la configuration de la côte oblige la masse d’eau à accélérer.

    Figure 1 : Carte des vitesses maximales des courants de marée dans la Manche. Les courants sont rapides là où la masse d’eau entrainée par l’onde de marée doit contourner des pointes, ou des îles et passer au dessus d’un haut-fond – Source : SHOM

    Les sites présentant des courants rapides sont très localisés, comme on peut le voir sur l’exemple de la figure 1. La profondeur d’eau est toujours inférieure à 50 m. Les sites sont situés à une distance assez faible de la côte, ce qui simplifie le raccordement électrique.
    À titre d’exemple, lors d’une marée de vive-eau, la vitesse maximale du courant atteint   m/s entre Aurigny et la Pointe de la Hague (Raz Blanchard). La vitesse maximale est quasiment proportionnelle à l’amplitude de la marée, donc au coefficient de marée.

    Figure 2 : Vitesses du courant dans l’archipel de Molène et autour d’Ouessant 3 h après la pleine mer de Brest lors d’une marée de coefficient 103 – La carte représente une zone de 37km x 56km − Source : Previmer.org

    La ressource théorique de l’énergie des courants de marée sur les côtes françaises est estimée à 6 000 MW. La ressource accessible en tenant compte des contraintes économiques et réglementaires est probablement la moitié de cette valeur.

    En comparaison, les courants océaniques sont nettement moins rapides. Les figures 3 et 4 montrent la vitesse moyenne du Gulf Stream dans le détroit de Floride, à l'endroit où ce courant le plus rapide au monde atteint sa plus grande vitesse. On constate que la vitesse maximale est d’environ 1,8 m/s, ce qui est nettement moins rapide que les courants de marée dans les sites propices.

    cm s-1

    Figure 3 : Carte des vitesses du Gulf Stream et de la dérive Nord-Atlantique - Source : Cooperative Institute for Marine & Atmospheric Studies

    Figure 4: Vitesse dans le détroit de Floride − La vitesse est maximale près de la côte de Floride en surface et beaucoup plus faible près de la côte cubaine

    III - Conversion de l’énergie cinétique du courant

    Considérons une hydrolienne avec un rotor de diamètre D immergé dans un courant dont la vitesse est V.

    Figure 5: Schéma du courant agissant sur une hydrolienne

    La surface du rotor est : S = п/4.D2
    La masse d’eau qui traverse le rotor à chaque seconde est : M= ρ.S.V    ρ : masse volumique du fluide
    L’énergie cinétique de cette masse d’eau est : E = ½ M.V2 = ½.ρ.S.V3*

    La puissance de l’hydrolienne est une fraction de l’énergie cinétique:P = Cp.E    avec Cp : coefficient de performance de l’hydrolienne.

    On obtient : P = ½.Cp.ρ.S.V3      (1)

    Le coefficient de performance Cp dépend de la qualité de réalisation du capteur d’énergie, par exemple le rotor de l’hydrolienne. On démontre (théorie de Betz) que dans une profondeur d’eau infinie, Cp est égal au maximum à la limite de Betz : 16/27 = 0,59. Cette théorie est fréquemment utilisée pour les éoliennes. Sans prétendre expliquer ici cette théorie, il suffit de considérer que le fluide qui entre dans le rotor d’un coté, doit en ressortir de l’autre coté. Le fluide sortant possède une vitesse non nulle, donc une énergie cinétique résiduelle qui n’a pas été soustraite par le rotor.
    En fait, dans le cas des hydroliennes, la profondeur d’eau n’est pas infinie, si bien que la théorie doit être révisée. La théorie détaillée sort du cadre de cette présentation.
    Les rotors réels des hydroliennes ont un Cp voisin de 0,40 à 0,45.

    La figure 6 montre la relation entre la vitesse du courant et la puissance électrique pour une hydrolienne de 200 kW. Lorsque le courant est plus rapide que la vitesse nominale prise en compte pour le dimensionnement de la machine, la puissance est bridée à la valeur maximale. Ceci résulte du fait que le raccordement électrique est prévu pour une puissance donnée, qu’il n’est pas possible de dépasser.

    Figure 6: Relation entre la vitesse du courant et la puissance pour une hydrolienne théorique de 200 kW dessinée pour délivrer sa puissance maximale pour un courant de 2,5 m/s − Lorsque le courant est inférieur à la vitesse nominale, la puissance varie selon le cube de la vitesse ; pour des vitesses supérieures, l’hydrolienne est pilotée pour maintenir la puissance électrique constante.

    Le fait que la puissance soit proportionnelle au cube de la vitesse du courant entraine beaucoup de conséquences dans la conception des hydroliennes et la sélection des sites propices à l’exploitation de cette forme d’énergie.

    Imaginons pour fixer les idées, qu’on désire obtenir une puissance électrique de 200 kW grâce à une hydrolienne. Le tableau suivant indique en fonction de la vitesse maximale du courant sur divers sites potentiels le diamètre du rotor.

    Le tableau indique ce que seraient les données pour une éolienne ayant la même puissance.
    Le tableau indique aussi la force qui s’exerce sur le rotor de l’hydrolienne. Elle est donnée par la formule :

    F = ½. Cf.ρ.S.V2    (2) 

    Tableau 1 : Dimensions d’une hydrolienne de 200 kW en fonction de la vitesse du courant prise en compte pour le dimensionnement − Cp = 0,40 −  Cf = 1,0

    Vitesse maximale du courant sur le site Surface de captation du flux Diamètre rotor circulaire Poussée horizontale théorique
    4 m/s 15,3 m2 4,4 m 125 kN
    3 m/s 36,2 m2 6,8 m 167 kN
    2 m/s 122,1 m2 12,5 m 250 kN
    1,4 m/s 355,9 m2 21,3 m 357 kN
    1 m/s 976,6 m2 35,3 m 500 kN
    Éolienne : vent de 13 m/s 352,8 m2 21,2 m 42 kN

     

    On constate que l’hydrolienne a une taille plus faible que l’éolienne de même puissance si le courant local est rapide. Sinon, c’est l’inverse. On lit fréquemment sur internet des annonces concernant l’invention de nouvelles hydroliennes capables d’exploiter les courants de faible vitesse. Le tableau ci-dessus montre que cet espoir n’est économiquement pas viable. Soulignons que ce tableau est calculé à partir de considérations sur l’hydrodynamique du fluide, et que la technologie mise en œuvre n’intervient pas dans le calcul, que le rotor soit une hélice à flux axial, à flux transverse ou une membrane ondulante.
    On constate aussi que la poussée horizontale est d’autant plus forte que la vitesse du courant est faible.

     IV - Contrôle de la puissance – cas d’une hydrolienne avec rotor-hélice

    La vitesse du courant est parfois inférieure à la vitesse nominale, parfois supérieure lors des grands coefficients de marée. Afin d’illustrer la manière dont il est possible de contrôler la puissance, considérons le cas d’une hydrolienne mécaniquement très simple, munie d’un rotor en forme d’hélice avec des pales non réglables, placée perpendiculairement au courant. La figure 7 montre que la puissance délivrée varie en fonction de la vitesse de l’eau, mais aussi de la vitesse de rotation. La puissance passe par un maximum quand la vitesse de rotation augmente, puis s’annule pour la vitesse dite de roue libre. La vitesse de roue libre est proportionnelle à celle de l’eau, si bien que la valeur du maximum de puissance suit une loi cubique similaire à la formule (1).

    Figure 7 : Caractéristiques de puissance d’une hydrolienne munie d’un rotor en forme d’hélice en fonction de la vitesse du courant et de la vitesse de rotation — La puissance nominale est de 450 kW pour un courant de 3 m/s — La courbe 0-A-B représente la puissance fournie par une génératrice conçue pour délivrer 450kW au maximum – La partie 0-A est située légèrement à droite de la courbe des lieux du maximum de puissance pour des raisons de stabilité — (voir texte)

    Lorsque la vitesse de l’eau est inférieure à la vitesse nominale (ici 3,0 m/s), la puissance varie comme le cube de la vitesse du courant. Le système électronique qui contrôle la génératrice doit régler la puissance produite en fonction de la vitesse de rotation d’une manière convenable. Supposons en effet que pour un courant de 2,5 m/s, on désire obtenir la puissance maximale théorique, égale dans ce cas à 300 kW, atteinte pour une vitesse de rotation de 13 rotations par minute (13 rpm). Un léger dérèglement risque de faire baisser la vitesse du rotor en dessous de cette vitesse optimale.
    On voit sur la figure 7 que si la vitesse tombe en dessous de 13 rpm, la puissance hydraulique du rotor diminue, si bien que la vitesse de rotation ralentit ; la puissance diminue encore, la vitesse baisse à nouveau, ainsi de suite jusqu’à l’arrêt complet. On parle de décrochage.
    Il est préférable de régler le système pour que la vitesse de rotation pour un courant de 2,5 m/s soit de 15 rpm, avec une puissance fournie à la génératrice de 250 kW. Grâce à cette disposition, une légère baisse de la vitesse de rotation conduit à une augmentation de la puissance hydraulique. Celle-ci est alors supérieure à la puissance extraite par la génératrice. La différence accélère le rotor qui revient à la vitesse normale de 15 rpm. À l’inverse, une accélération fortuite et passagère de la vitesse de rotation se traduit par une baisse de la puissance hydraulique. Le rotor est automatiquement freiné par la génératrice et revient à la vitesse initiale.
    Lorsque le courant de marée a une vitesse supérieure à la vitesse nominale de 3 m/s, le rotor tourne plus vite que 15 rpm, mais il est possible électroniquement de ne pas laisser la génératrice produire plus que la puissance désirée de 450 kW.
    En résumé, sur la figure 7, la zone située à droite de la courbe des maxima correspond à un fonctionnement stable, tandis que celle située à gauche est instable.

    La figure 8 schématise la chaine électrique d’une hydrolienne équipée d’une génératrice à aimants permanents.

    Figure 8 : Schéma simplifié de l’architecture électrique d’une hydrolienne à aimants permanents

    La génératrice fournit un courant dont la fréquence varie avec la vitesse de l’eau. Ce courant alternatif est d’abord transformé en courant continu grâce à un étage de conversion électronique équipé de transistors de puissance, dits transistors bipolaires à grille isolée (en anglais : IGBT). L’énergie électrique sous forme de courant continu peut être stockée dans des super-condensateurs afin de lisser les fluctuations de puissance dues par exemple à l’action de la houle (voir figure 12 ci-après).
    Le courant continu est ensuite transformé en courant alternatif triphasé 50 Hz, en phase avec le réseau de transport continental pour permettre l’exportation de l’énergie. Un transformateur à rapport de tension réglable permet d’ajuster la tension de sortie à celle du réseau.
    On constate que la technologie moderne de l’électronique de puissance permet maintenant de concevoir des hydroliennes dont l’architecture mécanique est simple. Les fonctions sophistiquées permettant d’accommoder les variations de puissance sont obtenues par des moyens électroniques et non par des moyens mécaniques (par exemple pales réglables à incidence variable). La fiabilité de l’ensemble est améliorée.

    V - Production énergétique d’une hydrolienne

    Comme la vitesse du courant est proportionnelle à l’amplitude de la marée, la formule (1) montre que la puissance varie énormément d’une heure à l’autre et d’un jour à l’autre en fonction du coefficient de marée.

    Pour illustrer la variation de la production d’énergie selon les jours, on considère un exemple théorique, avec une hydrolienne de 500 kW implantée dans un site typique de la Manche. La figure 9 montre la vitesse du courant sur ce site durant le mois d’octobre 2008.

    Figure 9: Vitesse du courant entre le 01/10/2008 et le 31/10/2008

    Figure 10 : Production durant une période de vive-eau — La puissance nominale est atteinte les 2 et 3 octobre — Les coefficients de marée sont trop faibles à partir du 4 octobre

    Figure 11: Production durant une période de morte-eau

    Le calcul de la production cumulée pour ce site pour toute l’année 2008 montre que l’hydrolienne aurait pu fournir un total de 1 516 073 kWh.

    En divisant cette quantité par la puissance nominale de l’hydrolienne, on obtient :

    1516073 kWh / 500 kW = 3032 h

    Ce nombre d’heures constitue ce qu’on nomme la durée équivalente de fonctionnement pleine puissance.

    Si on divise l’énergie par le nombre d’heures dans une année (8760 h), on obtient la puissance moyenne :

    1 516 073 kWh / 8760 h = 173 kW

    Le ratio 173 kW / 500 kW = 0,35 est nommé facteur de charge.

    Ces valeurs sont similaires à celles obtenues quand on effectue les calculs pour une éolienne dans un site bien venté. L’énergie hydrolienne présente donc un facteur de charge similaire à l’éolien. Elle possède toutefois un avantage important : l’énergie des courants de marée est prévisible très longtemps à l’avance.

    En mer ouverte, la houle se superpose au courant de marée. La combinaison des vitesses du courant et du mouvement cyclique induit une fluctuation de la puissance instantanée, comme on peut le voir sur la figure 12. Pour s’affranchir de cette influence, on peut stocker temporairement les surplus d’énergie grâce à des batteries ou des super-condensateurs (voir figure 8).

    Figure 12 : Mesures de la vitesse instantanée du courant et de la puissance de l’hydrolienne — On note les variations dues à l’influence d’une forte houle lors de la mesure — Projet SEAFLOW Marine Current Turbines

    VI - Cavitation

    L’analogie avec les éoliennes connaît une limite à cause du phénomène de cavitation. L’eau qui circule à proximité d’une aile subit des différences de pression. Une surpression existe sous la face d’intrados, tandis qu’une dépression est présente sur l’extrados (voir figure 13). Or, si la pression locale devient inférieure à la pression pour laquelle l’eau s’évapore, des bulles de vapeur se forment.

    Figure 13: Schéma du phénomène de cavitation

    Figure 14 : Maquette de rotor d’hydrolienne dans un canal d’essai — Les zones brillantes à l’extrémité des pales sont les bulles de cavitation — À l’extrémité des pales, les tourbillons provoque le dégazage d’air dissous. Les chapelets de bulles visualisent la trace en hélice du passage des extrémités des pales dans l’eau.

    La cavitation est gênante, car les bulles implosent dès que la pression ambiante remonte, en dehors de la zone de formation. Lorsque les bulles sont en contact avec la paroi, l’implosion provoque une onde de choc locale capable d’éroder la surface, ce qui conduit à une usure prématurée du matériel.

    Figure 15 : Hélices de navire montrant des zones érodées par la cavitation.

    Un moyen simple d’éviter la cavitation consiste à limiter la vitesse tangentielle en extrémité de pale. La dépression sur l’extrados est proportionnelle à l’énergie cinétique du fluide :

    Δ P = ½ k.ρ.V2     (3)

    Le facteur k dépend du profil de l’aile et d’autres facteurs.

    La cavitation apparaît si :

    P = ρ.g.z – Δ P < Pvap    (4)

    La pression de vapeur saturante Pvap ne dépend que de la température. Elle est très faible à la température ordinaire, par exemple 1,7 kPa à 15 °C, à comparer avec la pression atmosphérique qui est de 101 kPa.
    La formule (4) montre que la cavitation dépend de la profondeur (z) et de la vitesse de la pale (V).

    VII - Influence de l’orientation relative du rotor avec le courant

    On pourrait penser qu’il est important de conserver en permanence l’axe du rotor dans celui du courant, car l’orientation précise du courant varie au fil des heures.
    La figure 16 montre la rose des courants en divers points de la côte Bretagne-Cotentin, ce qui permet d’estimer la perte d’énergie dans le cas où le rotor est fixe dans l’espace, alors que la direction du courant est variable.

    Figure 16 : Roses de courant en divers points de la côte Bretagne-Cotentin — Chaque diagramme local indique la variation de l’orientation et de la vitesse du courant au fil des heures — Le courant est essentiellement parallèle à la côte — Le site des Minguiers présente une rose elliptique − Source : SHOM.

    On constate que les courants sont parallèles à la côte, dans un sens ou dans l’autre selon l’heure. Sur le site des Minguiers situé entre Jersey et Bréhat, la rose présente une forme elliptique, le courant transverse ayant une vitesse environ égale au tiers du courant maximal axial. Si on considère de nouveau la formule (1), on arrive à la conclusion que la puissance de ce courant transverse n’est que 4 % de la puissance maximale lorsque le courant est aligné avec le grand axe de l’ellipse. Ceci montre que même sur un site de ce genre, il n’est pas judicieux de s’efforcer d’orienter le rotor à tout instant. Un rotor fixe est quasiment aussi efficace qu’un rotor orientable.

    VIII - Types d’hydroliennes

    Lors de la conception d’une hydrolienne, plusieurs paramètres s’offrent au choix de l’ingénieur. Il est ainsi possible d’imaginer de nombreuses machines d’aspects fort différents. On décrit dans ce qui suit les principaux types de capteur destinés à transformer l’énergie cinétique de l’eau en énergie mécanique utilisable. Quelques exemples sont présentés ensuite, en tentant de montrer la démarche qui a conduit la conception dans chaque cas.

    VIII - 1 Rotor à axe horizontal

    Le rotor est une hélice placée perpendiculairement au courant. Ce genre d’hydrolienne est similaire à une éolienne qui tournerait dans l’eau.

    Figure 17 : Schéma d’une hydrolienne équipée d’un rotor hélice perpendiculaire au courant.

    La théorie des hélices enseigne que les pales du rotor se comportent comme des ailes qui interagissent avec le fluide à proximité (tourbillons de Joukowski). La figure 18 montre que lorsque le rotor tourne, les pales tracent dans le fluide des hélices entrelacées, si bien que l’ensemble de l’eau qui traverse le rotor interagit avec au moins une des pales. La vitesse de rotation est inversement proportionnelle au nombre de pales. Moins il y a de pales, plus la vitesse doit être élevée afin qu’aucune particule d’eau ne puisse traverser le rotor sans subir l’influence d’au moins une pale.

    Figure 18 : Visualisation des tourbillons liés aux pales du rotor — Les pales tracent dans l’eau des hélices étroitement entrelacées  Seuls les tourbillons d’extrémité des pales sont figurés pour la clarté de l’image — Le flux en aval du rotor est plus large qu’à l’amont car la vitesse aval est plus basse — On voit que certaines lignes de flux aval ont acquis une composante de vitesse tourbillonnaire, celle-ci est toutefois réduite, le flux aval reste essentiellement axial — Source : Oxford Energy.

    Hélices carénées

    Certaines hydroliennes qui utilisent le principe du rotor-hélice sont munies d’un carénage. La forme interne du carénage dessine un venturi convergent-divergent. La vitesse de l’eau au droit du rotor est supérieure à la vitesse environnante. Les promoteurs de la technique du rotor caréné insistent sur le fait que le diamètre de l’hélice est alors plus faible que pour un rotor libre, ce qui est exact. Toutefois, la puissance captée est dictée par le diamètre de l’entrée du convergent. On peut démontrer que cette puissance est identique à celle obtenue avec un rotor libre dont le diamètre serait égal au diamètre d’entrée (figure 19).
    Du point de vue économique, le coût du carénage dépasse largement l’économie faite sur le rotor proprement dit. De plus, si l’hydrolienne est implantée dans un site ouvert à l’influence de la houle, le carénage de grande dimension est soumis à de gros efforts hydrodynamiques qui obligent à augmenter la résistance mécanique de la structure et le coût des ancrages.

    Figure 19 : Comparaison d’un rotor caréné et d’un rotor libre — La puissance captée est identique si les diamètres D sont égaux.

    Le principe du rotor hélice est utilisé dans de nombreux types d’hydrolienne. On ne citera ici que quelques exemples représentatifs.

    Sabella

    L’hydrolienne est conçue dans un esprit de simplicité, avec le minimum possible d’éléments mobiles. Elle est posée sur le fond afin de se soustraire autant que possible à l’action des vagues, car les sites visés (par exemple Ouessant) sont situés en mer ouverte et balayés par les tempêtes.
    La nacelle est posée sur un tripode lesté. L’hydrolienne est fixe dans l’espace. L’ensemble est orienté lors de l’installation en tenant compte d’un compromis entre la direction du courant lors du flot et du jusant.
    Les pales sont fixées rigidement au moyeu. Le sens de rotation du rotor s’inverse avec le sens du courant. Les pales sont symétriques, car chaque face des ailes est alternativement extrados puis intrados. Ce type de profil est un compromis qui n’est pas optimum du point de vue rendement. Ceci est aisément compensé en donnant au rotor un diamètre légèrement plus grand (+5%) que celui d’un rotor théorique qui serait muni de pales optimales. Pour éviter la cavitation, le rotor tourne assez lentement et comporte 6 pales.
    On ne peut pas faire varier l’incidence des ailes. Par conséquent, la vitesse de rotation est variable, proportionnelle à la vitesse de l’eau. La génératrice est couplée directement au rotor, sans engrenages intermédiaires, ce qui augmente la fiabilité. Le courant électrique variable produit par la génératrice est transformé en courant triphasé 50 Hz grâce à des convertisseurs électroniques convenables (Voir figure 8).
    L’idée fondamentale de la conception est que la simplification mécanique doit permettre de minimiser les risques de panne et les besoins de maintenance.

    Figure 20 : Vue de l’hydrolienne Sabella D10 lors de son installation — La nacelle est montée sur un socle tripode soigneusement lesté pour maintenir l’ensemble en position même lors des tempêtes — Source : Sabella SAS

    Hydrolienne OpenHydro

    L’hydrolienne comporte un carénage circonscrit au rotor. La présence du carénage améliore l’uniformité du flux sur le rotor. On voit sur la figure 21 que les pales sont fixées sur un anneau qui roule dans une gorge aménagée dans la surface interne du carénage. L’anneau porte les aimants permanents de la génératrice, tandis que les bobinages du stator sont intégrés dans le carénage. Dans cette conception, la génératrice fonctionne complètement immergée dans l’eau. Il ne peut donc pas y avoir de problème lié à une perte d’étanchéité. Par contre, la nécessité de maintenir l’isolation électrique des bobinages conduit à un grand entrefer entre les faces magnétiques des aimants permanents portés par l’anneau mobile et les bobinages du stator. La friction de l’eau emprisonnée dans l’entrefer lorsque l’anneau tourne engendre une perte d’énergie dont il faut tenir compte dans le calcul du rendement.
    L’électricité produite a une fréquence variable, en fonction de la vitesse du courant de marée. Des équipements électroniques intermédiaires permettent d’élaborer le courant aux caractéristiques exigées par le réseau.
    Des éléments mécaniques doivent assurer le centrage précis du rotor dans le carénage et compenser la poussée hydrodynamique axiale.
    La présence du carénage augmente les efforts dus aux vagues lors des tempêtes. Le lestage de l’ensemble doit être prévu en conséquence.

    Figure 21 : Vue d’une hydrolienne OpenHydro sur sa barge d’installation — On voit les pales fixées sur un anneau mobile inséré dans un carénage — Le centre du rotor est vide — Source : DCNS

    Hydrolienne Oceade

    Cette hydrolienne est très semblable à une éolienne sous-marine, comme on peut s’en rendre compte sur la figure 22.
    Le rotor est positionné face au courant. La nacelle pivote lors de la renverse grâce à un propulseur auxiliaire. Les pales ont une incidence réglable à volonté. Les pales du rotor peuvent avoir un profil optimal offrant la meilleure efficacité hydrodynamique.
    La nacelle peut être amenée sur le site en flottaison, grâce à un remorqueur modeste (Voir figure 23). Le support tripode est apporté par un navire de travail, mais n’a pas besoin d’être relevé lors des opérations de maintenance. Durant le remorquage en surface, les pales doivent être orientées de façon à minimiser la trainée et éviter que la nacelle ne tourne. La facilité relative de l’installation de la nacelle permet d’intégrer dans celle-ci des équipements sophistiqués, notamment un multiplicateur de vitesse à engrenages. Comme la vitesse de rotation de la génératrice est grande, la taille de celle-ci est nettement plus faible que pour une génératrice tournant à la vitesse du rotor.

    Figure 22 : Hydrolienne Oceade — Source : Alstom

    Figure 23 : Remorquage de la nacelle d’un hydrolienne Oceade-2 des 3 pales restent immergées, elles doivent être « mises en drapeau » pour que le convoi puisse garder un cap et que la nacelle ne bascule pas — Le tripode support reste en place sur le fond — Source : Alstom

    Hydroliennes flottantes

    De nombreux modèles d’hydrolienne flottante ont été et continuent à être inventés et testés. La conception est guidée par le désir de faciliter l’installation et la maintenance.

    Figure 24 : Schéma d’un hydrolienne flottante munie d’un rotor-hélice. Le flotteur est amarré sur le fond — Le rotor peut être sorti de l’eau pour la maintenance et le remorquage

    L’hydrolienne est constituée d’un flotteur amarré sur le fond. La trainée du rotor provoque une traction sur l’ancrage, et le flotteur doit avoir une flottabilité suffisante pour ne pas être entrainé sous la surface par la traction de l’ancrage. Un flotteur en surface est sensible aux vagues, si bien que ce type d’hydrolienne ne convient guère que pour les sites relativement abrités de la houle du large.
    Ces machines sont en surface, ce qui implique que leur présence visible soit acceptée du voisinage, et qu’elles ne constituent pas une gêne pour la navigation.

    Un exemple est fourni par l’hydrolienne développée par Scotrenewables.
    Le flotteur porte 2 rotors placés au bout de bras articulés. Les 2 rotors tournent en sens inverse afin de ne pas engendrer de mouvement latéral.
    Durant le remorquage, mais aussi en cas de tempête, les bras sont repliés. Pour minimiser la trainée durant cette phase, chaque rotor ne peut comporter que 2 pales, qui viennent se ranger sous le flotteur. Le faible nombre de pales par rotor oblige à soigner le profil des ailes pour éviter la cavitation. Un tel profil est non symétrique, si bien que l’hydrolienne doit pivoter lors de la renverse pour toujours faire face au courant.

    Figure 25 : Hydrolienne flottante Scotrenewables — En position opérationnelle, les bras portant les rotors sont déployés sous le flotteur — En position remorquage ou survie, les rotors sont repliés — L’hydrolienne doit pivoter autour de son point d’ancrage lors de la renverse — Source : Scotrenewables

    VIII.2 - Rotor à flux transverse

    Ce type de capteur diffère de l’hélice, car les pales tournent autour d’un axe perpendiculaire au courant. Il est hérité des éoliennes Darrieus.

    Schéma d’une hydrolienne à flux transverse

    Figure 26 : Schéma d’une hydrolienne à flux transverse — Dans cette figure, l’hydrolienne est flottante, mais certains modèles sont posés sur le fond — On voit ici un avantage du rotor à axe vertical pour une hydrolienne flottante : la génératrice est hors de l’eau, sur le flotteur

    Un rotor à flux transverse comporte plusieurs pales qui coupent le flux du courant 2 fois à chaque tour. La figure 27 montre que les pales sont accompagnées de tourbillons qui correspondent à l’apparition des forces hydrodynamiques, tantôt d’un côté du profil, tantôt de l’autre, de façon alternée. Ces tourbillons se détachent pour certaines valeurs de l’angle de rotation du rotor, avec une annulation soudaine puis une inversion du sens des forces sur la pale. Ce comportement est donc très différent de celui d’une hélice conventionnelle pour laquelle les tourbillons de Joukowski restent attachés aux pales. Le rendement effectif d’un rotor à flux transverse est inférieur à celui d’un rotor-hélice.

    Figure 27 : Simulation numérique de l’écoulement dans un rotor à flux transverse — On voit 3 pales profilées qui tournent autour d’un axe dans le sens inverse des aiguilles d’une montre (sens antihoraire) — Les tourbillons bleus tournent dans le sens horaire, les rouges dans le sens antihoraire — À chaque tour, une pale forme un tourbillon dans un sens qui se détache brutalement, puis un autre dans le sens contraire qui se détache à son tour, etc. — Les tourbillons détachés sont emportés par le courant — Voir l’animation youtube

    Si les pales sont verticales, l’inversion des forces se produit instantanément sur toute la pale, ce qui peut engendrer des vibrations et une fatigue prématurée. Le rotor doit être construit très rigide (voir exemple figure 28).

    Figure 28 : Vue d’une hydrolienne avec 6 rotors transverses — L’hydrolienne comporte 2 axes verticaux tournant en sens inverse, portant chacun 3 rotors à pales verticales (visibles en jaune). Les 3 rotors sont décalés angulairement pour atténuer les variations d’effort — Notez le carénage et la structure (en vert) qui porte des paliers intermédiaires ce qui minimise les déformations des arbres — Source : CMN-Hydroquest

    Une autre solution consiste à donner aux pales une forme en hélice. Le largage des tourbillons se produit progressivement le long de la pale, au fur et à mesure que l’angle de rotation critique est atteint, sans créer de vibration.

    Figure 29 : Alexander M. Gorlov montrant la turbine à axe vertical qui porte son nom, munie de pales hélicoïdales

    Rotor transverse à axe horizontal

    Figure 30 : Hydrolienne à rotors transverses tournant autour d’un axe horizontal — La structure porte des paliers intermédiaires — Ces hydroliennes sont destinées aux sites ayant une faible profondeur d’eau — Source : RivGen

    VIII.3- Capteurs oscillants

    De nombreux autres modèles d’hydrolienne ont été inventés. On peut citer ici les hydroliennes avec aileron oscillant ou membrane ondulante. Ces dispositifs s’inspirent du mouvement des nageoires des poissons.

    Figure 31 : Schémas d’hydroliennes avec capteurs oscillants, à aileron ou à membrane ondulante

    De manière générique dans cette famille de capteurs, l’énergie est captée par une surface qui décrit un mouvement alternatif perpendiculaire au courant. Chaque oscillation fait apparaître une force qui est exploitée. La production d’énergie est non constante et s’annule 2 fois par cycle. Un stockage d’énergie de courte durée est obligatoire.
    Le sillage aval constitue une allée de Von Karman, formée de tourbillons alternés. Le flux de courant qui interfère avec le capteur est délimité par la largeur de cette allée. La fréquence optimale d’oscillation est déduite de la formule :

    F(Hz) = 0,2.V/H       (5)

    Figure 32 : Schéma d’un capteur oscillant avec une allée tourbillonnaire de Von Karman dans le sillage

    Pour aller plus loin

    (1) Modèlisation et analyse pour la Recherche Côtière - Ifremer.

    (2) Sabella

    (3) Oceade

    (4) ScotRenewables

    (5) Marine Current Turbines

    (6) Tidal Stream

  •  Les usines marémotrices

    Jacques Ruer

    Les marées

    La marée est un phénomène qui résulte de l’action gravitationnelle de la Lune et du Soleil.
    La marée est un phénomène bien documenté sur lequel une abondante information est disponible dans la littérature et sur internet. Voir notamment le site du Laboratoire d'Océanographie Physique et Spatiale.
    Sur nos côtes de la façade Atlantique-Manche, on observe 2 marées hautes et 2 marées basses par jour. La hauteur d’une marée, ou marnage, varie d’un jour à l’autre selon la phase de la Lune et la période de l’année. Lors d’une lunaison, les marées les plus fortes dites de vive-eau interviennent 36 heures après la Nouvelle Lune et la Pleine Lune.

    Figure 1 : Variation de la hauteur d’eau à Brest lors du mois de mars 1980 – Source : SHOM

    En France, on a l’habitude de caractériser une marée par son coefficient. Une marée de vive-eau moyenne possède un coefficient de 95, une marée de morte-eau moyenne un coefficient de 45.

    Figure 2 : Relevé des coefficients de marée durant l’année 2001 – On note une variation sur 2 semaines environ, avec des maxima lors des équinoxes de printemps et d’hiver – Ce diagramme varie légèrement d’une année à l’autre

    La figure 3 montre l’amplitude la marée dans la Manche.

    Figure 3 : Marnages de vive-eau dans la Manche pour un coefficient de 100 – Les lignes rouges indiquent l’heure de la marée haute après le passage de la Lune au sud. Lorsque la marée est haute en Bretagne, elle est basse en Picardie – Les lignes bleues montrent la hauteur de la marée – On peut noter la forte disparité selon les lieux. Elle varie de 6,1m à Brest à 11m à Saint-Malo et 2m à Bournemouth. Source : IFREMER

    La figure 4 indique l’amplitude de la marée dans le Monde. On constate que le marnage est généralement inférieur à 50 cm. Seules quelques régions sont soumises à de fortes marées. Nos côtes en font partie.

    Figure 4 : Marnages sur l’océan mondial. L’onde de marée tourne autour de points dits amphidromiques dans le sens indiqué par les flèches – Source : NASA

    On estime que l’énergie dissipée par les marées dans le monde est de 3,8 TW, dont 1 TW dans l’océan profond. Cette dissipation d’énergie ralentit la vitesse de rotation de la Terre. La durée du jour était par exemple de 21,9 heures il y a 620 millions d’années.

    Les usines marémotrices

    Historique

    La variation de niveau de la mer a été utilisée depuis le haut moyen-âge pour faire fonctionner des moulins à marée. Ceux-ci possèdent un bassin isolé de la mer par un barrage. On laisse l’eau envahir le bassin à marée haute, puis lorsque la marée est basse, on ouvre la vanne du moulin pour exploiter l’énergie de l’eau accumulée. Une installation a été découverte dans Londres, datant de la période romaine. Des centaines de moulins de ce type ont été construits en Europe au Moyen-âge.

    Figure 5 : Moulin à marée à Bréhat

    Principe

    Une usine marémotrice moderne comporte également un barrage qui isole un bassin de la mer. Le mouvement de la marée provoque des différences de niveau entre les masses d’eau qui sont mises à profit pour faire tourner des turbines hydrauliques.

    Figure 6 : Schéma de fonctionnement d’une usine marémotrice – Ici, les turbines travaillent dans les 2 sens, lors de la marée montante ou descendante (double effet).

    On voit sur la figure 6 que le dénivelé D est une fraction de la hauteur de marnage H :

    D= k.H   (1)

    Si S(h) est la surface du bassin de retenue quand le niveau de l’eau est à la hauteur h au dessus de la basse mer, le volume turbiné durant la marée montante est donné par la formule :

    Le volume est proportionnel à , si bien que l’énergie produite à chaque marée est :

    On constate que la production est proportionnelle au carré du marnage, ce qui montre l’intérêt des sites ayant de grandes hauteurs de marée.

    L’usine marémotrice de la Rance

    L’utilisation de la marée pour produire de l’électricité a été abondamment étudiée depuis le milieu du 20éme siècle. Quelques projets ont été réalisés, le plus emblématique étant l’usine de la Rance, exploitée par EDF depuis 1966.

    Les dossiers que l'on trouve sur internet donnent beaucoup d’information sur cette réalisation :

    Dossier usines marémotrices – La Houille Blanche 1976
    Dossier impact écologique de la Rance – La Houille Blanche 1989

    L’usine de la Rance comporte 24 groupes bulbe de 10 MW chacun. Ils fonctionnent dans les 2 sens du flux, lors de la marée montante ou descendante.

    Figure 7: Schéma de l’usine marémotrice de la Rance – La coupe permet de visualiser un des bulbes, son conduit hydraulique, la halle de maintenance sous la route.

    Figure 8: Schéma d’un groupe bulbe – Diamètre du rotor : 5,3m – Les pales sont orientables selon le sens du flux – Notez l’homme qui donne l’échelle

    Figure 9: Vue d’un rotor coté mer durant une maintenance – Les 12 pastilles blanches sur la paroi correspondent aux anodes du système de protection cathodique

    La production annuelle est de 500 GWh par an, ce qui correspond à la consommation d’une agglomération telle que Rennes.

    L’énergie extraite par l’usine n’est qu’une fraction de l’énergie apportée par la marée. Par exemple, en vive-eau, environ 25 GW sont consommés par frottement sur les fonds du golfe de Saint-Malo (à l'est de la ligne Bréhat-Guernesey-Aurigny-cap de la Hague), alors que la puissance de l’usine de la Rance est de 0,24 GW.

    La présence de l’usine a profondément modifié l’environnement de l’estuaire de la Rance. Les étales durent plus d’une heure, ce qui favorise la sédimentation. L’envasement du bassin constitue l’impact le plus notable.

    Autres usines marémotrices

    L’Usine de la Rance devait initialement servir d’installation pilote en vue d’une unité de 12 000 MW qui aurait comporter une digue englobant les îles Chausey (projet Chaussey).

    Malgré le succès technologique de la Rance, des projets de ce genre sont difficiles à développer étant donné les incertitudes sur les impacts environnementaux.

    Liste des usines marémotrices en fonctionnement dans le monde.

    La Rance est restée l’usine marémotrice la plus puissante au monde jusqu’en 2011, date à laquelle la centrale de 254 MW de Sihwa Lake a été mise en service en Corée du Sud. Une des raisons de ce projet est de mettre en communication le lac avec la mer pour évacuer la pollution présente dans le lac.

    Figure 10: Vue de l’usine de Sihwa Lake – L’usine visible au premier plan fait 400 m de longueur et comprend 10 bulbes - Le lac est barré par une digue de 12km qui avait été construite en guise de protection contre les inondations

    En Grande-Bretagne, l’estuaire de la Severn est soumis à de fortes marées (voir figure 3) et divers projets sont régulièrement proposés. Une première réalisation de 320 MW devrait été construite à Swansea grâce à une digue de 9,5 km encerclant un lagon artificiel de 11,5 km2, à condition que le financement soit garanti. L’avantage d’un lagon artificiel est qu’on ne modifie pas l’écologie d’un estuaire existant. (Projet de Swansea).

    Figure 11: Vue du projet de Swansea dans l’estuaire de la Severn au Pays de Galles – Le lagon artificiel n’englobe pas les estuaires des rivières avoisinantes, ce qui devrait réduire l’impact environnemental.

    Documentation :

    (1) Note présentant la théorie de la marée

    (2) Site de l’Ifremer : animation de l’onde de marée sur l’océan mondial

    (3) Dossier usines marémotrices – La Houille Blanche 1976

    (4) Dossier impact écologique de la Rance – La Houille Blanche 1989

    (5) Projet de Chausey

    (6) Usines marémotrices dans le monde

    (7) Projet de Swansea

  • Jacques Merle 

    La température moyenne de la surface de la Terre est, avec l’élévation du niveau moyen des océans, l’indicateur le plus pertinent du réchauffement climatique observé depuis le début de l’ère industrielle (aux environ de 1850), période où les premières mesures physiques de température ont été réalisées en routine par les services météorologiques pour les besoins de la prévision du temps.

    La communauté scientifique et le GIEC estiment que, depuis cette époque, le réchauffement est d’environ 0,8 °C. Cependant cet accroissement n’est pas uniforme, il présente une variabilité interannuelle importante et, surtout, il est marqué à long terme par des périodes prolongées où la température se stabilise ou même décroît pendant plusieurs décennies comme ce fut le cas entre 1940 et 1970. Plus récemment, depuis 1998, on observe une évolution semblable de la température de surface qui semble se stabiliser et marquer une pause, appelée généralement par les scientifiques et les media le «Hiatus» ou encore «La pause».

    Ce ralentissement thermique est déconnecté de l’accroissement des émissions anthropiques de Gaz à Effet de Serre (GES), tels que le dioxyde de carbone et le méthane. Les taux d’émissions de ces GES se maintiennent et même s’accroissent régulièrement pour atteindre maintenant (en 2015) dans l’atmosphère les valeurs les plus élevés que l’on ait pu observer depuis un million d’années, dépassant 400 ppm (parties par million). Comment alors expliquer cette absence momentanée de réponse thermique au forçage des GES, s’ils sont bien la cause du changement climatique ? Cette question est surtout brandie par des sceptiques qui voient là une occasion de semer le doute sur la réalité de la cause humaine du réchauffement actuel, mais elle touche presque tous les domaines de l’océanographie physique étant au cœur de l’interaction des deux enveloppes fluides qui entourent la Terre et dans laquelle nous vivons.

    Bien que les années 2014 et 2015 aient vu la reprise de la hausse de la température moyenne globale, ce hiatus thermique a suscité, et suscite encore en 2016, beaucoup de questions et de débats et alimente des controverses pouvant atteindre les milieux gouvernementaux de certains pays, comme récemment aux États Unis. Les «Climato-sceptiques», certes de plus en plus minoritaires, se sont jetés sur cet apparent événement qui démontrait, à leurs yeux, l’origine incomprise et donc naturelle plutôt qu'anthropique du réchauffement climatique. La vigueur de ces débats a suscité plusieurs centaines d’études qui se sont exprimées par des publications de qualité inégale mais touchant à de multiples domaines de la question climatique et impliquant principalement l’océan et l’atmosphère. Presque tous les sujets de recherche touchant aux relations entre ces deux milieux ont été abordés. Ils peuvent se résumer par la question : Comment l’océan absorbe et redistribue la chaleur générée dans l’atmosphère par les GES anthropiques ?
    Pour répondre à cette question générale un large éventail de questions secondaires se pose et détermine autant de chapitres :

    • Le hiatus existe-t-il vraiment ?

    • Quel est le rôle des forçages naturels comme le soleil ?

    • Quel est le rôle de la redistribution horizontale de chaleur par l’océan ?

    • Que sait-on du rôle de l’océan profond et du bilan énergétique de la Terre ?

    • Pourquoi cette question du hiatus a-t-elle pris une dimension politique ?

    • Que conclure ?

    Cette étude n’est pas une synthèse exhaustive de tous les points de vue scientifiques particuliers exprimés sur le sujet. On rassemble seulement les articles les plus significatifs exprimant un aspect de ce phénomène. Plus qu’un «review paper», c’est une invitation à la lecture à partir de références classées dont il s’agit. Dans chaque chapitre les articles sont classés dans l’ordre de leur citation dans le texte.

    1. Le hiatus existe-t-il vraiment?

    Le hiatus a commencé à être détecté et à intriguer la communauté scientifique autour des années 2010 où il devint visuellement apparent sur les courbes d’évolution de la température moyenne à la surface de la Terre (Fig 1). C’est probablement un article de Kevin Trenberth ( 1 - Trenberth 2009), dans lequel il évoquait la possibilité d’un refroidissement temporaire de la température de surface de l’océan et mettait en cause la méconnaissance que l’on avait du bilan énergétique de la Terre, qui alerta la communauté scientifique et prit rapidement une dimension polémique . Le graphique semblait montrer, depuis le pic thermique de 1998 consécutif à un puissant «El Niño», qualifié parfois de l’El Niño du siècle, un ralentissement du réchauffement, toujours en cours au moment de sa mise en évidence. Rapidement, autour de l’année 2010, deux camps s’opposèrent :

    1. Ceux qui s’interrogeaient sur des biais possibles introduits par des changements dans les instruments d’observation et avaient tendance à nier l’existence du hiatus.
    2. Ceux pour qui, au contraire, l’absence de corrélation apparente entre les concentrations de GES et la température était la preuve que le réchauffement n’était pas d’origine anthropique et s’acharnaient à clamer auprès des media la réalité de l’origine naturelle de ce hiatus.

    Parmi la première catégorie, la réaction de certains auteurs fut donc de mettre en doute et de corriger l’existence même de ce ralentissement du réchauffement en prenant en compte des biais possibles qui auraient été introduits par des changements d’instruments d’observation au cours du temps (2 -Lijing and Zhu 2014) ( 3 - Lyman and johnson 2014), ( 4 - Karl et al 2015). Ce dernier article de Karl et al est à l’origine d’une polémique entre des membres du sénat américain et la NOAA, évoqué plus en détail chapitre 5. D’autres auteurs ont tenté par des analyses statistiques poussées de mettre en évidence une éventuelle rupture dans la série temporelle qui matérialiserait le hiatus. Toutes ont échoué ( 5 - Foster and Abraham 2015) ( 6 - Rajaratnam et al 2015). C’est ce qui amena T. Mann ( 7 - Mann 2015) a évoquer : « le fantasme» de la pause climatique et à demander de bannir les termes de hiatus et de pause !

    D'autre part, les changements dans l’instrumentation ont été particulièrement marqués par le déploiement du réseau d’observations autonomes ARGO qui rend accessible à l’observation, à partir de 1998 justement, des régions jusqu’ici mal échantillonnées comme une partie de l’hémisphère sud et les régions polaires ( 8 - Wendel 2015). Avant ARGO la température de surface des océans était principalement estimée in situ à partir des observations des équipages des navires de commerce, avant que les observations spatiales, à partir des années 1970, apportent des données plus homogènes. Cependant cette connaissance de la température de surface de l’océan souffrit longtemps de son sous échantillonnage dans les mers du Sud et au voisinage des pôles que ARGO combla.
    ARGO délivre aussi une précieuse information sur l’océan profond (jusqu'à 2 000 mètres de profondeur) permettant d’estimer l’évolution du contenu thermique de l’océan par couches. ARGO a ainsi permis de comparer la répartition de la chaleur dans différentes couches sur la verticale avec la température de surface et de les confronter à des simulations de modèles. C’est ce que fit (9 – Meehl et al 2011) dans un des premiers articles à l’origine du questionnement sur le hiatus. À l’aide d’un modèle et de données Meehl montra que durant les périodes de ralentissement de l’accroissement de la température en surface (hiatus), la couche océanique des 300 premiers mètres absorbait moins de chaleur que les couches plus profondes, ce qui indiquait que le déficit thermique en surface était dû à une plongée rapide de la chaleur dans les profondeurs. Mais Durack (10 – Durack et al 2014) au contraire, montra, à partir d’observations satellites, que le réchauffement des 700 premiers mètres de l’océan est considérablement sous-estimé depuis 1970. En conséquence, d’après cet auteur, le hiatus apparent n’est qu’une conséquence de cette sous-estimation dû à un faible échantillonnage de l’hémisphère sud et à des méthodes d’extrapolation trop simplistes.
    Les observations profondes d’ARGO ont permis de mieux estimer l’évolution du contenu thermique de l’océan par tranches d’eau, (11- Roemmich et al 2006) et ainsi de corriger des biais dus aux profondeur maximales atteintes par les instruments de mesure antérieurs, qui ont évolué au cours du temps et sont à l’origine d’erreurs importantes dans le contenu thermique. De plus les méthodes d’interpolation trop sommaires des régions sous échantillonnées, affectent aussi considérablement l’estimation du contenu thermique et sa variabilité.
    Dans la deuxième catégorie on trouve des auteurs niant le ralentissement du réchauffement. Certains, prenant en compte le contenu thermique, cherchent à mettre en évidence une rupture statistique dans la série temporelle marquant l’évolution de la température. Peu de publications cependant montrent un hiatus marqué qui serait en désaccord avec les taux d’émissions de carbone fossile. Ce sont principalement des articles de presse, non répertoriés ici, qui rapportent les propos de scientifiques sceptiques quant à l’origine humaine du réchauffement. Ces opposants se manifestent principalement en tentant de montrer la prévalence des forçages naturels, notamment celle du Soleil, pour expliquer l’évolution de la température, incluant le réchauffement et sa pause.

    1 - Trenberth K. «An imperative for climate change planning : tracking Earth global energy», Current Opinion in Environmental Sustainability, 2009
    2 - Lijing Cheng and Jiang Zhu : «Artifacts in variations of ocean heat content induced by the observation system changes», JRL, 2014.
    3 - Lyman JM. And GC. Johnson : «Estimating Global Ocean Heat Content changes in the Upper 1800 m since 1950 and the influence of Climatology Choise», Journal of Climatology, 2014.
    4 - Karl T. et al : «Possible artifacts of data biases in the recent global surface warming hiatus», Science Express Reports, 2015.
    5 - Foster G. and J. Abraham : «Lack of evidence for a slowdown in global temperature», US CLIVAR Variations, 2015.
    6 – Rajaratman B. et al : «Debunking the climate hiatus«, Climatic Change, 2015.
    7 - Mann T. : «Le fantasme de la pause climatique», Revue Pour la Science, 2015.
    8 - Wendel J. : «Global Warming « hiatus » Never Happened Study says», Eos, 2015.
    9 - Meehl G A : «Model-based evidence of deep-ocean heat uptake during surface-temperature hiatus period», Nature Climate Change, 2011.
    10 - Durack P. J. et al : «Quantifying underestimates of long term upper-ocean warming», Nature Climate Change, 2014.
    11 - Roemmich D. : «Unabated planetary warming and its ocean structure since 2006», Nature climate change, 2015.

    2. Quel est le rôle des forçages naturels, tel que le soleil, pour expliquer le réchauffement et le hiatus?

    La question du rôle du Soleil dans le changement climatique actuel a été posée depuis le début de la prise de conscience de l’instabilité climatique, il y a plus de 40 ans. Une frange importante de scientifiques des sciences de l’environnement n’était pas convaincue de la responsabilité de l’homme dans le changement climatique. Ils partaient du principe que le Soleil a joué un rôle dans les variations climatiques à l’échelle des siècles, tels que l’optimum médiéval chaud (900 – 1 400 AD) du moyen-âge et le petit âge glaciaire qui a suivi (1 500 – 1 800 AD), et ils mettaient en avant des causes externes naturelles susceptibles de l’expliquer, comme surtout, le Soleil, et aussi l’activité volcanique, et les aérosols. En France les plus ardents propagandistes du rôle du Soleil dans le réchauffement climatique sont Vincent Courtillot et Jean Louis Le Moël. D’autres auteurs admettent l’influence du Soleil mais l’estiment mineure. Le débat est toujours en cours.
    Après un article initial (1 - Bard et Frank 2006) alertant la communauté scientifique sur le rôle possible du Soleil sur la variabilité du climat, on peut distinguer deux catégories d’articles :

    1. Les tenants d’une influence déterminante du Soleil sur la variabilité du climat ;
    2. Les tenants d’une faible influence du Soleil sur le réchauffement climatique.

    Parmi les tenants d’une influence déterminante du Soleil dans la variabilité du climat, une frange importante de scientifiques opérant dans les sciences de l’environnement n’est pas convaincue de la responsabilité de l’homme dans le changement climatique. Ils mettent en avant des causes externes naturelles susceptibles d’expliquer cette variabilité. Il est vrai que l’activité volcanique, les aérosols et surtout le Soleil ont une influence sur cette variabilité climatique. Ces partisans du tout Soleil sur la variabilité du climat (2 - Courtillot et al 2007), ( 3 - J-L Le Moël et al 2009), ( 4 - Scafetta et B. West 2008), ( 5 - A. Shapiro et al 2011) expliquent le hiatus actuel par le déclin de l'activité solaire, qui est à son plus bas niveau. En particulier V. Courtillot et ses coauteurs, dont Jean-Louis Le Moël, invoquent des corrélations entre des paramètres climatiques et les variations du magnétisme terrestre. Ils distinguent plusieurs échelles temporelles de variations, depuis l'échelle historique (10 - 100 ans), jusqu'à des échelles archéologiques (100 - 5000 ans) et (10 000 – 1 million d’années). Ils constatent aussi que les variations d'amplitude du géomagnétisme à l'échelle décennale sont fortement corrélées avec les évolutions du rayonnement solaire global et la température moyenne de la terre. Ils en concluent que le rayonnement solaire a été le forçage principal du climat jusqu'au milieu de la décennie 1980 où un réchauffement climatique très marqué supplémentaire s’est manifesté, le réchauffement anthropique actuel.

    Parmi les auteurs, qui reconnaissent une influence du Soleil, mais la jugent très minoritaire on peut citer : ( 6 - Foucal et al 2006), ( 7 - Duffy et al 2006), ( 8 - A. Shurer et al 2013), ( 9 - Stauning 2011), (10 Stauning 2015)
    Pour Foukal et al les variations de la luminosité globale sont trop faibles pour avoir accéléré le réchauffement global tel qui est observé aujourd’hui. Cependant une analyse approfondie de ces données d’observations spatiales détaillées a permis de faire avancer considérablement les connaissances fondamentales sur les changements de la luminosité solaire. Ces résultats nouveaux indiquent qu’il est peu vraisemblable que les changements de luminosité aient eu une influence déterminante sur le réchauffement global constaté depuis le 19ème siècle. Cependant Foukal reconnaît que des inconnues subsistent concernant le rôle de la partie ultraviolette du spectre et l’influence de la magnétosphère.
    Pour Schurer et al, le climat du dernier millénaire a été marqué, dans l’hémisphère nord, par des variations d’échelles décennales et centennales telles que le maximum thermique médiéval autour de l'an mil et le petit âge glaciaire à la fin du Moyen Âge. Un modèle permet de comparer l'empreinte climatique des périodes de hauts et de bas forçage solaire avec l’amplitude du changement thermique. Les auteurs trouvent que les changements de température de l'hémisphère Nord au cours du dernier millénaire n'ont pas été fortement influencés par les variations du flux radiatif solaire. Au contraire, depuis 1900, ce sont les éruptions volcaniques qui semblent avoir été le paramètre le plus important susceptible d'influencer le climat, et ceci dans le sens d’un refroidissement.
    Quant à Stauning, il a confirmé qu'il existe bien une corrélation entre le nombre de taches solaires et la température moyenne du globe. Cette corrélation est maximale avec un décalage de trois années dans la série des températures. Stauning démontre que la réduction de l'accroissement des températures observée depuis 1980 correspond au déclin de l'activité solaire actuelle. Sans cette réduction de l’activité solaire, la température moyenne du globe se serait élevée continûment au même taux que dans les années 1980. L'activité solaire est maintenant (en 2015) à son plus bas niveau depuis près d’un siècle et elle ne peut probablement pas baisser encore plus ; aussi, nous dit Stauning, la température moyenne de la terre va probablement rattraper son niveau d'accroissement d'avant 1980, effaçant ainsi le hiatus ; ce qui s’est produit à partir de 2015.

    1 - Bard E. et M. Frank : «Climate change and solar variability : What’s new under the Sun ?», Earth and Planetary Sciences Letters, 2006.
    2 - Courtillot V. et al : «Are there connections between the earth    ’s magnetic field and climate», Earth and Planetary Science Letter, 2007
    3 - Scafetta V. et B. West : «Is climate sensitive to solar variability»,
    4 - Le Moël et al : «Evidence for solar forcing in variability of temperature and pressure in Europe», Journal of Atmospheric and Solar-terrestrial Physics, 2009.
    5 - Shapiro A.I. et al : «A new approach to the long-term reconstruction of the solar irradiance leads to large historical forcing», Astronomy and Astrophysics, 2011.
    6 - Foukal P. et al, «Variation in solar luminosity and their effect on the Earth’s climate», Nature, 2006.
    7 - Duffy P. B. et al : «Solar variability does not explain late-20th-century warming», Physics Today, 2009.
    8 - Schurer A et al : «Small influence of solar variability on climate over the past millennium», Nature Geoscience, 2013.
    9 - Stauning P. : «Solar activity-climate relations : A different approach», Journal of atmospheric and solar-terrestrial physics, 2011.
    10 - Stauning P. : «Reduced solar activity disguises Global Temperature Rise», Atmospheric and Climat Sciences, 2013.

    3. Quel est le rôle de la redistribution horizontale de la chaleur par l’océan?

    Plusieurs dizaines d’articles se penchent sur les relations entre le réchauffement de la surface terrestre avec son hiatus et les oscillations thermiques, de périodes décennales, qui affectent principalement l’océan Pacifique. C’est ( 1 - Meehl et al 2013) qui ouvrent le débat avec un modèle qui leur permet de distinguer dans la variabilité du climat des causes externes et des causes internes au système climatique. Meelh indique que les périodes de baisse du réchauffement (hiatus) correspondent à la phase froide de la PDO « Pacific Decadal Oscillation ». ( 2 - Watanabe et al 2014) poursuivent dans ce sens en montrant que le hiatus est en relation avec la PDO et avec le refroidissement du Pacifique équatorial oriental lui-même généré par un renforcement des alizés. Cette relation entre le hiatus et le refroidissement du Pacifique équatorial en relation avec la PDO, les alizés et la circulation atmosphérique de Walker est étudiée par plusieurs auteurs : ( 3 - England et al 2014), ( 4 - Kosaka et Xie 2013 et 2015), ( 5 - Tokinaga et al 2012). Ils donnent une priorité au Pacifique et à l’intensification de la cellule de Walker pour expliquer le hiatus, ( 6 - Capotondi 2015) allant jusqu’à prévoir des décennies froides (La Niña) plus fréquentes et plus intenses ( 7 - Clement et Dinezio 2014). ( 8 - Kosaka et Xie 2013 ) avaient déjà noté en 2012 que le hiatus était consécutif à l’énorme El Niño de 1997 – 1998 suivi par une décennie beaucoup plus fraîche ( La Niña). Au contraire ( 9 - Tokinaga et al 2012) avaient montré qu’a l’échelle du siècle, depuis 1950, une tendance à l’affaiblissement de la circulation de Walker était nette. D’autres encore mettent en évidence les relations entre le hiatus avec l’océan Pacifique mais aussi l’océan Atlantique ( 10 - Mac Gregor et al 2014), ( 11 - Steinman et al 2015), ( 12 - Gleisner et al) et l’océan Indien (13 - Lee et al 2015), ( 14 - Vialard 2015), ( 15 - Nives et al 2015)

    1 - Meehl A. et al : «Externaly forced and internally generated decadal climate variability associated with the Interdecadal Pocific Oscillation», Journal of climate, 2013.
    2 - Watanabe M. et al : «Contribution of natural decadal variability to global warming acceleration and hiatus», Nature Climate Change, 2014
    3 - England M. H. et al : «Recent intensification of wind-driven circulation in the Pacific and the ongoing warming hiatus», Nature Climate Change, 2014.
    4 - Kosaka Y. and S. Xie : «Recent global- warming hiatus tied to equatorial Pacific surface cooling», Nature, 2013.
    5 - Douville H. et al : «The recent global warming hiatus : What is the role of Pacific variability ?», GRL, 20155 –
    6 - Capotondi A. : «Extreme La Nina events to increase», Nature Climate Change, 2015.
    7 - Clement A. and P. Dinezio : «The tropical Pacific Ocean back in the driver seat», Science, 2014.
    8 - Kosaka Y. and S. Xie : «Tropical Pacific influence on the recent hiatus in surface global warming», US CLIVAR Variations, 2015.
    9 - Tokinaga H. et al : «Slowdown of the Walker circulation driven by tropical Indo-Pacific warming , Nature, 2012.
    10 - Mc Gregor S. et al : «Recent Walker circulation strengthening and Pacific cooling amplified by Atlantic warming», Nature Climate Change, 2014.
    11 - Steinman B. et al : «Atlantic and Pacific multidecadal oscillation and northern hemisphere temperature», Science, 2015.
    12 - Gleisner H. et al : «Recent global warming hiatus dominated by low-latitude temperature trends in surface and troposphere data», GRL, 2014.
    13 - Lee S. K. et al : «Pacific origin of the abrupt increase in Indian Ocean heat content during the warming hiatus», Nature Geoscience, 2015.
    14 - Vialard J. : «Hiatus heat in the Indian Ocean», Nature Geoscience, 2015.
    15 - Nieves V., J. Willis and W. Patzert : «Recent hiatus caused by decadal shift in Indo-Pacific heating», Sciencexpress, 2015.

    4. Que sait-t-on du rôle de l’océan profond et du bilan énergétique de la Terre?

    Il y a seulement 30 ans les observations de l’océan profond (au-delà de 1 000 mètres de profondeur) étaient rares. Depuis cette époque le programme international WOCE (World Ocean Circulation Experiment) a partiellement comblé cette lacune. Mais le progrès le plus décisif a été obtenu avec le réseau ARGO qui maintenant permet d’obtenir une bonne couverture de l’océan mondial jusqu’à une profondeur de 2000 m.
    On a déjà noté chapitre 3 ( 9 - Meelh et al 2011) que c’est probablement Meelh qui le premier montra, avec des données et à l’aide d’un modèle, que sous le forçage d’un flux de un Watt par mètre carré au sommet de l’atmosphère, la couche océanique des 300 premiers mètres absorbait moins de chaleur que la couche plus profonde durant les périodes de ralentissement ou d’inversion du réchauffement (hiatus). Le déficit thermique de la surface serait donc dû à une plongée rapide de la chaleur dans les couches plus profondes lors des épisodes de hiatus. Plusieurs auteurs s’engagèrent dans cette direction de recherche et tentèrent d’évaluer à quelles profondeurs et où la chaleur qui manquait en surface s’était stockée plus profondément durant un hiatus ( 1 - Chen et Tung 2014), ( 2 - Balmaseda et al 2013). Une synthèse de cette question fut donnée par ( 3 - Purkey et al 2015).
    Mais certains auteurs ne détectent pas cette plongée rapide de la chaleur au détriment de la couche superficielle durant un hiatus ( 4 - Liovel et al 2014), ( 5 - Cole et Buis 2014), ( 6 - Foster et Abraham 2015). Ils mettent en évidence la difficulté de mesurer avec précision le contenu thermique des couches profondes de l’océan, qui nécessiterait des observations de température approchant le millième de degré C.
    C’est ce qui amène certains, et parmi eux principalement encore Kevin Trenberth, à s’interroger sur l’irritante question de la chaleur manquante dans le bilan énergétique de la Terre. La question fut posée dès que le hiatus fut mis en évidence ( 7 - Trenberth et Fasullo 2011), mais elle prit toute son importance lorsque l’actualité projeta le hiatus à la une des media (8 - Hansen et al 2011), ( 9 - Schmidt et al 2014), ( 10 - Tollefson 2014), ( 11 - Johnson et Lyman 2014), et encore ( 12 - Trenberth et al 2014).

    1 . Chen X. and Tung K.K. : «Varying planetary heat sink led to global warming slowdown and acceleration», Science, 2014)
    2 . Balmaseda MA. KE. Trenberth, E. Källen : «Distinctive climate signals in reanalysis of global ocean heat content», AGU, 2013
    3 . Purkey S. et al : «Warming the abyss : The deep ocean’s contribution to global warming», US Clivar Variations, 2015.
    4 . Liovel W. et al : «Deep-ocean contribution to sea level and energy budget not detectable over the past decade», Nature Climate Change, 2014.
    5 . Cole S. and A. Buis : «NASA study finds Earth’s ocean Abyss has not warmed», NASA News, 2014.
    6 . Foster G. and J. Abraham : «Lack of evidence for a slowdown in global temperature», US CLIVAR Variations, 2015.
    7 . Trenberth KE. And JT Fasullo «Tracking Earth’s energy : from El Nino to global warming», Surv Geophys, 2011.
    8 . Hansen J. et al : «Earth’s energy imbalance and implications», Atmospheric Chemistry and Physics, 2011.
    9 . Schmidt GA. et al : «Reconcilling warming trends», Nature Geoscience, 2014.
    10 . Tollefson J. : «The case of the missing heat», Nature, 2014.
    11 . Johnson GC. And JM. Lyman : «Where’s the heat ?», Nature Climate Change, 2014.
    12 . Trenberth K. et al : «Earth energy imbalance», Journal of Climate, 2014.

    5. Le hiatus prend une dimension politique inattendue

    Le président du comité scientifique du Congrès américain «Committee on Science, Space and Technology – US House of Reptesentatives» s’est ému de la publication d’un article, déjà mentionné chapitre 1 (4 - Karl et al, 2015), mettant en évidence une sous-estimation dans le dernier rapport du GIEC du réchauffement à travers une ré-analyse de l’ensemble des données de température de la surface de la Terre. Karl, chercheur à la NOAA, a produit un nouveau jeu de données corrigé, et conclut de cette analyse que ces résultats ne soutiennent pas la notion de “slowdown” de la croissance de la température. En d’autres termes, pour Karl (?), et en réponse aux interrogations posées par une partie de la communauté scientifique, le hiatus n’existe pas.
    Cette affirmation a soulevé une tempête parmi les scientifiques proches des lobby soutenant l’exploitation des énergies fossiles carbonatées. D’où une demande de clarification de la part du président de ce comité scientifique du congrès auprès de la présidente de la NOAA, exigeant la délivrance des données brutes (ce qui n’est pas coutumier dans le milieu scientifique), avant leur retraitement par Karl soupçonné de manipulation illicites de données. L’affaire a fait grand bruit aux USA au sein du congrès et dans les media. En janvier 2016 elle n’est toujours pas éteinte.

    6 . Conclusions

    Les conclusions actuelles (décembre 2015) sur le hiatus peuvent être reprises de celles des deux scientifiques les plus en pointe sur la question, Kevin Trenberth et Gerald Meehl et résumées ainsi :

    Trenberth fait le point des connaissances à la mi-2015 sur la question du hiatus. Il critique d’abord l’étude de Karl et al (chapitres 1 et 5) pour qui il n’y a pas de ralentissement perceptible de l’élévation de la température pour la période 2000-2014 si l’on prend en compte des jeux de données légèrement ajustés et corrigés de biais évidents appliqués à l’ensemble de la période 1950 – 1999.

    Trenberth lui objecte que sa période de référence 1950 – 1999 inclut une partie d’un hiatus plus ancien, bien marqué celui-là, appelé par certains «The big hiatus» ayant affecté l’ensemble de la Terre au cours des années 1940 à 1970. Trenberth note aussi malicieusement que l’existence du hiatus des années 2000 dépend de la façon dont l’enregistrement des températures est partitionné en incluant ou non dans la série temporelle analysée l’année 1998 exceptionnellement chaude à la suite de l’El Niño de 1997-98 !
    Pour Trenberth, la variabilité interannuelle de la température de surface de la Terre est en partie pilotée par El Niño et l’oscillation australe du Pacifique équatorial. L’année 1998 est la plus chaude observée depuis que des enregistrements météorologiques physiques existent (Cependant 2015 a été plus chaud que 1998), correspond à l’El Niño du siècle de 1997-98. Durant cet El Niño exceptionnel, les eaux chaudes couvrirent presque entièrement la surface du Pacifique tropical et nourrirent l’atmosphère en énergie sous forme de chaleur latente liée à l’intense évaporation. Cette chaleur latente d’évaporation, prise à l’océan, contribua à le refroidir durablement pendant plus de dix années, de 2000 à 2014, donnant au Pacifique équatorial l’apparence d’un phénomène La Niña presque permanent avec des alizés intensifiés.

    Trenberth met ainsi en évidence une variabilité quasi décennale dans le Pacifique qui peut être rattachée à la PDO «Pacific Decadal Oscillation» elle-même intégrable dans l’IPO «lnterdecadal Pacific Oscillation». Ce refroidissement prolongé du Pacifique équatorial peut expliquer le refroidissement du hiatus. Pour Trenberth la PDO est l’élément essentiel qui pilote les deux hiatus connus du XXème siècle. On a vécu depuis 2000 le pôle négatif (froid dans le Pacifique équatorial) de la PDO. On entre maintenant, en 2015, avec le gigantesque El Niño qui se développe actuellement sur l’ensemble du Pacifique équatorial, dans un pôle chaud de la PDO, ce qui devrait définitivement éteindre dans l’immédiat toutes manifestations d’un improbable hiatus.

    Trenberth règle aussi leur compte aux partisans des forçages externes et du tout Soleil qui, selon eux, serait susceptible d’expliquer le hiatus. Certes il admet qu’il existe des forçages externes qui peuvent contribuer à réduire le réchauffement anthropique comme les éruptions volcaniques, les aérosols et la variation naturelle du flux radiatif solaire. Mais, pour lui, leur contribution totale est minoritaire (moins de 20 %) et ces forçages peuvent jouer dans les deux sens. Ainsi, les aérosols émis dans l’atmosphère par l’activité industrielle très polluante des années 1945 – 1970 ont pu atténuer le flux radiatif solaire incident et freiner ainsi le réchauffement expliquant le hiatus 1945-1970. Mais, après les réglementations internationales prises à partir de 1970 dans les pays développés pour réduire leurs émissions d’aérosols, leur rôle joua dans l’autre sens.

    Meehl présente une synthèse des connaissances (en 2015) sur la variabilité de la température moyenne de surface de la Terre et le hiatus qui complémentent les perspectives et les hypothèses de Trenberth exposées précédemment. Incontestablement les variations à long terme (plus de 50 ans) de cette température moyenne du globe sont dominées par le réchauffement induit par les émissions de gaz à effet de serre de l’humanité. Cependant superposé à cette tendance à long terme on observe une variabilité décennale illustrée par le hiatus. Toutes les questions et les polémiques qui ont été soulevées pour l’expliquer ont contribué à étudier et mieux comprendre cette échelle de variabilité décennale. Meehl a pu mettre en évidence une relation entre le hiatus et la phase négative de la PDO «Pacific Decadal Oscillation». Lorsque celle-ci affecte le Pacifique équatorial par des températures un peu inférieures à la moyenne, le taux d’accroissement de la température moyenne de la surface de la Terre est moins élevé qu’en moyenne (0,11 degré C durant un hiatus pour 0,18 degré C en moyenne générale depuis 1900). Généralisant ce concept, Meehl l’applique à l’ensemble de la série temporelle disponible et fiable, c'est-à-dire corrigée de ses biais dus aux évolutions des instruments de mesure (principalement le réseau ARGO) et montre qu’il y a eu dans le passé de nombreuses périodes où le taux d’élévation de la température a ralenti étant marqué par une phase négative de la PDO.
    Meehl note également que beaucoup d’efforts ont été déployés pour trouver des explications à ces processus non seulement pour identifier une composante décennale dans la variabilité du climat mais aussi et surtout pour en comprendre le mécanisme profond. Certains auteurs, nous dit Meehl, ne sont pas allé très loin au-delà d’une formulation très générale impliquant la variabilité intrinsèque du système climatique pour expliquer les hiatus. Mais Meehl lui-même a franchi un pas important en mettant en évidence, à l’aide d’un modèle pour la première fois, que les décennies hiatus correspondaient à un accroissement du contenu thermique des couches océaniques au- dessous de 300 mètres de profondeur, alors qu’au-dessus le contenu thermique diminuait, ce qui indiquerait que durant les périodes à hiatus il existerait un enfouissement de la chaleur dans les profondeurs océaniques.
    Un autre fait d’observation important est relatif à la répartition par océan de cet enfouissement de la chaleur en profondeur. Les alizés du Pacifique sont très intenses durant les pôles négatifs de la PDO comme ce fut le cas au cours du hiatus 1998 – 2012, mais la quantité de chaleur qui est absorbée au-delà de 300 mètres de profondeur dans le Pacifique est seulement la moitié du total. L’autre moitié serait absorbée par l’AMOC de l’océan Atlantique (Atlantic Meridional Overturning Circulation), ainsi que par l’océan Indien sud et l’océan austral. Meehl reconnaît que beaucoup d’inconnues demeurent notamment en ce qui concerne la redistribution de la chaleur dans l’océan profond et sa répartition par océan.

    1 - Trenberth K. : «Has there been a hiatus ?», Sciences, 2015.
    2 - Meehl G. : «Decadal climate variability and the early-2000s hiatus», US CLIVAR Variations, 2015

  • Les chercheurs observent....

    Michel Petit 

    La variation du niveau des mers est sans doute maintenant le meilleur indicateur que l’on puisse avoir des variations climatiques. Elle intègre en effet deux composantes.

    • Le changement en volume lié à la dilatation thermique de l'océan (effet stérique) provoquée par l'accroissement de la température associée au réchauffement climatique. L’océan a absorbé 90% du surplus de chaleur induit par l’accroissement des gaz à effet de serre, ce qui se traduit par une dilatation importante.

    • Les changements en masse des océans résultant d’échanges d’eau avec les autres réservoirs : atmosphère, réservoirs d’eaux continentales, glaciers de montagne, calottes polaires hors banquise (principalement, le Groenland et l’Antarctique).

    Le graphique ci-dessous (d'après A. Cazenave) montre comment le niveau de la mer a évolué au cours des 140 000 dernières années. Après un minimum correspondant à la période de glaciation maximum, il y a 18 000 ans environ, où il était à 120 mètres au-dessous de l’actuel il a plafonné au cours des 6 000 dernières années (partie gauche de la Figure 5).

    ....mais son taux d'augmentation s'est brutalement élevé à 1,8 mm/an au cours du XXème siècle (partie droite de la figure 6 ci-dessus, et figure 6a, ci-après)

    Figure 6a : Moyennes annuelles du niveau moyen global de la mer.
    Partie rouge de la courbe : champs de niveau reconstitués (1870 à 1950) - Partie bleue : exploitation des mesures de réseaux de marégraphes (1950 à 1992) - Partie noire : mesures altimétriques par satellite (depuis 1992) - (le niveau de la mer est exprimé en mm par rapport à la moyenne de 1961 à 1990).

    Depuis 1992 l’élévation du niveau de la mer s’est faite au rythme de 3.2mm/an. (Voir figure 6 b ci-dessous).

    Figure 6b
    Niveau moyen des océans calculé de façon continue depuis 1993, grâce aux missions altimètriques des satellites Topex-Poséïdon, Jason-1 et Jason-2.

    Il s'agit du niveau moyen, et comme pour tout paramètre géophysique que les chercheurs décrivent par une valeur moyenne, la répartition géographique des variations est loin d'être uniforme. Ainsi entre 1992 et 2011 l’élévation a-t-elle été de 15mm/an dans le Pacifique intertropical ouest alors que le niveau baissait de 10mm/an dans le Pacifique est. Il s’agit là de la signature des variations pluriannuelles du système couplé océan-atmosphère qui induit des variations du contenu thermique des couches superficielles de l’océan (figure 6c ci-dessous) (voir FAQ sur l'élévation du niveau de la mer).

    Figure 6c

    Avant l'existence de satellites altimétriques, le niveau de la mer était mesuré par des marégraphes développés à l’origine pour surveiller les marées, au service de la navigation. Ces instruments disséminés dans les ports n'offraient qu'une couverture partielle de la planète. Cependant, l’analyse de ces enregistrements a permis de reconstituer l'évolution du niveau de la mer avec une marge d'erreur certes, mais qui s'est améliorée au cours du temps.

    A partir de 1992, date de mise en service, du satellite altimétrique Topex-Poséïdon, suivi de Jason-1, fin 2001 et Jason-2 en 2008, les mesures de hauteur du niveau des mers sont connues en permanence, avec une précision remarquable et une couverture globale des océans.

     Depuis mars 2002, a été mis en orbite un système satellitaire de mesures gravimétriques constitué de deux satellites qui se suivent sur la même orbite : GRACE, dont l'objectif est de cartographier les variations temporelles du champ de pesanteur terrestre. (voir FAQ sur le champ de gravité).

    L'exploitation de ces mesures a permis d’évaluer les variations des masses des calottes polaires (figure 6d ci-dessous), des masses d’eaux continentales et aussi de la masse océanique.

    Figure 6d

    On peut ainsi faire la part des contributions respectives de chaque phénomène responsable de l'élévation du niveau des mers pour la période 1993-2011 qui se repartit comme suit :

    • Expansion thermique : 1.1 mm/an

    • Glaciers de montagne : 1mm/an

    • Calottes polaires : 0.9mm/an

    Soit un total de 3 mm/an en très bonne adéquation avec la mesure directe de l’élévation du niveau de la mer par altimétrie de 3,2 mm/an compte tenu de l’incertitude de la mesure (0,5-0,6 mm/an).

    Figure 6e

     La contribution des eaux continentales est négligeable à cette échelle de temps. Elle est toujours faible mais soumise à une très importante variabilité interannuelle qui explique pour une large part les oscillations que l’on observe sur la courbe de l’élévation du niveau de la mer (figure 6b) en relation notamment avec les phénomènes Niño/Niña.

    Pour en savoir plus :

    FAQ :

    Quelles sont les variations actuelles du niveau de la mer?

    Pourquoi la connaissance précise du champ de gravité terrestre est-elle si importante pour le climat?

    Dernière mise à jour, avril 2016

  • Les océans absorbent une partie du gaz carbonique émis par les activités humaines.

  • Propos de sa fille Gaëlle, recueillis par Yves Dandonneau.
    Au Club des Argonautes, Michel Gauthier était surtout connu pour ses recherches sur l'énergie thermique des mers.

  • Jacques Merle

    I - Le rôle de l'océan dans le climat

    Le système climatique est une machine qui convertit et distribue l’énergie solaire que la Terre absorbe soit 240 W/m2 environ.

  • Un paradoxe élucidé ?
  • François Barlier avec le concours des membres du Club des Argonautes

    Introduction

    La manière dont tourne la Terre dépend de la façon dont elle est faite. Observer la rotation de la Terre permet en retour d’avoir des informations fondamentales sur la constitution de la Terre et sur son évolution liée à la redistribution spatiale et permanente des masses et de leur quantité de mouvement. En effet la Terre n’est pas un corps solide ; c’est un corps élastico-visqueux fait de couches concentriques de différentes compositions :

    • une graine solide,
    • un noyau liquide,
    • un manteau visqueux,
    • une couche solide, la lithosphère
    • et la croûte terrestre,

    le tout entouré d’une couche liquide, les océans, et d’une couche gazeuse, son atmosphère. De nombreuses interactions et échanges, très complexes et variables au cours du temps, existent entre les différentes couches.
    On observe notamment une redistribution des masses et des échanges de quantité de mouvement en relation notamment avec des phénomènes météorologiques, climatologiques, océanique, hydrologique.

    Comment cela impacte la rotation de la Terre est une question qui est abordée ci-dessous.

    Les paramètres de la rotation de la Terre

    La rotation terrestre est caractérisée par un axe instantané de rotation qui se déplace sur la croûte terrestre (c’est le mouvement du pôle) et dans l’Espace (c’est le mouvement de précession-nutation).

    L’Espace est défini par le système de références célestes, lICRF ou International Celestial Reference Frame adopté par les instances internationales, astronomiques, géodésiques, géophysiques.

    La rotation est aussi caractérisée par la vitesse de rotation de la Terre autour de cet axe, vitesse qui est variable mais qui définit la longueur du jour (la LOD ou - Length Of Day-). Comme on le sait en accord avec la mécanique d’un solide en rotation, ces cinq paramètres ne sont pas strictement indépendants, mais les nouvelles techniques d’observation, notamment spatiales, permettent de les déterminer séparément de manière très avantageuse et avec une très grande précision (environ : 0,007 milliseconde de temps - noté ms - et 0,1 milliseconde de degré d’arc ou milli-arcseconde - noté mas -).

    La vitesse de rotation de la Terre autour de son axe principal

    La vitesse de rotation de la Terre n’a jamais été constante au cours des temps géologiques ; elle a décru continuellement en moyenne mais avec cependant des fluctuations importantes tantôt un peu plus rapide que sa valeur moyenne, tantôt au contraire un peu plus lente. Il en résulte que la durée du jour n’a jamais non plus été constante. Quand la Terre tournait sensiblement plus vite, il y a quelques centaines de millions d’année, la durée du jour était ainsi beaucoup plus courte, elle était d’environ 22 heures il y a 350 millions d’années ; ce faisant le nombre de jours dans l’année correspondant au temps nécessaire au mouvement de la Terre autour du Soleil était plus grand, aux environs de 400 jours. On peut noter que ceci est compatible avec une décroissance moyenne de 2 ms par siècle de la durée du jour sur ces temps géologiques, comme on a pu l'estimer en comptant les stries quotidiennes dans les anneaux de croissance annuels des coraux fossiles sur ces temps géologiques.

    La vitesse de rotation de la Terre dépend de plusieurs facteurs tels que :

    • le caractère élastico-visqueux de la Terre et l'attraction gravitationelle de la Lune qui la ralentissent (phénomène de marée),
    • le rebond post glaciaire qui l'accélère,
    • le mouvement des milieux fluides que sont l'atmosphère, l'océan, les glaciers et les cours d'eaux,
    • les effets saisonnier ou interannuel comme le phénomène El Niño.

    Ces éléments inter-agissent entre eux et peuvent même se neutraliser à certaines périodes.

    L'origine de la décroissance séculaire de la vitesse de rotation de la Terre est désormais assez bien comprise. La Terre étant un corps élastico-visqueux, l'attraction gravitationnelle de la Lune crée un bourrelet autour de la Terre dont l’axe n’est pas strictement aligné avec la direction de la Lune, ce qui serait le cas si la Terre était un corps parfaitement élastique. Il y a un petit angle de déphasage entre les deux axes qui génère un couple de freinage réduisant progressivement la vitesse de rotation de la Terre, et ce faisant, en accord avec les lois de la mécanique céleste, freine aussi progressivement la vitesse du mouvement de la Lune autour de la Terre, Lune qui s’éloigne ainsi de la Terre au rythme actuel de 3,8 cm/an. Dans le langage de cette mécanique, on dit alors qu’il y a transfert du moment cinétique de rotation de la Terre au moment cinétique du mouvement de la Lune autour de la Terre, car on peut considérer que le moment cinétique total de l'ensemble est conservé. Ceci s’accompagne aussi automatiquement au sens de cette mécanique d’une diminution de l’énergie cinétique de rotation de la Terre sur elle-même. Pendant longtemps les astronomes et les géophysiciens se sont demandés où pouvait se trouver dissipée cette énergie car une première explication, correcte mais insuffisante, donnait la dissipation des marées lunaires dans les mers peu profondes mais cela ne pouvait expliquer qu’une partie de cette dissipation d’énergie. Les mesures du niveau des mers par altimétrie spatiale (mission spatiale franco-américaine TOPEX/Poséidon lancée en 1992) ont apporté la solution : les marées lunaires (en fait les marées luni-solaires) se dissipent également dans des mers profondes contre les dorsales océaniques en engendrant des ondes internes. Ces ondes ont une signature altimétrique très faible en surface de l’ordre du centimètre ; on croyait au départ qu'il n’était pas possible de la mesurer mais cela a été fait.

    L’interprétation des données d’observation de la LOD montre qu’un autre phénomène doit aussi être pris en compte pour comprendre correctement les variations à très long terme de cette LOD ; il s’agit du rebond post glaciaire lié à la déglaciation de la Terre qui a eu lieu principalement dans les régions septentrionales de latitude élevée ; cette déglaciation a commencé il y a environ 20 000 ans, mais elle se traduit encore aujourd'hui par une lente remontée continue de l'altitude de certains pays nordiques au-dessus du niveau de la mer (en prenant en compte l'augmentation du niveau moyens des mers) ; elle est notamment bien mise en évidence dans les pays scandinaves. Au niveau de la Terre considérée globalement, ceci se traduit par une redistribution des masses autour de l’axe principal d'inertie de la Terre avec une lente diminution séculaire de l’aplatissement de la Terre qui devient progressivement moins aplatie au pôle ; globalement il y a un transfert de masses des régions de basses et moyennes latitudes en direction des régions polaires ; il génère ainsi une diminution du moment principal d’inertie et donc d’après les lois de la mécanique, il génère une augmentation de la vitesse de rotation de la Terre. Ce phénomène est en opposition avec le premier phénomène lié au freinage de la rotation par les marées qui génère au contraire une diminution de cette vitesse de rotation. On peut penser pour comprendre ce genre de phénomènes au patineur qui rapproche plus ou moins ses bras de son corps pour tourner plus ou moins vite. La diminution de l’aplatissement est équivalente à ce phénomène. D’une valeur théorique de l’augmentation séculaire de la LOD de 2,3 ms/siècle due au phénomène de dissipation de la marée lunaire, on peut en déduire une nouvelle valeur corrigée de la LOD soit environ 1,8 ms/siècle. Cette valeur est de fait plus proche de ce qui peut être observé aujourd'hui ; ainsi à partir d’une série de l’IERS (International Earth Rotation Service à l’Observatoire de Paris/ département du Syrte) de 1830 à 2015- la série dénommée "C 02" de l’IERS – on estime l’augmentation de la composante séculaire de la LOD à environ 1,5 ms/siècle pour cette période et cette série. Cependant, on observe en même temps de grandes fluctuations de plusieurs millisecondes de la LOD à caractère multidécennal ce qui gêne l'estimation exacte de la composante séculaire (figure 1 ci-dessous).

    Figure 1 – Variation de 1830 à 2000 de la durée du jour (LOD) (d’après l’IERS-Syrte- Observatoire de Paris, série C 02). On observe bien une tendance à la croissance de la LOD qui croit sur cette figure selon un rythme proche de 1,5 ms/siècle.

    Un point complémentaire doit être donné maintenant. La variation séculaire de l’aplatissement terrestre déterminée aujourd'hui par télémétrie laser avec grande précision est une autre façon d'estimer la composante séculaire de la LOD ; elle confirme ses résultats ; comme on l'a dit, il y a en effet une relation physique entre la LOD et la variation de l’aplatissement de la Terre. Cette variation temporelle peut être déterminée avec grande précision par des mesures de télémétrie Laser sur les satellites comme Lageos, Starlette ; la comparaison de la LOD avec cette dernière permet alors de confronter et de conforter les résultats obtenus sur des principes très différents et d'assurer une bonne fiabilité des résultats.

    À partir de différentes analyses de la LOD, on peut observer en plus de ce qui a été dit des écarts entre observation et modélisation qui traduisent des variations, soit à caractère irrégulier de la LOD, soit à caractère multidécennal (plusieurs dizaines d’années) ; l’amplitude relative de ces variations peut atteindre plusieurs millisecondes et parfois beaucoup plus et peut être attribuée pour partie après analyses et discussions à des couplages noyau-manteau ; il y a des échanges de moments cinétiques entre le manteau et le noyau liquide, soit par un couplage de nature électromagnétique ou par un lien avec la topographie de la frontière noyau-manteau ; on ne sait malheureusement pas encore très bien les modéliser et bien les comprendre et l’impact exact reste un problème ouvert. À noter que dans ces analyses, il est nécessaire de prendre en préalable en compte tout ce qui peut être bien connu par ailleurs. Ainsi on sait modéliser les variations induites par les composantes zonales des marées luni-solaires qui doivent donc être prises en compte a priori, et cela pour pouvoir ensuite estimer le plus correctement possible les contributions d’autres sources géophysiques envisageables, celles en particulier d’origine atmosphérique, océanique, hydrologique. Il y a enfin des variations de la vitesse de rotation avec des périodes sensiblement plus courtes à caractère annuel, semi-annuel, saisonnier (figure 2) et même à caractère diurne et semi-diurne qui sont devenues observables en dépit de leur petitesse (seulement quelques dizaines de microsecondes) grâce à la technique de l’interférométrie à grande base (VLBI ou Very Long Base Interferometry).

    Figure 2 – Corrélation entre la variation observée de la LOD (en rouge) et sa variation théorique, liée aux mouvement des enveloppes fluides que sont l'océan et l'atmosphère. On peut en effet la calculer à partir de données météorologiques et altimétriques (en bleu) (d’après l’IERS- Syrte –Observatoire de Paris).

    De même, les composantes de marée diurnes et semi-diurnes de la LOD se corrèlent de manière remarquable avec les prédictions du moment angulaire de la marée de l’océan mondial issues de modèles fondées sur des données altimétriques du satellite Topex-Poséïdon (figure 3, d’après B.F Chao, EOS vol.84, n°16, 2003).

    Figure 3 - Les composantes de marée diurnes et semi-diurnes (en bleu) se corrèlent de manière remarquable à partir des prédictions (en rouge) du moment angulaire de la marée de l’océan mondial issues de modèles fondées sur des données altimétriques du satellite Topex-Poséïdon (d’après B.F Chao, EOS vol.84, n°16, 2003). Pour le lecteur intéressé, voir sur cette page, les trois graphes donnant respectivement les corrélations de la LOD avec le moment angulaire du noyau modélisé sur le long terme (voir la variation de la LOD sur la Figure 1), les corrélations de la LOD avec le phénomène El Niño (à comparer aussi avec la Figure 4) et à nouveau la corrélation de la LOD avec des composantes de marée diurne et semi-diurne en la situant dans le temps.

    La qualité et la complémentarité des observations disponibles permettent de mettre en évidence de petites variations de la vitesse de rotation liées au rythme des saisons.

    Comme effet saisonnier, on doit noter un ralentissement de cette vitesse de rotation au printemps (nord) et une augmentation en automne (nord). On observe aussi des anomalies de vitesse générées avec le développement du phénomène océanographique bien connu El Niño (figure 4 et aussi figure 3).

    Figure 4 - Corrélation entre la durée du jour et l’indicateur (SO1) de El Niño (SO1 est fonction de la différence de pression entre Tahiti et Darwin(Australie) (d’après A.Cazenave, et Kurt Feigl, formes et mouvements de la Terre, satellites et géodésie, la croisée des sciences, CNRS éditions -Belin- 1994 ).

    Ces variations sont liées en effet à des variations importantes du régime des vents induisant des échanges de moments cinétiques entre Terre solide et enveloppes liquides et gazeuses. Dans le cas du phénomène El Niño, on sait en effet que le régime des vents alizés qui soufflent dans les zones équatoriales et tropicales du Pacifique est profondément modifié voire inversé. On sait aussi que ce phénomène débute par un transfert d'une importante masse d'eau de l'ouest du Pacifique vers l'est. Finalement, si l’on porte sur un même graphique sur une durée de quelques années, 2008-2012 (figure 2), la variation de la LOD observée et celle calculée à partir du moment cinétique d’origine atmosphérique et océanique, on observe une corrélation excellente. En résumé, on sait très bien comprendre les fluctuations de la vitesse de rotation de la Terre sur le court terme. Sur le plus long terme, le problème est plus ouvert avec des questions non encore bien résolues.

    La décroissance séculaire de la vitesse de rotation de la Terre peut même se trouver totalement masquée pendant plusieurs décennies et paraître même ne plus exister, voire accélérer dans le sens opposé. Il n'est plus nécessaire de ce fait de faire des sauts de secondes intercalaires additionnelles pour que le Temps Universel Coordonnée qui sert de temps légal, fondé sur les horloges atomiques, puisse rester toujours assez proche d'un temps universel fondé sur la vitesse de rotation de la Terre (jadis utile pour des raisons de navigation maritime, mais toujours maintenu pour des raisons politiques, avec l'impossibilité d'obtenir à ce jour un accord unanime des pays concernés ) ; ainsi entre 1999 et 2004, il n'y a pas eu de sauts de secondes intercalaires.

    Le mouvement du pôle

    L’axe instantané de rotation de la Terre perce la croûte terrestre en un point qu’on appelle le pôle instantané. Ce pôle dont on détermine les coordonnées cartésiennes dans un plan tangent à la Terre à partir d’un point «origine» conventionnelle se déplace continûment sur la croûte terrestre (dans l’océan Arctique ce point origine est proche (quelques mètres) du pôle d’inertie de la figure de la Terre et proche aussi du pôle nord géographique conventionnel - voir l’encadré hors texte sur les définitions des différents concepts de pôles utilisés ; on peut déjà noter que dans l’océan Arctique ce point « origine" est proche(quelques mètres) du pôle d’inertie de la figure de la Terre) ; ce mouvement se fait en accord avec les lois de la mécanique dans un carré petit, moins de 20 mètres sur 20, ce qui permet de définir un pôle moyen de rotation. Ce pôle moyen toutefois n’est pas fixe lui-même comme on peut le constater sur des observations et des analyses à long terme ; il se déplace lentement au cours du temps (à environ 4 millisecondes de degré d’arc par an, milliseconde de degré d’arc qui vaut environ 3 cm à la surface de la Terre) ; c'est un déplacement approximativement linéaire et de type séculaire, au départ en 1900 en direction du Groenland mais avec des sauts ou des variations brutales non négligeables au cours du temps (figure 5).

    Figure 5 - Le mouvement du pôle et sa dérive (d’après l’IERS-Syrte-Observatoire de Paris). En rouge, le déplacement cyclique, d'une période de 430 jours environ, et en noir, le déplacement moyen.

    On estime aujourd'hui que l’origine de la composante séculaire principale de ce mouvement est liée au lent rebond postglaciaire, et que les accidents apparemment chaotiques du mouvement sont dus surtout à des transferts de masse d'origine hydrologique entre continents et océans ou d'origine atmosphérique. Il faut retenir que tout transfert de masse quelle qu'en soit l'origine provoque un déplacement sur la croûte terrestre du pôle de l'axe principal d'inertie ; il est en effet directement fonction de la distribution des masses de la Terre ; mais il génère alors un déplacement relatif du pôle de cet axe principal d'inertie par rapport au pôle de l'axe instantané de rotation.

    Pour entrer plus dans la compréhension détaillée de l'origine du mouvement du pôle à différentes échelles de temps, on doit considérer maintenant l'analyse des différentes composantes périodiques de ce mouvement. On peut déjà noter que depuis très longtemps les analyses sur la décomposition spectrale des coordonnées du pôle en fonction du temps ont permis de reconnaître (dès la fin du XIX éme siècle), les deux premiers termes périodiques prépondérants ; il y a d'abord un premier terme correspondant à un mouvement du pôle de type circulaire avec une période comprise entre 430 et 433 jours (en prenant en compte l'élasticité de la Terre) et une amplitude temporellement variable entre 30 et 300 millisecondes de degré d’arc ou milli-arcseconde- noté mas- (c’est le terme de Chandler mis en évidence par Chandler) ; ensuite, il y a un second terme avec une période annuelle et une amplitude de l’ordre de 100 mas. Le terme de Chandler d’après les lois de la mécanique correspond à un mouvement «libre» qui se poursuit tout seul et dont l’amortissement peut se faire entre 15 et 75 ans (ce n’est pas encore bien connu avec précision aujourd'hui) ; cela permet d’affirmer l’existence de processus d'excitation générant des variations temporelles de l’amplitude et de la phase du terme de Chandler car par ailleurs l'amplitude de ce terme s'amortit ; il y a notamment les marées générées dans les régions polaires qui dissipent l'énergie associée à ce mouvement du pôle ; concernant l’origine des processus générant inversement des variations du terme de Chandler on a pensé pendant longtemps et avec raison qu’elle était à rechercher dans des phénomènes se produisant dans l’atmosphère et les océans. En revanche, le processus physique exact demeurait non certain et problématique ; on n’arrivait pas à modéliser correctement les variations observées du terme de Chandler. Cependant en 2000, Richard Gross (voir référence à la fin) proposa un processus physique qui apparut en revanche très intéressant et valable : l’origine serait à rechercher dans des variations de pression s’exerçant sur le fond des océans, variations causées par des variations de température et de salinité et par des variations de la circulation des océans générée par les vents. Il y aurait aussi une contribution liée aux variations de la pression atmosphérique sur la surface terrestre mais dont les effets seraient comparativement un peu plus petits dans le rapport deux tiers un tiers. Mais de manière plus récente Christian Bizouard (Bizouard et al., A&A, 526, A106, 2011) a encore repris la question en s’appuyant sur la modélisation de la circulation atmosphérique et océanique d’une part et une nouvelle estimation des composantes du terme chandlérien (amplitude et phase) d’autre part. Le résultat de Christian Bizouard est très convaincant et est encore confirmé dans son dernier ouvrage sur le mouvement du pôle (voir les figure 6 et la référence du livre de C.Bizouard à la fin).
    Il est opportun de citer aussi une étude assez récente sur le phénomène El Niño (Marcus, S. L., O. de Viron, and J. O. Dickey (2010), Interannual atmospheric torque and El Niño–Southern Oscillation: Where is the polar motion signal?, J. Geophys. Res., 115, B12409, doi:10.1029/2010JB007524); cette étude va dans le même sens que les travaux cités précédemment et confirme la forte influence de El Niño sur la LOD comme on l' a dit plus hautj ; elle indique également une influence sensiblement moindre sur le mouvement du pôle. Ceci s’explique par la symétrie de la circulation atmosphérique par rapport à l’équateur, mais en revanche l’asymétrie des deux hémisphères Nord et Sud en relation avec leurs surfaces respectives de continents et d’océans conduit à donner une plus grande importance à l’action de l’océan et des transferts hydriques continents -océans pour comprendre le mouvement du pôle tel qu’il est observé; le mouvement du pôle est en effet plus sensible à une asymétrie des mouvements et des pressions exercée sur le fond des océans et sur les continents, comme cela ressort de l’étude de Richard Gross. A titre d’information, et sans entrer dans plus de détails, on peut ajouter que ces considérations sont importantes pour étudier la variabilité proprement dite du phénomène El Niño, qui a conduit à considérer deux types de El Niño avec leurs impacts différents sur la LOD et de ce fait à approfondir les relations entre les échanges atmosphère-océans et la rotation de la Terre.(de Viron, O., and J. O. Dickey, 2014, The two types of El Niño and their impacts on the length of day, Geophys. Res. Lett., 41, 3407–3412, doi:10.1002/2014GL059948)

    Figure 6- Variations d’amplitude et de phase de l’oscillation du terme de Chandler observée et celle modélisée (d’après Christian Bizouard et al. , A et A, 526, 2011) exhibées sur les graphes de la partie supérieure.
    Les graphes de la partie inférieure représentent respectivement le mouvement observé du pôle en trois dimensions (à gauche) et le terme de Chandler extrait du mouvement du pôle observé (à droite).

    Tout cela montre que l’on peut désormais modéliser aujourd’hui les variations du terme de Chandler de manière très satisfaisante, et cela à partir de la modélisation de la circulation océanique et atmosphérique. Ce résultat n’invalide pas l’intérêt de poursuivre certaines autres recherches. Parmi les impacts possibles, on pense à certains événements sismiques exceptionnels liés à d'énormes déplacements de masse. Le terme annuel avec une amplitude de l’ordre de 100 mas correspond par contre clairement à un mouvement «forcé» par le déplacement saisonnier de masses atmosphériques et hydrologiques que l’on sait estimer.

    Dans le détail, le mouvement du pôle doit se décrire aussi en incluant d’autres termes périodiques mais en général de plus petite amplitude comme on le voit aussi sur la figure 6, graphes inférieures. Il y a ainsi un terme du mouvement du pôle découvert par Markowitz correspondant approximativement à une périodicité de l’ordre de 25 ans et avec une amplitude de 15 à 20 mas. On met également en évidence d’autres variations de période comprise entre 10 et 15 ans mais avec encore des plus faibles amplitudes. Il existe enfin des variations avec des périodes encore plus courtes entre 200 jours et 10 ans et même encore plus courtes avec des périodes comprises entre 2 et 100 jours. L’origine de tous ces termes périodiques qui sont révélés par l’analyse de l’observation du mouvement du pôle n’est pas immédiate ; elle doit se trouver dans l’analyse parallèle des processus géophysiques d’échanges possibles de masse avec leurs constantes de temps et leurs périodes envisageables pour les différentes couches composant le système Terre ; les phénomènes à considérer sont essentiellement de nature atmosphérique, océanique, hydrologique ; on doit inclure aussi les relations impliquant les couches internes de la Terre, le noyau, le manteau.

    Il importe dans la recherche et l’estimation des différentes causes d’excitation géophysique de retrancher au préalable tout ce qui est peut-être bien connu a priori, ainsi les termes dus aux marées océaniques, aux déformations de la Terre par les marées zonales, ou encore liés à l’existence du mode libre de l’axe de rotation due au noyau fluide de la Terre ; même si ces termes sont petits et nombreux, ils sont bien connus par la théorie et il faut les retrancher avant toute analyse sur les sources possibles d’excitation.

    En conclusion tout transfert ou déplacement de masse à l'intérieur du système Terre quelle qu'en soit l'origine notamment météorologique ou climatologique provoque un déplacement du pôle d'inertie et donc aussi un déplacement relatif par rapport à lui du pôle de rotation. Pour interpréter et comprendre le mouvement du pôle, il est donc essentiel de pouvoir faire avec précision le bilan de ces transferts et déplacements des masses à toutes les échelles de temps et d'espace. La mission spatiale Grace (2002) va permettre d’évaluer ces transferts avec une précision jusqu’alors inégalée.

    Une révolution en 2002 : Apport des données de la mission spatiale Grace (2002) pour la modélisation du mouvement du pôle.

    Un point très important qui va dans le sens exprimé plus haut doit être maintenant souligné. Il est désormais possible d'avoir une bien meilleure prise en compte des transferts de masse d’origines diverses (calottes glaciaires, glaciers continentaux, hydrologie des bassins fluviaux, continents, océans) et cela sur des durées de quelques semaines ou de quelques années ; ces transferts sont mesurés à partir des données du satellite germano-américain Grace lancé en 2002. Ce satellite a pour objet la détermination du champ de gravité et de sa variation temporelle liée à des redistributions des masses de la Terre. Ces redistributions et ces transferts de masse sont liés notamment et à titre d’exemples à la fonte des glaces du Groenland et de l’Antarctique (qui répartit uniformément sur les océans des masses antérieurement confinées près des pôles) et aux transferts hydrologiques entre continents, bassins fluviaux et océans (qui, selon les épisodes de pluie ou de sécheresse, stocke ou libère de grandes quantités d'eau depuis les océans dans leur globalité vers les zones émergées concernées, ou inversement). En anglais, on parle de l’impact des variations du «Terrestrial Water Storage and Global Cryosphere Storage», voir l'article de Adhikira cité en référence à la fin. Ce faisant sur la période 2003-2015, il a été ainsi possible de manière remarquable de bien représenter le mouvement du pôle à partir de l’intégration des équations fondamentales de la rotation des corps ; on observe ainsi, d’après les auteurs cités en référence, que sur la période certes assez courte entre 2005 et 2011, que le mouvement du pôle moyen suit sur cette durée une tendance distincte de la dérive séculaire moyenne du mouvement du pôle observée et admise depuis 1900 jusqu’alors (figure 5) ; elle pourrait avoir changé de direction en lien avec les phénomènes géophysiques évoqués plus haut (phénomènes météorologiques et climatiques). Il faut noter que dans le passé on a déjà observé de telles fluctuations et le mouvement du pôle moyen a toujours eu un aspect un peu erratique mais on ne savait pas très bien s’il s'agissait d'une réalité ou d’incertitude dans les données et dans leur traitement. Ce qui est en fait le plus intéressant ici est désormais la possibilité aujourd’hui de reproduire avec grande précision, le mouvement du pôle moyen grâce aux données de la mission Grace ; il faut noter la grande importance des transferts de masse entre océans, bassins fluviaux et calottes glaciaires. Cela peut remettre en cause l’importance peut-être surestimée ou mal estimée d’autres processus comme les interactions noyau-manteau. Les données de Grace et des observations associées comme les données laser sur Lageos apparaissent désormais fondamentales et à prendre obligatoirement en compte pour toute interprétation des phénomènes. Tout n’est pas encore évidemment compris, loin de là et des recherches sont à poursuivre.
    Mais il convient surtout ne pas arrêter les observations des paramètres de la rotation terrestres qui sont à poursuivre plus que jamais sur le très long terme, tout comme aussi l’observation spatiale des nombreux paramètres géophysiques par satellite pouvant jouer un rôle dans la rotation de la Terre.

    Conclusion et perspectives

    Des progrès très importants ont été faits dans la mesure des paramètres de la rotation terrestre à partir de toutes les techniques spatiales (GPS/GNSS, Doris, Laser, VlBI).

    Dans la modélisation des paramètres de la rotation de la Terre, il faut distinguer les composantes astronomiques, généralement très bien connues, des composantes géophysiques (météorologiques, atmosphériques, climatologiques, océanographiques, hydrologiques) plus difficiles à prévoir, voire imprévisibles.

    On sait traduire avec une grande précision l'effet d'un changement de régime des vents sur la durée du jour. Mais on ne sait pas calculer ce changement de régime des vents d'après une variation de la durée du jour, car comme on l'a vu, trop de phénomènes géophysiques interviennent.

    Par contre, on sait de mieux en mieux observer ces phénomènes et les mesurer grâce aux nouvelles techniques spatiales (satellites météorologiques type Météosat, satellites altimétriques et océanographiques type Jason, satellites dédiés à l’étude champ de gravité - satellites Grace et Lageos –satellites dédiés à l’environnement terrestre et solaire qui est aussi à prendre en compte à travers des phénomènes climatiques).

    Ces connaissances, en constante amélioration, permettent de comprendre de mieux en mieux les changements qui interviennent dans le système Terre et leurs conséquences sur sa rotation.

    Les interactions noyau-manteau avec leurs implications dans la rotation de la Terre demeurent encore difficiles à appréhender, mais les satellites dédiés à l’étude du champ magnétique terrestre devraient pouvoir y contribuer en liaison avec les autres techniques géophysiques, comme la sismologie. Il y a un enrichissement réciproque de la connaissance entre les observations, l’interprétation des paramètres de la rotation terrestre, et les données géophysiques de toute origine.

    Remerciements et reconnaissance

    Beaucoup des explications et des informations données sont tirées d’un livre publié très récemment en 2017 par le Bureau des longitudes «Les Références de Temps et d’Espace, un panorama encyclopédique : Histoire, Présent, et Perspectives», coordonné par Claude Boucher avec le concours de Pascal Willis, chez Hermann, 2017.
    On a puisé tout particulièrement des informations et des références dans les chapitres portant sur la Rotation de la Terre rédigés par Nicole Capitaine du Bureau des longitudes et de l’Observatoire de Paris (département du Syrte). On doit aussi indiquer une synthèse extrêmement détaillée du sujet avec tous ses aspects historiques par Kurt Lambeck en 1980 «The Earth’s variable rotation: geophysical causes and consequences, Cambridge University Press,1980» et une autre plus récente par Helmut Moritz et Ivan Mueller «Earth rotation, theory and observation, the ungar ublishing company, 1987».
    À noter l’article de Richard Gross «The excitation of the Chandler wobble», Geophys. Res. Lett., vol 27, 15, 2000, p 2329-2332».
    Il faut signaler aussi l’article «Climate-driven polar motion 2003-2015» dans «Advances Sciences» du 8 avril 2016 par Adhikira et al. et portant sur la prise en compte des données du satellite Grace et encore l'ouvrage par Anny Cazenave et Kurt Feigl «Formes et mouvements de la Terre, satellites et géodésie, la croisée des sciences», CNRS éditions -Belin- 1994.
    Beaucoup des figures sont tirées de l’IERS, Service de l’Observatoire de Paris, département du Syrte sous la responsabilité de Christian Bizouard ainsi que de son article «C.Bizouard et al., 526, A106 (2011)» mais voir finalement aussi beaucoup d’informations et des figures dans le livre «Le mouvement du pôle de l’heure au siècle, Modélisation géophysique» par Christian Bizouard, édition paf, Presses académiques francophones, 2014.

  • Les océans absorbent une partie importante de nos émissions de gaz carbonique.

  • Comment sont-ils construits et utilisés?

    Olivier Talagrand, Katia Laval et Jean Pailleux

    Les modèles numériques
    Les principes de la modélisation numérique
    Différents types de modèles numériques
    La modélisation du climat
    La modélisation des atmosphères planétaires
    Observation et modélisation numérique

    Les modèles numériques sont maintenant devenus omniprésents dans les sciences de l’atmosphère et de l’océanIls sont utilisés quotidiennement dans les services météorologiques pour la production de leurs prévisions. Ils ont fourni les "projections" sur lesquelles le Groupe d’experts Intergouvernemental sur l’Évolution du Climat (GIEC) a fondé, dans ses rapports successifs, l’essentiel de ses conclusions quant à l’évolution future du climat. Ils sont aussi utilisés pour de nombreux travaux de recherche.

    Que sont exactement ces modèles, qui paraissent un peu mystérieux à beaucoup, même parmi ceux qui possèdent un réel bagage scientifique ? Comment sont-ils construits et utilisés ? Et surtout, quel crédit peut-on accorder aux résultats qu’ils produisent ? C’est à ces questions que cette note, qui s’adresse à des lecteurs informés mais nullement spécialistes, cherche à donner des éléments de réponse.

    Les modèles numériques sont des logiciels pour ordinateurs qui calculent l’évolution de l’écoulement atmosphérique ou océanique à partir d’un état de départ donné. Ils ont été conçus à l’origine, à la fin des années 1940, au moment du développement des premiers calculateurs électroniques, pour servir à la prévision météorologique. Et c’est à cette application qu’ils restent aujourd’hui principalement utilisés. Pour donner une première idée de ce dont ils sont maintenant capables, la figure 1 présente une prévision effectuée par le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, voir encart ci-dessous.

     

    Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT)

    Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, en anglais European Centre for Medium-Range Weather Forecasts, ECMWF, https://www.ecmwf.int/) est un organisme international installé à Reading, en Grande-Bretagne. Sa mission première est de fournir des prévisions météorologiques aux États membres, mission qu’il assure quotidiennement depuis 1980. Outre deux prévisions quotidiennes de base à échéance de quinze jours, il produit des prévisions d’ensemble, destinées à quantifier l’incertitude sur la prévision aux différentes échéances. Il produit aussi d’autres types de prévisions (prévisions saisonnières, prévision des vagues sur l’océan).

    Le CEPMMT fournit également différents services aux États membres et à la communauté internationale. Il gère plusieurs composantes du programme Copernicus d’observation de la Terre, soutenu par l’Union Européenne. Il produit aussi des réanalyses d’observations passées, c’est-à-dire des descriptions détaillées de l’évolution quotidienne de l’écoulement atmosphérique, obtenues à l’aide des modèles et des systèmes d’assimilation actuels. L’analyse ERA-Interim, qui commence en 1979, est maintenue à jour en permanence.

    Il effectue en outre, en liaison avec des groupes de recherche européens ou non, des recherches de pointe sur la prévision météorologique numérique et ses multiples applications.

    Le CEPMMT est formellement un service commun aux services météorologiques des États membres. En novembre 2018, il compte 22 États membres de plein droit et 12 États associés.

     

    La carte du haut présente l’état de l’atmosphère sur l’Atlantique Nord et l’Europe Occidentale le 20 septembre 2018, à 00:00 UTC.
    Les quantités représentées sont la pression au niveau de la mer (isolignes blanches) et le géopotentiel (c’est-à-dire, à un coefficient multiplicatif près, l’altitude) de la surface isobare 500 hPa, qui sépare l’atmosphère en deux couches de même masse (plages de couleur).

    L’une et l’autre de ces deux quantités (dont, comme on peut le voir, les variations spatiales sont similaires) décrivent les structures de grande échelle de la circulation atmosphérique, structures dont la formation, l’amplification, le déplacement, les interactions mutuelles éventuelles et la disparition finale gouvernent la météorologie des latitudes moyennes.

    L’état du 20 septembre a servi de point de départ à une prévision à 8 jours d’échéance effectuée par le modèle du CEPMMT. L’état ainsi prévu est présenté sur la carte intermédiaire, et l’état réel correspondant sur la carte inférieure. La similarité entre ces deux derniers états, et leur différence commune avec l’état de départ de la prévision, sont absolument évidentes. C’est là un exemple typique de ce qu’est à l’heure actuelle une bonne prévision.

    Figure 1. Un exemple de prévision à 8 jours effectuée par le modèle du CEPMMT.
    Haut : état initial de la prévision (20 septembre 2018, 00 :00 UTC).
    Milieu : prévision pour le 28 septembre 2018, 00:00 UTC.
    Bas : état réel correspondant à la prévision.
    Isolignes du champ de pression au niveau de la mer (en blanc).
    Géopotentiel de la surface isobare 500 hPa (en plages de couleur).
    Source : meteociel.fr.

    La figure 2, relative elle aussi au géopotentiel à 500 hPa, présente l’évolution de la qualité des prévisions produites par le CEPMMT depuis 1981.

    La quantité représentée en ordonnée est un coefficient de corrélation statistique qui mesure les performances comparées de deux prévisions : d'une part la prévision produite par le modèle, d'autre part une prévision «climatologique» qui consisterait à prévoir pour demain et les jours qui suivent l'état climatologique moyen pour le jour considéré. Cette corrélation prendrait la valeur 1 pour une prévision parfaite, et la valeur 0 pour une prévision climatologique. Plus elle est élevée, et plus la prévision du modèle est bonne.

    Les différentes courbes de la figure présentent à partir du haut l’évolution de la corrélation à 3, 5, 7 et 10 jours d’échéance.
    Pour chacune de ces échéances, deux courbes, séparées par une bande de couleur, montrent la corrélation sur les hémisphères boréal (courbe du haut) et austral (courbe du bas) respectivement.

    On voit sans surprise que la qualité des prévisions décroît à mesure que l’échéance augmente. Mais surtout cette qualité a augmenté depuis 1981, à toutes échéances, de façon quasi-systématique. Les prévisions à 5 jours sont maintenant meilleures que les prévisions à 3 jours en 1981, et les prévisions à 7 jours meilleures que les prévisions à 5 jours. Cette amélioration progressive est due à l’augmentation du nombre des observations, et à l’amélioration de la qualité du modèle de prévision lui-même. On voit aussi que la qualité des prévisions dans l’hémisphère austral, inférieure à l’origine à celle des prévisions de l’hémisphère boréal, lui est devenue égale à partir de l’année 2000 environ. Cela est dû à l’accroissement du nombre des observations satellitaires, qui couvrent également les deux hémisphères, tandis que les observations au sol sont beaucoup plus nombreuses dans l’hémisphère boréal.

    Figure 2. Variation au cours du temps de la qualité des prévisions du géopotentiel à 500 hpa effectuées par le CEPMMT (voir explications dans le texte)
    (source : ecmwf.int).

    L’"effet papillon" bien connu nous dit que l’écoulement atmosphérique est chaotique, en ce sens qu’une petite incertitude sur l’état initial de l’écoulement peut conduire rapidement à une grande incertitude sur la prévision. Sans discuter plus avant cet aspect important, les figures ci-dessus montrent que des progrès sont encore réalisés dans la qualité des prévisions.

    Les principes de la modélisation numérique

    Les modèles numériques sont fondés sur les lois physiques qui régissent le monde macroscopique, familières à tout étudiant en physique, et dont personne ne doute qu’elles régissent, en particulier, les mouvements de l’atmosphère.

    Ce sont :

    • la loi de conservation de la masse,
    • de conservation de la quantité de mouvement (loi de Newton), qui définit comment le mouvement d’une particule fluide répond au forces mécaniques qui lui sont appliquées,
    • la loi de conservation de l’énergie, qui définit comment l’énergie interne d’une particule fluide (ici, sa température) varie du fait de ses échanges avec le milieu environnant.

    L’approche sous-jacente aux modèles est bien fondée au départ sur ces lois physiques de base. Elle n’est en particulier pas fondée, comme on pourrait se le demander, sur l’ajustement empirique de multiples coefficients destinés à permettre une simulation réaliste de l’écoulement.
    Pour ce qui est de la prévision météorologique, une autre approche pourrait parfaitement être envisagée : rechercher dans le passé des situations analogues à celle du jour, et fonder la prévision sur ce qui a suivi ces situations analogues. Cette approche n’est pas utilisée, pas plus que toute approche qui serait fondée sur l’exploitation des observations passées : on sait que l’échantillon statistique fourni par les archives météorologiques est beaucoup trop limité pour permettre des prévisions de la qualité des modèles numériques actuels. Nous sommes en outre dans une période de variation rapide du climat, ce qui diminue d’autant la valeur de ces archives météorologiques pour l’étude éventuelle de situations présentes.

    Le principe sur lequel est construit un modèle numérique est simple, et d’ailleurs très général dans l’étude numérique d’écoulements fluides de toutes natures. Le volume de l’atmosphère est divisé en mailles (Figure 3), à l’intérieur de chacune desquelles on définit les quantités d’intérêt météorologique.
    Sous l’hypothèse hydrostatique faite actuellement pour la prévision météorologique à grande échelle (et expliquée plus bas), ces quantités sont les deux composantes du vent horizontal, la température et le contenu de l’air en humidité. Des quantités complémentaires sont définies au niveau du sol ou de la surface de l’océan, dont la pression, la température de la surface et, dans le cas du sol, le contenu en eau. L’évolution de toutes ces quantités est ensuite évaluée pas à pas, dans chaque maille.

    Pour ce qui est par exemple de la température de l’air, tous les processus jugés pertinents sont pris en compte :

    • échauffement ou refroidissement résultant de compression ou de détente adiabatique,
    • absorption du rayonnement solaire et du rayonnement infrarouge émis par les autres couches atmosphériques ou le milieu sous-jacent (océan ou sol solide),
    • émission propre de rayonnement infrarouge,
    • conduction de chaleur depuis le milieu sous-jacent,
    • émission ou absorption de chaleur latente associée aux changements de phases de l’eau (évaporation ou condensation).

    À cela s’ajoute l’apport par l’écoulement lui-même d’air de température différente venant des mailles voisines. Un bilan similaire, effectué pour chacune des variables dans chacune des mailles du modèle, permet de calculer de proche en proche l’évolution de l’ensemble de l’écoulement sur la durée de la prévision.

    Figure 3. Représentation schématique d’un Modèle de Circulation Atmosphérique (L. Fairhead, LMD/IPSL)

    Les modèles constituent donc une formulation numériquement utilisable des lois physiques qui régissent l’écoulement. Cette formulation est nécessairement approchée, et donc imparfaite. Dans la version actuelle du modèle du CEPMMT (novembre 2018), la distance horizontale entre deux mailles est d’environ 9 km, et la direction verticale est divisée en 137 niveaux, s’étendant jusqu’à une altitude de 80 km. Cela conduit à environ 900 millions de mailles, et environ 4 milliards de variables dont l’évolution est explicitement calculée. Le pas temporel correspondant est de 450 secondes.

    Les spécialistes distinguent dans leur jargon la "dynamique" d’un modèle de sa "physique".

    La "dynamique" décrit comment le mouvement évolue sous l’effet des forces mécaniques et de la rotation de la Terre.

    La "physique" décrit les effets radiatifs et de conduction thermique, les effets de viscosité et de frottement et, aussi, tous les aspects du cycle de l’eau.

    En simplifiant, la dynamique décrit les processus thermodynamiquement réversibles, et la physique les processus irréversibles. On inclut dans la seconde la description de l’effet des processus d’échelle inférieure à la maille du modèle, non résolus par celui-ci. Ces processus influent néanmoins sur les processus explicitement résolus, et leur effet statistique est représenté par ce qu’on appelle les paramétrisations sous-maille. La définition et la validation de ces paramétrisations est l’un des problèmes importants de la modélisation numérique.

    La dynamique, construite sur des lois physiques parfaitement connues, est décrite de façon considérée désormais comme totalement sûre (même si des recherches actives sont toujours menées pour améliorer par exemple l’efficacité numérique des algorithmes, ou bien élargir leur degré de généralité). Il n’en est pas de même de la physique, qui est d’ailleurs constamment enrichie par l’introduction de nouveaux processus (effets des lacs et nappes d’eau, interactions avec la végétation, ruissellement des eaux de surface et souterraines, …). Contrairement à la dynamique, la physique contient, en ce qui concerne par exemple les effets radiatifs des nuages ou les interactions avec la végétation, de nombreuses formulations empiriques ou phénoménologiques, qui ne découlent pas directement de la physique de base. Et c’est d’ailleurs bien en ce qui concerne la physique, et en particulier le cycle complexe de l’eau, que les modèles actuels sont les plus limités et leurs prévisions les moins précises. L’expérience quotidienne nous montre que les précipitations sont plus difficiles à prévoir que la pression au sol, même si la seconde est indispensable à la prévision des premières.

    Différents types de modèles numériques

    L’approximation hydrostatique sur laquelle sont construits les modèles utilisés actuellement pour la prévision météorologique à grande échelle stipule simplement que la pression en tout point est proportionnelle à la masse de fluide située au-dessus de ce point. Elle est valide quand l’accélération verticale du fluide est négligeable devant la gravité. Du fait de la présence dans l’atmosphère de mouvements convectifs intenses, mais localisés, qui transportent des quantités d’énergie importantes vers les couches élevées de l’atmosphère, l’approximation hydrostatique perd sa pleine validité pour des échelles horizontales inférieures à 20 km environ.

    Des modèles non hydrostatiques ont donc été développés pour représenter les échelles plus fines. Ils permettent, entre autres, de simuler explicitement les phénomènes convectifs, mais leur coût élevé ne leur permet de couvrir à ce jour qu’une aire limitée de la surface terrestre. Météo-France a ainsi développé le modèle AROME (Applications de la Recherche à l'Opérationnel à Méso-Echelle), non-hydrostatique, qui couvre la France métropolitaine et les régions avoisinantes avec une résolution spatiale horizontale de 1,3 km, 90 niveaux dans la direction verticale, et est intégré plusieurs fois par jour à une échéance allant jusqu'à 48 h. Les modèles non hydrostatiques à haute résolution permettent une prévision beaucoup plus précise des phénomènes météorologiques intenses. Mais ils exigent par contre, du fait de leur aire limitée, la définition de conditions aux limites latérales appropriées. Ces conditions aux limites sont extraites d’un modèle de plus grande échelle. Le CEPMMT travaille au développement d’un modèle non-hydrostatique global.

    D’autres modèles encore servent à la prévision de l’océan en tant que tel. Ils sont fondés, mutatis mutandis, sur les mêmes principes que les modèles atmosphériques. De même que l’eau, par ses effets radiatifs et thermodynamiques, est un composant essentiel de la circulation atmosphérique, le sel, par les variations de densité qu’il entraîne, est un composant essentiel de la circulation océanique. Les échéances de prévisibilité, qui se comptent en jours pour l’atmosphère, se comptent plutôt en mois pour l’océan. L’état interne de l’océan, qui est opaque à toute forme de rayonnement électromagnétique, est beaucoup moins bien observé et connu que celui de l’atmosphère. Le programme français Mercator produit chaque jour des prévisions de l’état de l’océan global à une résolution spatiale de 1/12° et à échéance de 9 jours (donc courte pour l’océan ; voir le bulletin Mercator Océan pour les différents produits mis en ligne dans le cadre de ce programme).

    Aux échéances mensuelles ou saisonnières, les interactions entre l’atmosphère et l’océan ne peuvent plus être ignorées. Ces interactions mutuelles sont à l’origine de phénomènes spécifiques, comme le phénomène El Niño bien connu, qui n’existeraient pas dans l’un ou l’autre milieu isolément. Des modèles couplés ont donc été progressivement développés, qui produisent d’ores et déjà des prévisions utiles à l’échéance saisonnière.

    De nombreux modèles numériques ont été développés à d’autres fins : dispersion de traceurs ou de polluants, hydrologie, chimie atmosphérique. La plupart de ces modèles sont utilisés en association avec un modèle purement atmosphérique ou océanique, qui leur fournit les conditions physiques permettant de représenter les processus spécifiques qu’ils doivent simuler.

    La modélisation du climat

    Même si c’est la prévision à échéance relativement courte, nécessitant en particulier une définition précise de conditions initiales appropriées, qui a été à l’origine de la modélisation numérique de l’atmosphère, celle-ci a trouvé dès la fin des années 1960 une autre utilisation, qui suscite à l’heure actuelle beaucoup plus de questions et d’interrogations, quelquefois dubitatives. Il s’agit de la simulation du climat et de la prévision de son évolution à long terme.

    Des Modèles de Circulation Générale (MCG) ont ainsi été développés à partir des modèles météorologiques, sans modification des principes sur lesquels ceux-ci étaient construits. Mais il a fallu pour cela développer des composantes nouvelles, qui ont en retour bénéficié à la prévision météorologique. La différence la plus importante résulte de ce que l’effet des océans doit être pris en compte, plus encore qu’aux échéances mensuelles ou saisonnières, aux échéances climatiques.
    Les Modèles de Circulation Générale sont couplés, en ce qu’ils décrivent explicitement la circulation de l’océan et de l’atmosphère et leurs interactions mutuelles. Ils sont intégrés sur des périodes de temps (décennies ou plus) beaucoup plus longues que celles des prévisions météorologiques, et la quantité de calculs nécessaire impose une résolution spatiale beaucoup plus grossière. Une autre différence importante résulte de ce que l’on n’est pas intéressé dans l’étude du climat à l’état de l’atmosphère à un instant particulier, mais à des quantités statistiques (moyennes, variances, corrélations mutuelles, … ) calculées sur plusieurs années ou plus. On estime que ces quantités statistiques, prises sur de longues périodes, sont indépendantes de l’état initial de l’intégration. Contrairement donc à ce qui se passe pour les prévisions météorologiques, on ne cherche pas à définir aux modèles climatiques des conditions initiales très précises. Un état climatique moyen initial est souvent considéré comme suffisant.

    À titre d’exemple de ce que peuvent produire les Modèles de Circulation Générale, la Figure 4 présente le champ de température de l’air à la surface de la Terre, moyennée sur une année. La carte du haut montre le champ observé, la carte du bas le champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace. On voit que, s’il existe des différences, les variations spatiales des températures, en latitude, mais aussi entre les continents et les océans, sont très similaires.

    Figure 4. Champ de température de l’air à la surface de la terre, moyenné sur une année.
    Haut : champ observé.
    Bas : champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace (J.-L. Dufresne, LMD/IPSL)

    Les simulations climatiques servent en particulier à effectuer les "projections" présentées et discutées dans les rapports successifs du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC ; le cinquième de ces rapports a été publié en 2013-2014, la publication du prochain est prévue pour 2022 ; un rapport spécial a été récemment publié en octobre 2018).
    La question de la prévision du climat a été traitée brièvement dans la FAQ : Les modèles climatiques ont-ils une valeur prédictive?

    La figure 5, extraite du dernier rapport du GIEC, présente des comparaisons entre les observations relatives à la période 1910-2010 et des simulations issues de modèles.

    Figure 5. Comparaison d’observations et de simulations numériques sur la période 1910-2010. Sur chacune des sous-figures, la courbe pleine représente les observations, les bandes de couleur bleue et rouge clair le résultat de simulations numériques effectuées respectivement sans et avec le forçage anthropique (détails dans le texte).
    Figure extraite du cinquième Rapport d’évaluation du GIEC.

    Les observations, représentées par des courbes pleines sur chacune des sous-figures, portent :

    • sur la température de surface pour les régions continentales (fond jaune),
    • le contenu thermique superficiel pour les régions océaniques (dénoté OHC, fond bleu),
    • et l’extension des glaces pour les océans polaires (fond blanc).

    On remarque tout d’abord que la température et le contenu thermique de l’océan ont augmenté dans toutes les régions, surtout depuis 1960 (à la seule exception de l’Océan Austral, dont le contenu thermique a diminué depuis la fin des années 1990).
    L’extension des glaces a diminué sur l’Océan Arctique, tandis qu’elle est restée stable sur l’Océan Antarctique.

    Les simulations numériques sont représentées par les bandes de couleur :

    • bleues pour des simulations ne prenant en compte que les forçages naturels agissant sur l’atmosphère (tels que les éruptions volcaniques),
    • rouge clair pour des simulations prenant en compte, outre les forçages naturels, l'augmentation des gaz à effet de serre tel que le dioxyde de carbone (CO2) et aux autres gaz émis par les activités humaines (la largeur de chaque bande de couleur indique la dispersion entre les différents modèles numériques utilisés).

    On voit que (à la seule exception de l’Océan Antarctique, où l’on n’a de toute façon observé aucune évolution significative) les modèles numériques simulent toujours beaucoup mieux la réalité observée quand l’effet de serre anthropique est pris en compte. Ce résultat, outre qu’il conforte l’idée que les modèles numériques sont capables de simuler la structure thermique de l’atmosphère et de l’océan superficiel, conforte aussi l’idée que l’échauffement récent du climat est dû pour l’essentiel à l’effet de serre anthropique.

    Cela étant, il reste une marge d’incertitude, visible dans la largeur des bandes de couleur de la Figure 5. Une étude détaillée montre que les désaccords entre les résultats produits par les différents modèles viennent de leur "physique", et particulièrement du cycle de l’eau. Et encore plus précisément, pour ce qui est du cas présent des projections climatiques, de la représentation de l’effet radiatif des nuages. Comme dans le cas de la prévision météorologique, les faiblesses des modèles numériques résident beaucoup plus dans leur "physique" que dans leur cœur dynamique. Le cycle de l’eau, en particulier, et les flux d’énergie qui lui sont associés, restent assez mal connus, et mal représentés dans les modèles. C’est par la combinaison d’acquisition et d’analyse d’observations, de travaux théoriques, et d’expériences de simulations appropriées, que l’on pourra continuer à améliorer cet aspect des modèles numériques.

    La modélisation des atmosphères planétaires

    Une autre preuve du niveau de qualité physique atteint par les Modèles de Circulation Générale est fournie par les atmosphères extra-terrestres.
    Trois des différents objets du Système Solaire, Vénus, Mars et Titan (un satellite de Saturne), possèdent une atmosphère similaire à celle de la Terre : une couche mince à la surface d’un corps solide, recevant du Soleil l’essentiel de son énergie.

    Les Modèles de Circulation Générale terrestres ont été adaptés à ces différents objets en en modifiant les paramètres pertinents :

    • dimension de la planète,
    • taux de rotation,
    • flux solaire incident,
    • masse et composition de l’atmosphère
    • propriétés thermiques du gaz atmosphérique,
    • etc.

    Dans chacun de ces trois cas, et sans qu’il ait été nécessaire de recourir à des modifications non justifiées par ce que l’on sait de la physique, les modèles ont produit un régime de circulation atmosphérique et une structure thermique en bon accord, et quelquefois même en excellent accord, avec les observations disponibles.

    La Figure 6 présente le champ de température martien, moyenné en longitude, à l’équinoxe de printemps boréal.
    La partie supérieure montre la température observée par l’instrument Mars Climate Sounder, qui est resté en orbite autour de Mars pendant plusieurs années à partir de 2006.
    La partie inférieure montre la température produite par le modèle de circulation martienne développé à partir du modèle terrestre du Laboratoire de Météorologie Dynamique.
    On voit que la structure des deux champs de température est très similaire. L’atmosphère martienne est constituée pour l’essentiel de dioxyde de carbone, et elle est de ce fait le siège d’un effet de serre important. La similarité des deux champs de température montre que le modèle est capable de simuler l’effet de serre avec succès. Une remarque similaire s’applique à l’atmosphère de Vénus, elle aussi constituée pour l’essentiel de dioxyde de carbone, mais beaucoup plus massive que les atmosphères terrestre et martienne. L’effet de serre y est la cause d’une augmentation de température de 400°C. Cette augmentation est reconstituée par les modèles de circulation, de même que le régime de circulation dynamique qui lui est associé.

    Figure 6. Champ de température de l’atmosphère martienne, moyenné en longitude dans un plan méridien, à l’équinoxe de printemps boréal.
    La coordonnée horizontale est la latitude, la coordonnée verticale la pression.
    Partie supérieure : champ de température observé par l’instrument Mars Climate Sounder.
    Partie inférieure : champ de température produit par le modèle de circulation martienne développé au Laboratoire de Météorologie Dynamique (F. Forget, LMD/IPSL).

    En dehors de ces diverses applications, toutes destinées à simuler et étudier une atmosphère réelle, la modélisation numérique est aussi utilisée à l’étude de processus spécifiques, menée dans des situations de simplification plus ou moins idéalisées. On peut citer par exemple l’étude de la convection thermique, de la formation des dépressions des latitudes moyennes ou bien encore de la formation et de l’évolution des cyclones tropicaux. Ces études de processus sont extrêmement instructives, et aident beaucoup à la compréhension des multiples aspects de la dynamique et de la thermodynamique de l’atmosphère et de l’océan.

    La modélisation numérique de l’écoulement atmosphérique, même si la possibilité en avait été anticipée dès le début du XXe siècle, est née, on l’a dit plus haut, avec les premiers ordinateurs électroniques (voir Le changement climatique : histoire et enjeux, Chapitre V : De nouveaux outils bouleversent le paysage scientifique, pour une histoire des débuts de la modélisation numérique). Et ses progrès, particulièrement en ce qui concerne la prévision météorologique, ont toujours suivi de près la croissance de la puissance des ordinateurs : l’augmentation de la résolution spatiale des modèles, quand elle était possible dans les contraintes imposées par les conditions opérationnelles, a toujours résulté à ce jour en une amélioration de la qualité des prévisions (bien entendu, toutes les autres composantes du système de prévision, comme les algorithmes numériques, la représentation des processus sous-maille, l’assimilation des observations, ont toujours été continûment améliorées en parallèle avec l’augmentation de la résolution spatiale). Mais la croissance de la puissance des ordinateurs commence à diminuer et, sauf nouvelle révolution technologique qui pourrait relancer cette croissance (on parle régulièrement d’ordinateurs quantiques), le jour viendra où l’on ne pourra plus compter sur l’augmentation de la puissance de calcul pour améliorer les modèles numériques. Cela modifiera significativement, sinon la science fondamentale elle-même, du moins le travail quotidien des chercheurs.

    Observation et modélisation numérique

    Pour reprendre une remarque souvent faite, la modélisation numérique ne remplacera jamais l’observation, qui est à la base même de la science. Mais elle vient en sus de l’observation, en lui ajoutant la formulation, explicite et quantifiée, des lois physiques qui lui sont sous-jacentes. La modélisation est extrêmement utile à l’observation, et d’abord en ce qu’elle aide souvent à définir ce qui doit être observé. Toutes les campagnes de mesures atmosphériques sont maintenant précédées de simulations numériques destinées à identifier les quantités les plus pertinentes à observer. Tout projet de mise en œuvre d’un nouvel instrument d’observation (porté par satellite par exemple) est précédé d’expériences de simulation, dans lesquelles des observations virtuelles similaires à ce qu’on attend de l’instrument envisagé sont introduites dans l’intégration d’un modèle numérique. L’impact des observations virtuelles sur, par exemple, la qualité d’une prévision météorologique est ainsi quantifié. Ces expériences ne produisent certes pas des résultats parfaitement fiables (elles conduisent en général à des conclusions qui se révèlent a posteriori trop optimistes quant à l’impact des nouvelles observations), mais elles n’en sont pas moins extrêmement utiles, en indiquant dans quelles directions il faut améliorer les systèmes d’observation.

    Ensuite, la modélisation permet de tirer un plein profit des observations disponibles. Un excellent exemple en est fourni par la définition des conditions initiales des prévisions météorologiques numériques. De très nombreuses observations, satellitaires ou non, sont effectuées chaque jour sur l’atmosphère, dont la nature, la distribution spatio-temporelle, la résolution et la précision sont extrêmement variables. Ces observations (plus de 107 par période de 24 heures) doivent être "synthétisées" pour en tirer la description la plus exacte possible de l’état de l’écoulement atmosphérique à l’instant initial de la prévision. Cela est obtenu en combinant les observations avec un modèle numérique dans un processus appelé assimilation. L’assimilation des observations, construite sur des algorithmes puissants progressivement développés en parallèle avec la modélisation elle-même, est maintenant devenue une composante essentielle de la prévision météorologique : les grands centres de prévision, tels que le CEPMMT ou Météo-France, consacrent autant de ressources de calcul à assimiler 24 heures d’observations qu’à effectuer 10 jours de prévision à haute résolution.

    L’observation et la modélisation numérique, en ce qui concerne au moins l’atmosphère, sont désormais intimement liées. Chacune des deux perdrait beaucoup d’intérêt et d’utilité si l’autre n’existait pas.

    La modélisation numérique de l’écoulement atmosphérique s’est progressivement développée à partir de son objectif premier, la prévision météorologique. Une représentation réaliste de l'océan et de multiples processus a été ajoutée au fil des années dans les différents modèles utilisés pour des applications diverses.

    Dans le vaste cadre de la prévision climatique, des Modèles du Système Terre sont maintenant développés : ces modèles simulent, en plus des mouvements de l’atmosphère et de l’océan, leurs interactions avec la végétation et la cryosphère, les réservoirs d’eau divers, et avec les cycles de différentes espèces chimiques (dont particulièrement le dioxyde de carbone).
    Le jour approche où ils seront associés à des modèles de la production industrielle et agricole, et peut-être ultérieurement à des modèles des circuits économiques. À l’heure où la question de l’influence des activités humaines sur l‘environnement est devenue cruciale et soulève de multiples problèmes, la modélisation numérique constitue, et constituera certainement encore longtemps, un outil central pour l’étude et, espérons-le, la solution de ces problèmes.

    Voir aussi les FAQs :

    Quelle est la différence entre «météorologie» et «climatologie»?

    Les modèles climatiques ont-ils une valeur prédictive?

  • Océanographie des astronomes 
  • Parti de Brest le 6 février 2020, le navire océanographique de l'Ifremer Thalassa est de retour ce lundi 30 mars après avoir accompli la mission «Pirata FR30» dans son intégralité.

Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner
Unknown
Unknown
Accepter
Décliner
Sauvegarder