logo argo large new

atmosphere et meteo

  • Jean Labrousse

    Si l’on se situe dans la basse atmosphère, là où vit la majeure partie de l’humanité, il faut d’abord remarquer que les vents sont dominants d’Ouest dans les zones tempérées. Par exemple, dans les régions tropicales et près des pôles, la circulation dominante est d’Est même si les vents dans ces régions soufflent moins fort que dans les régions dites tempérées, en tout cas pendant la saison froide.
    Ceci étant, la cause de la dominante d’Ouest est la terre qui tourne d’Ouest en Est.
    La quantité d’énergie reçue par la terre est plus importante près de l’équateur qu’aux pôles. Le bilan entre l’énergie reçue et émise est positif. Dans ces conditions les régions tropicales devraient s’échauffer en permanence tandis que les régions polaires devraient se refroidir indéfiniment.
    Dans les régions équatoriales l’air, fortement chauffé par le sol, s’élève.
    Dans les régions subtropicales, bien que le soleil fournisse beaucoup d’énergie, le bilan thermique est négatif car les terres situées à ces latitudes réfléchissent une partie importante de l’énergie reçue.
    Ces régions sont donc des zones d’affaissement de l’air qui a été emporté dans la haute atmosphère à l’équateur et qui a perdu son humidité sous forme de pluie.
    L’air qui descend dans cette zone est donc chaud et sec, ce qui explique les déserts à ces latitudes.
    Il se crée ainsi une zone anticyclonique.
    Du fait de la rotation de la terre l’air est soumis à une force dite géostrophique qui fait que dans l’hémisphère nord, l’air souffle en laissant les basses pressions à sa gauche.
    En partant du nord vers l’équateur on rencontrera donc des vents faibles d’Est, suivis par des vents fort d’Ouest, autour de la zone dépressionnaire d’Islande, ceci pour l’Atlantique Nord.
    Au Sud de cette dépression, le vent va souffler d’Est autour de la face Nord de l’anticyclone des Açores et l’on va retrouver une circulation de composante Est jusqu’à l’Equateur.
    Il est bon de noter que lorsque l’on s’élève en altitude, dans la zone où les températures diminuent avec l’altitude, ce que l’on appelle la troposphère, l’anticyclone polaire, du aux froid de ces régions, est remplacé par une dépression. De même que du fait de la température élevée de l’air, on retombe sur une circulation moyenne d’Ouest…

  • Jean Labrousse 

    Il est bon de rappeler, tout d’abord, que l’on appelle circulation générale de l’atmosphère la circulation moyenne de l’air sur la terre.
    Lorsque le vent arrive sur un relief, il est obligé se s’élever pour passer cet obstacle. L’air subit donc une perturbation. Les conséquences de cette perturbation sur l’écoulement de l’air ont un aspect dynamique et un aspect thermodynamique.

    Pour ce qui concerne l’aspects dynamique, l’onde créée par le soulèvement du vent par la chaîne montagneuse, va se propager en aval de l’obstacle. Ce phénomène est identique à celui créé par un rocher dans une rivière. La perturbation est visualisée par les vaguelettes et les tourbillons qui se forment à la surface de la rivière, en aval de l’obstacle. 
    Dans le cas de l’atmosphère, pour un relief isolé la perturbation concerne une tranche d’atmosphère dont l’épaisseur est de l’ordre du tiers de la hauteur de la montagne.
    Les trains d’ondes ainsi formés peuvent se propager très loin de l’obstacle et, si l’humidité de l’air est suffisante, se concrétiser par des nuages Ils prennent la forme d’une lentille, on les appelle d’ailleurs lenticulaires, parfois empilés comme des assiettes, à des centaines de km de la montagne Ceci correspond à une atmosphère stable, ce que l’on appelle un écoulement laminaire.
    Dans le cas d’une atmosphère instable cela peut générer des lignes de nuages de type orageux. 
    Dans le cas de reliefs très élevés et perpendiculaires au flux d’air, c’est le cas par exemple des Rocheuses, aux latitudes moyenne où le vent est de dominante Ouest, ces ondes peuvent devenir planétaires. 

    Pour ce qui concerne maintenant l’aspect thermodynamique, on se rappellera que l’air, lorsqu’il est soulevé, se refroidit tandis qu’il se réchauffe en descendant. Le taux de variation de la température dépend de l’humidité de l’air. Plus il est sec plus ce taux est élevé, passant de presque un degré par cent mètres, pour de l’air sec, à un peu plus d’un demi-degré par cent mètres, pour de l’air à saturation. 
    Lorsque l’air s’élève au vent d’une montagne sa température diminue. S’il contient suffisamment de vapeur d’eau, c’est par exemple le cas d’air qui est passé sur la mer, la vapeur d’eau se condense et forme des nuages.
    En général les nuages vont donner de la pluie. L’air qui va descendre derrière la montagne, va donc être sec. En descendant, il va se réchauffer, plus qu’il ne s’était refroidi en montant: si une grande et haute montagne se situe en travers du vent, c’est le cas par exemple des Rocheuses, l’air sous le vent des Rocheuses va être plus chaud et plus sec que celui d’avant ces montagnes, d’où la création de déserts. Un autre exemple est celui du climat de la plaine d’Alsace, sec et chaud par rapport à celui de la Lorraine. C’est la conséquence de l’existence des Vosges.
    On doit enfin signaler le cas des moussons. Ces moussons d’Asie, sont dues au contraste thermique entre la mer et le continent indien. La mousson existerait donc même si la chaîne himalayenne n’existait pas. Cependant les hauteurs d’eau considérables qui tombent sur la face sud de cette chaîne sont dues à l’amplification du phénomène dynamique par ce phénomène thermodynamique.

  • Bruno Voituriez 

    Les vents catabatiques sont des vents générés par gravité. Ils ne sont pas limités aux régions polaires: il en existe aussi dans les vallées montagneuses lorsque la nuit l'air d'altitude est refroidi beaucoup plus intensément que celui au fond de la vallée: l'air froid sous son propre poids dévale alors le long des pentes de la vallée. Sur les hauteurs du centre du continent antarctique et au Groenland où règne toute l'année un froid extrême et où le bilan radiatif est négatif se forme une sorte de dôme d'air très froid beaucoup plus dense que l'air environnant. Cet air déborde et entraîné par son poids va s'écouler dans le sens de la pente et littéralement dévaler vers la côte à des vitesses pouvant dépasser 200Km/h.

  • Jean Labrousse 

    L’atmosphère reçoit du soleil l’énergie qui la fait se mouvoir. Avec une température moyenne voisine de 15°C, la planète est en équilibre radiatif par rapport à l’espace c'est-à-dire qu’elle rayonne vers l’espace la même quantité d’énergie qu’elle en reçoit. Tout au plus le rayonnement émis, se fait dans un spectre différent du rayonnement reçu.

    La manière dont l’énergie est absorbée, transformée, échangée entre les différents milieux terrestres c'est à dire, entre l'atmosphère, l'hydrosphère, la cryosphère, la lithosphère, et la biosphère (incluant l'homme et sa plus ou moins grande sagesse), conduit à un certain équilibre qui définit le climat de l’atmosphère.

    Le climat va donc évoluer en fonction, soit de l’énergie reçue du soleil, soit de la manière dont cette énergie se transforme.

    L’énergie reçue du soleil varie soit parce que le rayonnement solaire incident varie, (taches solaires), soit parce que les paramètres astronomiques qui caractérisent les mouvements de notre planète dans l’espace, varient.
    La manière dont l’énergie qui pénètre dans l’atmosphère se répartit au sein des milieux terrestres va faire varier le fonctionnement de l’énorme machine thermique qu’est l’atmosphère et va donc mener à un climat global différent.

    C’est ici qu’apparaît le rôle du CO2 et d’un certain nombre d’autres gaz, dont la vapeur d’eau. Les propriétés radiatives de ces gaz sont telles qu’elles empêchent une partie du rayonnement infrarouge terrestre de repartir vers la haute atmosphère et l’espace et changent donc l’équilibre thermique interne du système, dont en particulier sa température moyenne.

    En fin de compte, les variations du climat sont donc la résultante de la variation de l’énergie reçue et de la variation des échanges entre les divers milieux terrestres parmi lesquels l'océan joue un rôle crucial, puisqu'il absorbe environ mille fois plus de chaleur que l'atmosphère.

    Les modèles climatiques tiennent compte de ces variations d’énergie. Ils peuvent même, par des expériences dites de sensibilité, évaluer le poids relatif de ces différentes composantes, par exemple, le poids de la diminution de l’énergie solaire liée aux taches solaires, par rapport à celui de la variation des paramètres astronomiques de la Terre.

    L’augmentation de la quantité de CO2 dans l’atmosphère, mesurée directement ou reconstituée grâce à des mesures indirectes, entraîne une modification de l’effet de serre et peut donc contribuer au changement de climat constaté, en particulier par l’augmentation des températures moyennes, mais aussi par la modification d’un certain nombre d’autres paramètres tels que la répartition des précipitations, ou le déplacement vers les pôles de certaines espèces végétales ou animales.

    On peut ici tenter une explication. Du fait de sa dynamique interne, l’atmosphère possède une certaine variabilité, par exemple, au sein d’un climat stable, les hivers sont plus ou moins chauds et le régime pluviométrique varie d’une année à l’autre. Cette variabilité qui participe à la caractérisation d’un climat donné, a des périodes mal connues qui peuvent être très longues. Lorsque l’on cherche à détecter un changement du climat, c'est-à-dire une variation qui sort de la variabilité naturelle, on choisit précisément des paramètres dont la variabilité naturelle est assez faible. Parmi ceux ci la température MOYENNE est l’un d’eux. C’est pour cela que l’on parle souvent d’abord de la température, ce qui ne signifie en aucune façon que l’on se désintéresse des autres paramètres et des changements de leurs moyennes.

    Si l’on en revient au CO2, beaucoup d’auteurs parmi les détracteurs du rôle du CO2 font remarquer que la vapeur d’eau est en beaucoup plus grande quantité dans l’atmosphère que n’importe quel autre gaz à effet de serre et que c’est sur l’eau que devrait porter les efforts et non sur ces autres gaz.

    Ce point de vue signifie, selon toute vraisemblance, que lesdits auteurs n’ont pas eu le temps de se pencher sur le contenu des modèles climatiques.

    Les équations qui régissent l’atmosphère traitent l’air comme un gaz humide, c'est-à-dire que l’eau, sous toutes ses formes, est prise en compte dans ces équations et fait partie des paramètres internes du modèle. Au contraire les autres gaz à effet de serrequi ne subissent pas de modification d’état et n’interviennent que par leur concentration, sont traités en tant que paramètres externes. Ce sont des forçages. De même que le sont les données du rayonnement solaire.

    Bien entendu les modifications de la nébulosité, (que ce soit la quantité des nuages ou leur type et leur altitude), donc son rôle sur le rayonnement arrivant du soleil ou du sol, fait partie des équations elles mêmes. Certes le traitement des nuages demande encore à être amélioré, tous les climatologistes en sont convaincus. Il résultera des avancées de la recherche dans ce domaine. Tel est aussi le cas des poussières et autres aérosols dont la prise en compte par les modèles existe mais demande à être améliorée.

    Pour en terminer avec ce point, on peut remarquer que l’influence des taches solaires mises en avant par certains météorologistes, danois en particulier, est bien entendu prise en compte dans les modèles. Ces mêmes météorologistes ont évalué le rôle de ces variations et ont montré que si l’influence était réelle, elle était du second ordre par rapport aux conséquences de l’augmentation de l’effet de serre consécutive à l’accroissement de la concentration des gaz qui en sont responsables.

  • Jean Labrousse 

    La prévision météorologique repose sur le fonctionnement de modèles mathématiques qui eux même traduisent les équations qui régissent l’atmosphère. Le système d’équations aux dérivées partielles auquel on aboutit ne possède pas de solution analytique mais on peut l’intégrer grâce à des méthodes d’approximations numériques. Par conséquent, si l’on suivait Laplace, puisque l’on connaît le temps qu’il fait au moment où commence la prévision, conditions initiales, il suffirait de calculateurs suffisamment puissants pour prévoir le temps à une date quelconque dans le futur.

    On se heurte cependant à deux difficultés qui rendent impossible le rêve de Laplace. La première c’est que l’on ne connaît les conditions initiales qu’avec une certaine approximation ; on n’a qu’un nombre restreint de mesures et ces dernières sont entachées d’erreurs inhérentes à la mesure elle-même.

    La deuxième, et Henri Poincarré l’a bien montré, les équations que nous traitons ne sont pas linéaires et, de ce fait, une variation infime de l’un des paramètres initiaux conduit à des solutions très éloignées les unes des autres. C’est ce qui a conduit Edward Lorentz à parler de « l’effet papillon », 

    "Prédictibilité : le battement d'ailes d'un papillon au Brésil peut-il provoquer une tempête au Texas ? "

    C’est ce que l’on appelle, peut être à tort la théorie du « chaos », terme non ambigu pour un mathématicien mais peut-être mal compris par les autres. 

    En effet, si l’on considère une situation météorologique donnée, que l’on fait varier légèrement les conditions initiales et que l’on intègre chaque fois les équation, on constate que les solutions donnent des trajectoires qui peuvent être très différentes les unes des autres et que la dispersion n’est pas la même selon les conditions initiales choisies. C'est-à-dire que certaines situations météorologiques sont plus prévisibles que d’autres.

    Cependant si le résultat de la prévision n’est pas unique il contient une valeur prédictive certaine. On n’arrive pas à un chaos, au sens habituel du terme dans lequel les trajectoire seraient le résultat du hasard, mais à une sorte de « chaos organisé ». 
    Les météorologistes utilisent cette propriété pour étendre l’échéance de leurs prévisions. 
    C'est-à-dire que l’on passe d’une prévision entièrement déterministe, 2 à 5 jours, à une prévision plus probabilistique, jusqu’à une dizaine de jours. Les études montrent que la limite de ces méthodes se situe vers deux semaines.

    Au-delà de ces échéances on montre que si l’on s’intéresse non pas à la valeur instantanée d’un paramètre en un point, un jour donné, mais à sa moyenne, pour une période donnée, sur une zone donnée, on obtient une prévision qui est meilleure que le hasard. Ceci est l’approche actuelle pour prévoir le temps à l’échéance du mois, de la saison, voire de l’année. On se rapproche donc du climat.

    En fait ce détour dans le monde de la prévision météorologique a simplement pour but d’expliquer que se référer à la théorie du chaos lorsque l’on parle de climat n’a pas beaucoup de sens.

    Les modèles de climat n’ont pas de valeur prédictive et nul n’a jamais prétendu qu’ils puissent en avoir.

    Certes les modèles ressemblent aux modèles de prévision ce qui est normal puisqu’ils traitent des mêmes équations qui sont celles qui régissent l’atmosphère, mais leur but est de simuler l’atmosphère. Autrement dit si l’on part des équations de l’atmosphère, et si on les intègre sur une période de temps assez longue, on doit trouver une atmosphère dont le climat ressemble fortement à celui qui est le nôtre. C’est bien ce qui se passe.

    Dans ces conditions si l’on change les conditions externes, forçage, et si l’on reprend les intégrations on doit arriver à un autre équilibre, qui est le climat avec ces conditions nouvelles de forçage.

    Par exemple si l’on choisit un certain profil d’évolution dans le temps de la concentration en CO2 dans l’atmosphère et si l’on intègre le modèle en lui imposant ce forçage, on doit arriver à un nouvel équilibre qui sera le climat modifié, par cette nouvelle concentration de CO2..

    Si l'on attend que la réalité confirme l'exactitude du modèle, en dehors d'une satisfaction purement académique, il sera bien sûr trop tard pour agir. Cependant, étant donné que  l’on peut reconstituer des climats passés, grâce à des méthodes indirectes comme par exemple l’étude des sédiment ou des carottes glaciaires, il est possible d'imposer au modèle les conditions externes (les forçages) qui prévalaient alors. On peut ensuite  vérifier que le modèle est capable de reconstituer un climat  proche de celui de l'époque reculée retenue. 

    Ces reconstitutions de climats passés permettent de valider les modèles, (ainsi d'ailleurs que l'inter comparaison de différents modèles). Pour un modèle donné, les équations restant les mêmes, c'est-à-dire les lois physiques restant inchangées, la probabilité  est forte que les résultas obtenus en imposant un forçage correspondant à une certaine évolution du CO2, par exemple doublement en 10 ans, conduisent à un climat similaire à celui que l’on connaîtra alors. C’est donc en ce sens que les modèles climatiques permettent de donner des indications fiables sur ce que pourrait être le climat dans, par exemple uns dizaine d’années. 

    Voir l'article "Qu'est-ce qu'un modèle climatique"

  • Dans son livre «Portrait du Gulf Stream», Erik Orsenna écrit que le mouvement des effondrilles dans une tasse de thé matérialise la force de Coriolis.

  • Fantaisies pour couplages échangistes  

  • En ce mois de juillet 2011 le Club des Argonautes est en deuil. Le samedi 9 juillet, à Bastia, Jean Labrousse (1932-2011) nous a quittés dans sa 79e année.

  • Yves Dandonneau 

    Les activités humaines en brulant les combustibles fossiles consomment de l'oxygène et produisent du CO2. Parallèlement à l'accroissement du CO2 dans l'atmosphère se pourrait-il que l'on vienne à manquer d'oxygène?

    L'air que nous respirons est composé majoritairement d'oxygène pour 1/5ème et d'azote pour 4/5ème environ. L'oxygène est donc présent en grande quantité dans l'atmosphère, et cela où que nous allions, sauf à des altitudes très élevées, où l'atmosphère elle même est trop peu dense, ou bien dans l'océan où, présente sous forme de gaz dissous, sa concentration dépend de son cycle au sein de l'océan. Le risque que nous venions à manquer d'oxygène ne s'est jamais présenté dans l'histoire des hommes et paraît donc lointain. Pourtant, on entend parfois dire que «l'océan fournit la moitié de l'oxygène que nous respirons», ou bien encore on va jusqu'à désigner l'Amazonie comme «le poumon de la planète». Des plantes vertes dans les appartements sont réputées assainir l'air en fournissant de l'oxygène. Sachant que l'origine de tout cet oxygène libre, respirable, est la photosynthèse des ères géologiques passées, que la vie océanique est menacée, et que la forêt amazonienne disparaît peu à peu pour laisser place à des champs cultivés, on pourrait pourtant se laisser gagner par une certaine inquiétude.
    Une description des processus qui constituent des sources d'oxygène, ou au contraire en consomment (on les appelle alors des puits), ainsi qu'un examen des stocks terrestres, montre que la concentration en oxygène de l'atmosphère est à l'abri d'une évolution catastrophique pour encore bien longtemps. Ces processus sont très variés, mais peuvent être regroupés en trois catégories :

    • la photosynthèse, qui produit de l'oxygène, et son contraire, la respiration

    • la solubilité dans les océans

    • les réactions d’oxydoréduction avec les roches.

    Quelques principes de base de la chimie de l'oxygène

    La molécule d'oxygène, O2, comprend deux atomes d'oxygène. L'isotope de masse atomique 16 est de loin le plus abondant, mais l'isotope 18O représente environ 0,2 % de la totalité, tandis que l'isotope 17O est beaucoup plus rare. Ces isotopes peuvent se comporter différemment dans certains processus et réactions (lors de l'évaporation de l'eau, par exemple) ce qui leur confère des propriétés intéressantes pour l'étude du climat ancien.
    Mais ce qui donne à l'oxygène son rôle si important dans la biosphère, c'est sa très forte tendance à s'associer à d'autres molécules : à les «oxyder». Cette propriété vient de ce qu'il n'y a sur la couche externe de l'atome d'oxygène que six d'électrons, alors qu'il en faudrait huit pour qu'il devienne stable. Ainsi, l'oxygène tend à s'associer à d'autres éléments chimiques qui, eux, ne comportent que quelques électrons sur cette couche externe et peuvent les partager avec l'oxygène : parmi ces éléments, l'hydrogène qui combiné à l'oxygène donne l'eau H20, le carbone qui donne le gaz carbonique CO2, l'azote qui donne les oxydes d'azote et l'ion nitrate NO3-, etc.
    Ces réactions de l'oxygène avec d'autres éléments s'accompagnent d'un fort dégagement de chaleur : la combinaison d'un atome de carbone et d'une mole d'oxygène dégage 394 kilojoules.
    Inversement, si on voulait récupérer l'oxygène à partir du gaz carbonique, il faudrait apporter cette énergie : viendrions nous à manquer d'oxygène, qu'il nous serait très coûteux d'en produire.

    Photosynthèse et respiration

    Lors de la formation de la Terre, l'atmosphère était dépourvue d'oxygène libre, et ne permettait donc pas le développement de la vie tel que nous la connaissons maintenant. Ce n'est qu'à partir de l'apparition d'un assemblage de molécules, capable d'enlever un atome d'oxygène à la molécule de gaz carbonique en utilisant l'énergie lumineuse émise par le soleil, que ce gaz, très abondant dans l'atmosphère primitive, a peu à peu décru au profit de l'oxygène, aboutissant à l'atmosphère telle que nous la connaissons et qui a assez peu changé depuis des millions d'années. Cet assemblage de molécules a permis aux végétaux d'effectuer la photosynthèse de la matière organique dont l'équation simplifiée peut s'écrire comme suit :

    6 CO2 + 6 H2O → C6H12O6 + 6 O2

    Le composé symbolisé par la formule C6H12O6 représente les hydrates de carbone qui sont un composant essentiel de la matière vivante, et aussi son carburant. L'élaboration d'une matière vivante, plus diversifiée et plus complexe, requiert de l'énergie et celle ci est fournie par l'oxydation d'une partie de ces hydrates de carbone ou autre composé issu de la vie, via la respiration, qui s'opère par la réaction inverse :

    C6H12O6 + 6 O2 → 6 CO2 + 6 H2O

    La respiration fournit l'énergie nécessaire à la croissance et à l'activité des organismes, et aussi à l'activité des micro-organismes responsables de la dégradation de la matière organique excrétée par les organismes ou de celle des cadavres de ces derniers. Au terme de ces processus, lorsque toute la matière vivante aura été dégradée, autant d'oxygène aura été consommé par la respiration qu'il en a été produit par photosynthèse.

    Océan et terres émergées se comportent différemment

    Sur les terres émergées comme dans les océans, photosynthèse et respiration ont lieu simultanément, mais certaines périodes ou situations peuvent favoriser l'un ou l'autre de ces processus, et la séparation entre les deux se fait de façon très différente selon qu'on considère les terres émergées ou les océans.
    Sur les terres émergées, aux hautes latitudes, au printemps et en été c'est la photosynthèse qui domine, et s'exerce dans les feuilles, tandis qu'en automne et en hiver, ces feuilles sont décomposées au niveau du sol par des micro organismes dont la respiration fait décroître la teneur en oxygène de l'atmosphère (figure 1). Dans les régions tropicales soumises à une alternance saison sèche – saison des pluies, la croissance des végétaux, très ralentie faute d'eau en saison sèche, a lieu en saison des pluies, et alors la production d'oxygène l'emporte sur la respiration. Au contraire, en saison sèche, le manque d'eau conduit à un dépérissement des feuillages et, la chaleur aidant, les processus de dégradation de la matière organique dominent. Photosynthèse et respiration tendent donc à être séparées dans le temps (sauf en région équatoriale où le rythme saisonnier est moins marqué).

    Figure 1 : schéma simplifié du cycle du carbone sur les terres émergées. L'oxygène y suit un cycle inverse : une absorption de gaz carbonique au niveau des feuilles (par photosynthèse) correspond à une émission d'oxygène, tandis que la respiration consomme de l'oxygène et produit du gaz carbonique

    La même séparation dans le temps s'observe aussi en mer, mais là, on a surtout une séparation dans l'espace : la photosynthèse a lieu exclusivement dans la couche éclairée de l'océan – approximativement : les 100 premiers mètres, tandis qu'une grande partie de la respiration est le fait de l'activité bactérienne qui s'exerce aux dépends des débris issus de l'écosystème superficiel lors de leur lente chute vers la profondeur. Or, l'océan superficiel ne se mélange que très lentement avec les eaux profondes. Le fond des océans est occupé par des eaux qui ont été en contact avec l'atmosphère 1000 ans auparavant environ, qui se sont alors saturées en oxygène, mais qui ont ensuite plongé et n'ont plus connu que la respiration : leur contenu en oxygène y a diminué peu à peu (figure 2).
    D'autre part, la surface des océans, qui reçoit un flux d'énergie solaire qui varie en fonction des saisons, est plus chaude en été qu'en hiver. Indépendamment de toute vie, ces variations de température mettent en jeu des flux d'oxygène de la mer vers l'atmosphère ou inversement, car la solubilité de l'oxygène dans l'eau dépend de la température. La formule empirique simple est :

    O2 (mg/litre) = (475 - 2,65 S) / (33,5 + T)

    où S est la salinité en g/l et T est la température en °C (Gameson et Robertson, 1955). Le phénomène dominant est causé par l'oscillation été / hiver de la température. En hiver, les océans qui se refroidissent absorbent de l'oxygène, et ils en émettent en été lorsqu'ils se réchauffent. Ce schéma simple est modifié par les courants marins lorsque ceux ci portent des eaux chaudes vers les pôles où inversement des eaux froides vers l'équateur, ou bien encore lorsque la formation de glace de mer fait barrière aux échanges de gaz entre l'océan et l'atmosphère.

    Figure 2 : quelques profils caractéristiques d'oxygène dissous dans les océans. Près de la surface, on observe toujours des concentrations élevées, dues à la dissolution jusqu'à saturation de l'oxygène atmosphérique ainsi qu'à la photosynthèse. Sous ce maximum, les concentrations décroissent du fait de la consommation d'oxygène par les bactéries qui dégradent les détritus issus de la surface. Plus profond, les concentrations remontent, d'une part parce que peu de détritus y parvienne sans être dégradés auparavant, et d'autre part parce que ces eaux profondes se sont formées aux hautes latitudes, dans des zones froides, et que la solubilité de l'oxygène s'accroît lorsque la température baisse.

    L'action combinée des terres émergées et des océans sur l'oxygène atmosphérique

    Photosynthèse, respiration et dissolution dans l'eau de mer agissent simultanément et font varier la concentration de l'atmosphère en oxygène. Ces variations ont été mesurées par Keeling et Shertz (1992) en trois endroits de la planète : en Alaska, en Californie et en Tasmanie. Dans les deux premiers, tous deux situés dans l'hémisphère nord, on observe un maximum d'oxygène atmosphérique en été et un minimum en hiver. Le maximum d'été est principalement dû à la photosynthèse sur les terres émergées qui caractérisent cet hémisphère. En hiver, respiration et dissolution dans l'eau de mer plus froide se combinent pour donner lieu à un minimum. Entre le maximum et le minimum, l'écart est d'environ 26 ppm (parties par million) en Alaska, et de 20 ppm en Californie. Cet écart est moindre en Tasmanie (18 ppm), l'hémisphère sud étant essentiellement occupé par les océans et la photosynthèse terrestre n'y jouant qu'un faible rôle. Ces variations saisonnières sont très petites comparées à la concentration en oxygène qui est environ 200 000 ppm. La plus forte, celle observée en Alaska, n'en représente que 0,013 %. Un changement des océans, ou de la photosynthèse globale (même s'agissant de l'Amazonie, ce pseudo - « poumon de la planète »), ne semble donc pas pouvoir menacer la qualité de l'atmosphère à moyen terme.

    La perturbation anthropique

    Depuis plus d'un siècle, l'homme satisfait ses besoins en énergie en brûlant du charbon et des hydrocarbures issus de la photosynthèse des ères géologiques passées. Cette combustion consomme de l'oxygène. De même, l'accroissement de la population mondiale a conduit à défricher les forêts pour les remplacer par des cultures. Cette pratique a aussi pour résultat une consommation d'oxygène. D'une part la biomasse que constitue la forêt, très élevée, est pour une bonne part transformée en gaz carbonique. D'autre part les pratiques agricoles génèrent un appauvrissement des sols par dégradation de la matière organique qu'ils contiennent (l'humus). Cette dégradation est le fait d'organismes qui respirent et qui consomment donc de l'oxygène. Les diminutions correspondantes se font au total au taux d'environ 4 ppm/an soit environ 0,002 % du contenu en oxygène de l'atmosphère.
    Là encore, il n'y a donc pas lieu de craindre un manque dans les décennies à venir, à moins que les émissions de gaz carbonique par l'homme aillent croissant pendant longtemps, ce qui paraît exclu par le simple fait que le bouleversement climatique serait alors tel que nous serions en terrain inconnu, dangereux, et hors de portée de notre imagination. À des horizons moins catastrophiques, atteindre 1000 ppm de gaz carbonique dans l'atmosphère (soit une augmentation de 600 ppm) correspondrait à une baisse de l'oxygène atmosphérique d'approximativement 1200 ppm, soit 0,6 % du stock actuel.

    Des scénarios catastrophe ?

    L'oxygène a tendance à s'associer à d'autres substances chimiques pour les oxyder (les brûler). Ainsi, des stocks de carbone ou de matière organique qui ne participent pas actuellement au cycle de la matière vivante pourraient «partir en fumée» en incorporant de l'oxygène. La matière organique des sols en est un exemple comme on l'a vu plus haut lorsque des forêts sont mises en culture. Les stocks de carbone oxydable sont disponibles dans le 5ème rapport du GIECC. Sachant qu'un atome de carbone oxydé en une molécule de gaz carbonique consomme une molécule d'oxygène, un calcul rapide donne, en cas d'une oxydation globale rapide de ces stocks, les ordres de grandeur suivants (pourcentages de diminution de l'oxygène atmosphérique) :

    • oxydation des hydrocarbures (gaz) - 0,19 %

    • oxydation des hydrocarbures (pétrole) - 0,07 %

    • oxydation du charbon - 0,16 %

    • oxydation de la matière organique des sols - 0,64 %

    • oxydation du permafrost - 0,55 %

    Pétrole, gaz et hydrocarbures, s'ils font peser une menace sur le climat, ne peuvent donc causer, dans le cas improbable d'une exploitation totale, qu'une décroissance modérée de la concentration en oxygène de l'atmosphère. Sols et permafrost, incluant les tourbières, ont un pouvoir de nuisance plus élevé. Surtout, la stabilité de ces derniers est menacée par le réchauffement global, et si, en termes d'oxygène, les conséquences seraient supportables, elles seraient catastrophiques en termes de gaz carbonique et d'effet de serre.
    Un autre domaine qui présente un fort potentiel pour réduire la concentration en oxygène de l'atmosphère est l'océan profond, au dessous de 300 m : là se trouvent en quantités gigantesques des eaux très sous-saturées en oxygène. Si elles remontaient en surface, ces eaux auraient la capacité d'absorber l'oxygène de l'atmosphère jusqu'à leur saturation. Ce scénario n'est toutefois pas réaliste dans le contexte du réchauffement du climat, car ce dernier rend les eaux de surface plus chaudes et plus stables, renforçant ainsi l'effet de couvercle par lequel elles empêchent les eaux froides profondes d'entrer en contact avec l'atmosphère.
    Non, ni un dysfonctionnement de l'océan après lequel il cesserait de fournir de l'oxygène à l'atmosphère, ni une oxydation massive des stocks de carbone terrestres, ne sont de taille à réduire sensiblement la concentration en oxygène de l'atmosphère.

    Réferences :
    Gameson, A. L. H., etRobertson, K. G. (1955) The solubility of oxygen in pure water and sea-water. Journal of Applied Chemistry, 5 (9) : 502.
    Keeling, Ralph F. et Shertz, Stephen . (1992) Seasonal and interannual variations in atmospheric oxygen and implications for the global carbon cycle. Nature, 358 : 723-727.

  • Au regard de l’évolution de la pensée scientifique, météorologie et climat sont à l’origine antinomiques :

  • Comment l'observer? Comment l'estimer au mieux?

     Jean Pailleux  

    De quel vent parle-t-on?

    La description et la compréhension des phénomènes affectant l'océan et l'atmosphère passent par l'observation ou l'estimation d'un grand nombre de variables essentielles, parmi elles le vent. Ces phénomènes sont particulièrement complexes dans le domaine d'interaction entre l'atmosphère et la surface terrestre (océanique ou continentale). Cette complexité se traduit en particulier par une forte variabilité spatio-temporelle des mouvements de l'atmosphère qui reste vraie jusqu'à des échelles très petites pour météorologues et climatologues (de l'ordre du décamètre sur l'horizontale et de la dizaine de secondes). Cette forte variabilité a conduit les météorologues à définir une variable «Vent vectoriel horizontal à 10 mètres au-dessus de la surface du sol», notée V10m. Ce vent, fixé conventionnellement à 10 m, est aussi moyenné conventionnellement sur 10 minutes de temps, de façon à permettre une observation et un traitement global assez homogènes de la variable vent horizontal (près du sol) sur la planète. Il est loin d'être suffisant pour décrire l'ensemble des phénomènes atmosphériques, et les météorologues lui associent souvent la notion de «vent instantané» qui est plutôt moyennée sur 3 à 5 secondes (toujours à 10 m au-dessus du sol). Une variation brutale (en quelques secondes) du vent instantané est appelée «rafale». Le «vent en rafales» tel qu’indiqué par plusieurs stations d’observation est la valeur maximale de la vitesse du vent instantané sur une période de quelques minutes (généralement 10). Dans les situations météorologiques classiques, les rafales sont parfois 2 à 3 fois supérieures en vitesse au V10m moyenné sur 10 minutes.

    Malgré ces efforts de normalisation, le vent à 10 m reste souvent mal défini quand il s'agit de savoir à quelle particule d'air il s'applique exactement et de quelle échelle horizontale il est représentatif. Cela est vrai dans les zones continentales montagneuses, et aussi sur les océans : quand la surface de l'océan est affectée par des vagues de 10 m de haut, que peut signifier un vent à 10 m au-dessus de l'océan moyenné sur 10 minutes, et comment le mesurer, comment l'estimer ? On rejoint ici la complexité de l'interaction entres les deux couches limites (océanique et atmosphérique) qui a donné lieu à tant de recherches car elle est fondamentale pour la modélisation de l'atmosphère, de l'océan et du système climatique dans son ensemble.

    Beaucoup de variables essentielles pour décrire l'interaction océan-atmosphère ne peuvent pas être mesurées directement, mais estimées indirectement, c'est-à-dire modélisées. Quand cette modélisation est simple (régression statistique, mini-modèle 1D de couche limite atmosphérique) on parle «d'observation traitée ou pré-traitée». Quand elle est plus complexe on dit que la variable est «modélisée ou analysée». 

    Des données de vent pour observer le changement climatique.

    Yves Dandonneau

    Le vent représente un des éléments constitutifs du climat, et il est une des possibilités de stockage de l'énergie du système climatique. L'énergie cinétique qu'il représente est en effet l'une des formes susceptibles d'héberger le surcroît d'énergie lié au changement climatique en cours. Affiner la connaissance de la répartition de ce surcroît d'énergie entre ces diverses possibilités, est nécessaire pour mieux comprendre comment évolue le système climatique : une représentation précise de l'évolution des champs de vent sur toute l'épaisseur de l'atmosphère, mais plus particulièrement à la surface des océans, régionalement , est un enjeu important dans le contexte du changement climatique. Cependant, à l'heure actuelle, il n'est en général pas possible de dire avec certitude si la vitesse du vent augmente ou diminue à la surface des océans, du fait de la rareté des observations sur toute l'épaisseur de l'atmosphère, en particulier dans la couche limite atmosphérique.

    Or, comme cela est expliqué en détail dans cette FAQ, estimer globalement le vent à la surface des océans est difficile. C'est un paramètre qui a une très forte variabilité et les mesures directes sont trop peu nombreuses et de qualité souvent insuffisante. L'essentiel de l'information est fourni par des satellites équipés d'un diffusiomètre, en particulier l'instrument ASCAT du satellite européen Metop, ou encore RAPIDSCAT qui a fait l'objet d'une expérience pendant quelques mois sur la Station Spatiale Internationale (ISS). Grâce aux diffusiomètres, on peut traduire en termes de vitesse et de direction du vent l'écho d'une émission de micro ondes. D'autres instruments satellitaires émettent aussi un signal micro ondes et en analysent le retour : les altimètres. La mission première de ces derniers est d'observer de façon opérationnelle le niveau marin afin d'en décrire la montée due au réchauffement climatique. L'analyse du retour du signal dépend aussi chez les altimètres de l'état de surface de l'océan et permet donc d'estimer, non pas la direction du vent, mais sa vitesse. Cette information serait de peu d'utilité si celles données par les diffusiomètres étaient pleinement satisfaisantes, mais ce n'est bien sûr pas le cas : il subsiste des problèmes de couverture spatiale, et de gamme de vitesse de vent couverte. Ces problèmes existent aussi pour les altimètres, mais avec des différences. En particulier, la surface élémentaire détectée par les altimètres est environ dix fois plus petite que celle détectée par les diffusiomètres, ce qui permet d'obtenir des données plus près des côtes. Plusieurs éléments indiquent que la prise en considération des données de vent issues des altimètres améliorerait notre connaissance des champs de vent.

    Mais cela doit préalablement passer par une amélioration des algorithmes de restitution du vent, par des inter-étalonnages des différents systèmes, et par un retraitement global de l'ensemble des données. Ce traitement global doit produire trois types d'observation de façon cohérente à partir du signal altimétrique brut : le niveau de la mer, la hauteur des vagues et le vent à 10 m. Cela doit ensuite passer par une réanalyse de l'ensemble des données relatives au climat. Ce n'est qu'après une telle réanalyse qu'on pourra disposer de champs de vent suffisamment précis pour pouvoir quantifier leur évolution dans le cadre du changement climatique. Même si (comme c'est probable) la réanalyse n'utilise la donnée altimétrique que sous forme de hauteur des vagues, la production des observations altimétriques de vent reste nécessaire pour une validation de l'ensemble du système . Et la qualité de cette réanalyse sera d'autant meilleure que les données altimétriques qu'elle assimilera seront complètes et précises. Outre cette utilisation dans les réanalyses, les séries d'observations de vents produites à partir des altimètres sont potentiellement intéressantes, en particulier pour étudier les petites échelles horizontales (plus fines que 10 km) que ne peuvent atteindre les réanalyses.

    D'un point de vue technique, cela ne présente pas de difficulté majeure. Mais il y faut des spécialistes, de l'organisation, et puisqu'il faut envisager ce projet comme opérationnel, sans limite de temps, des engagements institutionnels. Ceci manque actuellement : la restitution des observations de vent à partir des données des (seuls) diffusiomètres est prise en charge ; celle du niveau marin à partir des altimètres l'est aussi. Mais une prise d'engagement et une répartition des tâches sont à mettre en place si on veut une surveillance continue du vent associant de manière optimale et cohérente toutes les données disponibles.

    Les observations de vent à 10 m

    Il n'existe pas de séparation nette entre les observations qui seraient de pures mesures instrumentales d'une part, et d'autre part celles qui ne seraient accessibles que par la modélisation. Dans l'atmosphère, l'océan, et plus particulièrement dans les couches limites qui font l'interface entre les deux, l'on dispose d'un ensemble de variables plus ou moins proches de la mesure pure ou de la modélisation pure, mais presque toujours intermédiaires entre les deux.

    Sur l'océan V10m est accessible par les systèmes d'observation suivants :

    • anémomètres et girouettes montés sur les bateaux ;
    • anémomètres et girouettes montés sur des bouées ancrées ou dérivantes ;
    • radiomètres micro-ondes embarqués sur des satellites ;
    • diffusiomètres embarqués sur des satellites ;
    • altimètres embarqués sur des satellites.

    Les observations de bateaux et de bouées sont assez proches de la mesure pure, la partie traitement comprenant la calibration d'un anémomètre et d'une girouette, ainsi que la gestion du mouvement du mât de mesure. Mais elles souffrent de deux limitations :

    • elles respectent mal les normes (vent à 10 m moyenné sur 10 minutes par exemple), et donc sont affectées d'une forte erreur de représentativité, que les utilisateurs doivent s'efforcer de filtrer ;
    • elles échantillonnent mal l'océan global du fait de la couverture de données limitée aux zones fréquentées par les navires de commerce et fortement variable au cours du temps.

    Les vents diffusiométriques, altimétriques ou radiométriques (micro-ondes) sont au contraire très éloignés du statut de mesures directes, la mesure brute caractérisant plutôt l'état de la mer (vagues, houle, etc...) à partir de laquelle on essaie d'estimer la vitesse du vent à 10 m par divers modèles, et, dans le cas du diffusiomètre d'estimer aussi la direction. L'estimation d'un V10m se fait généralement par un centre de traitement qui s'appuie sur un modèle de couche limite 1D, lui-même nécessitant la connaissance d'autres variables météorologiques au point d'observation (température de la surface de la mer, température de l'air à diverses altitudes, indice de stabilité de la couche limite...). Cela rend le V10m difficile à estimer de manière indépendante pour chaque point d'observation, sans information météorologique annexe. La meilleure estimation du V10m ne peut être obtenue que par un traitement cohérent dans l'espace 3D et dans le temps, c'est-à-dire via un modèle sophistiqué assimilant les mesures sous une forme aussi authentique que possible.

    La couverture de données d'un diffusiomètre embarqué (par exemple l'instrument à large fauchée ASCAT sur METOP) permet de bien échantillonner le vent océanique puisqu'elle recouvre presque tout l'océan non gelé en 12 h de temps. Elle est néanmoins tronquée par les surfaces océaniques de banquise sur lesquelles le diffusiomètre ne peut pas estimer le vent. De plus le domaine échantillonné fluctue au rythme des saisons du nord au sud en suivant le gel et la fonte de la banquise.

    Les données radiométriques micro-ondes présentent généralement les mêmes propriétés que les données diffusiométriques en terme de couverture de données, avec une limitation de plus : elles permettent de restituer la vitesse du vent mais pas sa direction. De son côté, le diffusiomètre permet d'estimer la direction du vent, même si, en fonction de la géométrie de la mesure, il laisse parfois une incertitude entre 2 ou 4 directions possibles.

    Les données altimétriques de vent sont restituées par des traitements un peu semblables aux données diffusiométriques, mais elles ne permettent pas d'observer la direction du vent, et surtout la couverture de données est beaucoup plus limitée du fait que l'observation ne se fait actuellement qu'au nadir sous la trace au sol de l'orbite du satellite (au lieu d'une fauchée de plusieurs centaines de km).

    Comme expliqué précédemment, on ne peut pas simplement classer les données météo-océaniques en deux catégories, celles qui seraient des observations pures, et celles qui résulteraient d'une modélisation. En réalité, on a un spectre continu de données obtenues en partie par la mesure, en partie par la modélisation (ou une fusion avec d'autres données, ce qui n'est rien d'autre qu'une modélisation simple). Le vent à 10 m (V10m) se situe assez franchement du côté «modélisation», surtout pour les données obtenues à partir des satellites.

    De l'autre côté de ce spectre (observé vs modélisé), la température de surface de la mer (SST) est une variable essentielle du système climatique qui est obtenue très directement à partir de mesures. On peut même l'estimer quasi globalement avec seulement des mesures de bateaux et de bouées, alors qu'il existe maintenant une multitude d'instruments spatiaux, surtout des radiomètres infrarouges, instruments pouvant s'inter-calibrer entre eux et avec les mesures in-situ. En y joignant les réseaux conventionnels des stations terrestres mesurant la température de l'air près du sol («sous-abri»), on peut estimer facilement la température à la surface de la Terre moyennée sur tout le globe, principal indicateur global du changement climatique.
    Voir la FAQ : «Quelles observations pour estimer la température à la surface de la Terre?»

    Monitoring et assimilation dans les modèles des données de vent à 10 m

    Les observations de vent effectuées sur bouées et bateaux ont toujours été utilisées en prévision numérique du temps et aussi pour les réanalyses. Elles nécessitent souvent un prétraitement pour réaffecter à 10 m une mesure effectuée à une autre altitude. Un monitoring opérationnel vérifie au quotidien leur disponibilité et leur qualité, plate-forme par plate-forme, dans la plupart des centres de prévision. L'expérience montre qu'elles sont surtout utiles dans le cadre d'une analyse 3D combinant le champ de vent et le champ de masse, où elles aident à bien placer les centres dépressionnaires et anticycloniques (plus que pour donner la valeur précise du vent au point d'observation).

    Les observations de vent diffusiométriques sont monitorées depuis 1991 (ERS1) et sont assimilées depuis 1996 dans beaucoup de modèles météorologiques. Le Technical Memorandum du CEPMMT N° 629 datant de 2010, et la bibliographie qui l'accompagne, expliquent en détail qu'un diffusiomètre n'observe pas exactement un V10m, ce qui a conduit pendant près de 20 ans à tâtonner beaucoup pour rechercher une bonne donnée interface entre des observations diffusiométriques et les systèmes d'assimilation, ainsi qu'un bon opérateur d'observation associé. Cette publication de Herbasch est un bon exemple de la complexité attachée aux opérateurs d'observation qui permettent de traiter les données satellitaires afin d'en restituer un V10m de façon cohérente dans l'espace et le temps. Le traitement des observations brutes fait constamment l'objet de recherches, de développements et d'améliorations. Lorsqu'une nouvelle réanalyse est planifiée, il est souvent important de refaire le traitement complet des observations de ce type, afin de garantir l'homogénéité de la série temporelle qui en résulte.

    Une particularité des vents diffusiométriques est que certaines données observées se présentent sous forme d'un «vent ambigu» : la vitesse est mesurée (en fait plutôt estimée), mais 2 ou 4 directions sont possibles. Le lever d'ambiguïté se fait toujours en confrontant l'observation à son équivalent «modèle», ce qui revient à la confronter à l'ensemble des autres sources d'information disponibles sur l'état de l'atmosphère ou de l'océan.

    Les observations de vent (vitesse seulement) résultant de la radiométrie micro-onde ont été assimilées épisodiquement dans les modèles opérationnels. Mais au CEPMMT (et probablement aussi dans la plupart des autres centres du même type), les systèmes d'assimilation de données utilisent plutôt les sondeurs sous forme de radiances (quantité plus proche de la mesure brute que ne peut l'être un vent à 10 m, nécessairement traité ou modélisé). Le choix actuel consiste donc à assimiler directement les canaux micro-ondes servant de base au traitement des vents à 10 m. Les canaux des sondeurs satellitaires font l'objet d'un suivi par les outils de monitoring, au même titre que les autres observations. La présentation de Lotfi Aouf fournit une estimation de ce que peuvent apporter les radiomètres micro-ondes (en 2016) à l'analyse des vagues et du vent à la surface de l'océan, en particulier des vents obtenus à partir du satellite SMOS (instrument MIRAS) au voisinage des cyclones tropicaux : "On the use of SMOS winds in the wave model MFWAM"

    Les observations de vent altimétrique (vitesse seulement) n'ont pas été utilisées directement dans les modèles atmosphériques de prévision, du moins en Europe. Mais certaines entrent quotidiennement dans l'assimilation du CEPMMT, de façon passive, ce qui permet de les soumettre au monitoring et de comparer leurs performances avec les autres systèmes d'observation de V10m. Il faut surtout noter que les modèles globaux de prévision et de climat sont de plus en plus des systèmes de modèles couplés «océan – vagues - atmosphère». Dans le cas du CEPMMT, l'observation altimétrique entre bien dans le système, mais en étant assimilée dans le modèle de vagues plutôt que dans le modèle atmosphérique, sous forme de «Significant Wave Height» (SWH) plutôt que sous forme de vent restitué à 10 m. La Newsletter 149 du CEPMMT et son article de Saleh Abdalla donne un état de l'art de l'usage des données altimétriques dans les modèles atmosphériques, océanographiques et modèles de vagues.

    Il s'agit à la fois des modèles de prévision opérationnels et des réanalyses. Pour les réanalyses, la construction de jeux de données altimétriques homogènes est utile, y compris pour les données de vent, même si ces dernières ne servent qu'en mode validation (par le monitoring). L'utilisation de ces jeux de données altimétriques se résume actuellement ainsi :

    • donnée altimétrique sur la hauteur de l'océan (SLA : Sea Level Anomaly) assimilée dans les modèles océaniques ;
    • donnée altimétrique sur les vagues (SWH : Significant Wave Height) assimilée dans les modèles de vagues ;
    • donnée altimétrique sur les vents à 10m assimilée dans aucun modèle, mais utilisée en mode validation par rapport au modèle atmosphérique.
    • Et comme ces 3 modèles sont couplés, l'information altimétrique entre dans tous.

    Que disent les systèmes de monitoring sur la qualité et la quantité de ces observations ? Que disent les études d'impact ?

    Le monitoring de Météo-France est actuellement (2017) accessible sous la page du site de Météo France : "METEOROLOGICAL DATA MONITORING"

    On peut y suivre la situation en termes de quantité d'observations disponibles, et aussi en termes de qualité par inter-comparaison des différentes sources d'information, soit au jour le jour, soit sur une période récente de l'ordre de 2 mois, soit encore en remontant sur une plus longue période du passé. Se laisser guider par les mots clés comme «Data coverage maps», ou «Satellite observations». Dans le menu on peut choisir par exemple «Scatterometer» pour «Observation type», puis comparer avec d'autres observations.

    Le monitoring du CEPMMT est accessible sur la page : "Monitoring of the observing system"

    Puis procéder comme pour le monitoring de Météo-France, naviguer en se laissant guider par les différents boutons du menu permettant de choisir le type d'observation, le type de diagramme ou de carte, l'intervalle horaire d'observation, etc...

    En termes de quantité de données disponibles, le nombre de points d'observation de vents Jason-2 est presque 100 fois plus petit que le nombre de points d'observation de vents METOP-A (échantillonnage altimétrique deux ordres de grandeur en-dessous de celui du diffusiomètre – observation seulement au nadir pour l'altimètre – monitoring début 2017).

    Concernant la qualité des observations, les indicateurs classiques du monitoring sont les moyennes (biais) et écarts-types des quantités «Obs-Guess» et «Obs-Analyse». Pour tous les diffusiomètres et altimètres examinés à ce jour (printemps 2017), l'écart-type de «Obs-Guess» oscille toujours aux environs de 1.5 m/s : il faut l'interpréter comme la comparaison entre chaque vent satellitaire et la meilleure estimation de ce vent au même point prenant en compte tous les autres types d'observation (sauf le vent satellitaire lui-même). On observe une forte variabilité des biais lorsque l'on passe d'un instrument à l'autre (Metop-A à Metop-B par exemple concernant les diffusiomètres ASCAT) ou même d'un angle de visée à l'autre.
    L'étude de ces biais et écarts-types (et de leur variabilité dans l'espace et le temps) se fait dans les différents centres de prévision numérique : ces études permettent de corriger des défauts soit dans le traitement des données de base, soit dans le système d'assimilation ; ces corrections sont importantes en vue des futures réanalyses car elles permettent de retraiter les séries d'observation en les perfectionnant, tout en perfectionnant le système d'assimilation.

    On ne note donc pas de différence systématique de qualité entre les différents instruments que l'on peut examiner : diffusiomètres disponibles en temps réel, altimètre de Jason, RapidScat, etc. Ce dernier instrument (testé sur la station spatiale internationale), malgré quelques fluctuations de qualité, a été intégré pendant quelques mois dans l'assimilation opérationnelle de Météo-France (et aussi du Met Office britannique). Il a cessé de fonctionner le 19 août 2016.

    Par rapport aux mesures in-situ, la principale faiblesse affectant à la fois les vents diffusiométriques et altimétriques apparaît dans les diagrammes de dispersion du monitoring : c'est l'incapacité à mesurer les vents extrêmes, soit parfaitement calmes, soit supérieurs à 25m/s. Ce point est documenté dans la présentation de Giovanna Di Chiara et Saleh Abdalla au séminaire du CEPMMT de septembre 2014. Voir en particulier les diagrammes de dispersion de ses diapos 31 et 32.

    Paradoxalement, la même présentation montre des études expliquant que les vents diffusiométriques aident de manière significative à la localisation et à la prévision de cyclones tropicaux (où le V10m dépasse parfois les 40 m/s et même les 100 m/s en rafales). Ceci s'explique par le fait que les cyclones sont souvent entourés d'une «ceinture» de vents de l'ordre de 10 à 20 m/s, vus par les diffusiomètres. Assimilés de façon cohérente avec les autres observations (pression, température) ces données diffusiométriques permettent de mieux caractériser la position du centre du cyclone, sa forme et sa structure. En synergie avec les autres observations, les données diffusiométriques peuvent donc beaucoup, même si elles peuvent peu par elles-mêmes. Les résultats de Lotfi Aouf (lien ci-dessus) conduisent à une conclusion analogue, appliquée aux vents issus de la radiométrie micro-onde (SMOS).

    Les deux publications suivantes (de Saleh Abdalla et Giovanna Di Chiara, en 2015) font un résumé exhaustif de l'impact des diffusiomètres et des altimètres sur les analyses et prévisions du CEPMMT :

    Active techniques for wind observations: scatterometer

    Active techniques for wind and wave observations: radar altimeter

    L'on y étudie comment diffusiomètres et altimètres affectent les analyses et prévisions des trois modèles couplés : océan, vagues, atmosphère. Il est par exemple assez remarquable que les observations altimétriques de SARAL (assimilées seulement dans le modèle océanique et le modèle de vagues) affectent la prévision météorologique en pression et température de manière détectable même à une échéance de 4 à 7 jours (figure 14 de la publication du dernier lien).

    Le suivi du changement climatique est très exigent pour les équipes en charge des réanalyses, surtout en termes de cohérence pour les recherches, restitutions et retraitements de séries anciennes de mesures observées. Voir dans la Newsletter du CEPMMT (N°144, page 8) l'article «Rescuing satellite data for climate» (par Paul Poli et al.) :

    Il est important que ce travail soit effectué lors de la planification de chaque nouvelle réanalyse pour la plupart des observations de satellites, en particulier celles des diffusiomètres et des altimètres.    

    Mise à jour en février 2021                                                                                                

  • François Barlier avec le concours des membres du Club des Argonautes

    Introduction

    La manière dont tourne la Terre dépend de la façon dont elle est faite. Observer la rotation de la Terre permet en retour d’avoir des informations fondamentales sur la constitution de la Terre et sur son évolution liée à la redistribution spatiale et permanente des masses et de leur quantité de mouvement. En effet la Terre n’est pas un corps solide ; c’est un corps élastico-visqueux fait de couches concentriques de différentes compositions :

    • une graine solide,
    • un noyau liquide,
    • un manteau visqueux,
    • une couche solide, la lithosphère
    • et la croûte terrestre,

    le tout entouré d’une couche liquide, les océans, et d’une couche gazeuse, son atmosphère. De nombreuses interactions et échanges, très complexes et variables au cours du temps, existent entre les différentes couches.
    On observe notamment une redistribution des masses et des échanges de quantité de mouvement en relation notamment avec des phénomènes météorologiques, climatologiques, océanique, hydrologique.

    Comment cela impacte la rotation de la Terre est une question qui est abordée ci-dessous.

    Les paramètres de la rotation de la Terre

    La rotation terrestre est caractérisée par un axe instantané de rotation qui se déplace sur la croûte terrestre (c’est le mouvement du pôle) et dans l’Espace (c’est le mouvement de précession-nutation).

    L’Espace est défini par le système de références célestes, lICRF ou International Celestial Reference Frame adopté par les instances internationales, astronomiques, géodésiques, géophysiques.

    La rotation est aussi caractérisée par la vitesse de rotation de la Terre autour de cet axe, vitesse qui est variable mais qui définit la longueur du jour (la LOD ou - Length Of Day-). Comme on le sait en accord avec la mécanique d’un solide en rotation, ces cinq paramètres ne sont pas strictement indépendants, mais les nouvelles techniques d’observation, notamment spatiales, permettent de les déterminer séparément de manière très avantageuse et avec une très grande précision (environ : 0,007 milliseconde de temps - noté ms - et 0,1 milliseconde de degré d’arc ou milli-arcseconde - noté mas -).

    La vitesse de rotation de la Terre autour de son axe principal

    La vitesse de rotation de la Terre n’a jamais été constante au cours des temps géologiques ; elle a décru continuellement en moyenne mais avec cependant des fluctuations importantes tantôt un peu plus rapide que sa valeur moyenne, tantôt au contraire un peu plus lente. Il en résulte que la durée du jour n’a jamais non plus été constante. Quand la Terre tournait sensiblement plus vite, il y a quelques centaines de millions d’année, la durée du jour était ainsi beaucoup plus courte, elle était d’environ 22 heures il y a 350 millions d’années ; ce faisant le nombre de jours dans l’année correspondant au temps nécessaire au mouvement de la Terre autour du Soleil était plus grand, aux environs de 400 jours. On peut noter que ceci est compatible avec une décroissance moyenne de 2 ms par siècle de la durée du jour sur ces temps géologiques, comme on a pu l'estimer en comptant les stries quotidiennes dans les anneaux de croissance annuels des coraux fossiles sur ces temps géologiques.

    La vitesse de rotation de la Terre dépend de plusieurs facteurs tels que :

    • le caractère élastico-visqueux de la Terre et l'attraction gravitationelle de la Lune qui la ralentissent (phénomène de marée),
    • le rebond post glaciaire qui l'accélère,
    • le mouvement des milieux fluides que sont l'atmosphère, l'océan, les glaciers et les cours d'eaux,
    • les effets saisonnier ou interannuel comme le phénomène El Niño.

    Ces éléments inter-agissent entre eux et peuvent même se neutraliser à certaines périodes.

    L'origine de la décroissance séculaire de la vitesse de rotation de la Terre est désormais assez bien comprise. La Terre étant un corps élastico-visqueux, l'attraction gravitationnelle de la Lune crée un bourrelet autour de la Terre dont l’axe n’est pas strictement aligné avec la direction de la Lune, ce qui serait le cas si la Terre était un corps parfaitement élastique. Il y a un petit angle de déphasage entre les deux axes qui génère un couple de freinage réduisant progressivement la vitesse de rotation de la Terre, et ce faisant, en accord avec les lois de la mécanique céleste, freine aussi progressivement la vitesse du mouvement de la Lune autour de la Terre, Lune qui s’éloigne ainsi de la Terre au rythme actuel de 3,8 cm/an. Dans le langage de cette mécanique, on dit alors qu’il y a transfert du moment cinétique de rotation de la Terre au moment cinétique du mouvement de la Lune autour de la Terre, car on peut considérer que le moment cinétique total de l'ensemble est conservé. Ceci s’accompagne aussi automatiquement au sens de cette mécanique d’une diminution de l’énergie cinétique de rotation de la Terre sur elle-même. Pendant longtemps les astronomes et les géophysiciens se sont demandés où pouvait se trouver dissipée cette énergie car une première explication, correcte mais insuffisante, donnait la dissipation des marées lunaires dans les mers peu profondes mais cela ne pouvait expliquer qu’une partie de cette dissipation d’énergie. Les mesures du niveau des mers par altimétrie spatiale (mission spatiale franco-américaine TOPEX/Poséidon lancée en 1992) ont apporté la solution : les marées lunaires (en fait les marées luni-solaires) se dissipent également dans des mers profondes contre les dorsales océaniques en engendrant des ondes internes. Ces ondes ont une signature altimétrique très faible en surface de l’ordre du centimètre ; on croyait au départ qu'il n’était pas possible de la mesurer mais cela a été fait.

    L’interprétation des données d’observation de la LOD montre qu’un autre phénomène doit aussi être pris en compte pour comprendre correctement les variations à très long terme de cette LOD ; il s’agit du rebond post glaciaire lié à la déglaciation de la Terre qui a eu lieu principalement dans les régions septentrionales de latitude élevée ; cette déglaciation a commencé il y a environ 20 000 ans, mais elle se traduit encore aujourd'hui par une lente remontée continue de l'altitude de certains pays nordiques au-dessus du niveau de la mer (en prenant en compte l'augmentation du niveau moyens des mers) ; elle est notamment bien mise en évidence dans les pays scandinaves. Au niveau de la Terre considérée globalement, ceci se traduit par une redistribution des masses autour de l’axe principal d'inertie de la Terre avec une lente diminution séculaire de l’aplatissement de la Terre qui devient progressivement moins aplatie au pôle ; globalement il y a un transfert de masses des régions de basses et moyennes latitudes en direction des régions polaires ; il génère ainsi une diminution du moment principal d’inertie et donc d’après les lois de la mécanique, il génère une augmentation de la vitesse de rotation de la Terre. Ce phénomène est en opposition avec le premier phénomène lié au freinage de la rotation par les marées qui génère au contraire une diminution de cette vitesse de rotation. On peut penser pour comprendre ce genre de phénomènes au patineur qui rapproche plus ou moins ses bras de son corps pour tourner plus ou moins vite. La diminution de l’aplatissement est équivalente à ce phénomène. D’une valeur théorique de l’augmentation séculaire de la LOD de 2,3 ms/siècle due au phénomène de dissipation de la marée lunaire, on peut en déduire une nouvelle valeur corrigée de la LOD soit environ 1,8 ms/siècle. Cette valeur est de fait plus proche de ce qui peut être observé aujourd'hui ; ainsi à partir d’une série de l’IERS (International Earth Rotation Service à l’Observatoire de Paris/ département du Syrte) de 1830 à 2015- la série dénommée "C 02" de l’IERS – on estime l’augmentation de la composante séculaire de la LOD à environ 1,5 ms/siècle pour cette période et cette série. Cependant, on observe en même temps de grandes fluctuations de plusieurs millisecondes de la LOD à caractère multidécennal ce qui gêne l'estimation exacte de la composante séculaire (figure 1 ci-dessous).

    Figure 1 – Variation de 1830 à 2000 de la durée du jour (LOD) (d’après l’IERS-Syrte- Observatoire de Paris, série C 02). On observe bien une tendance à la croissance de la LOD qui croit sur cette figure selon un rythme proche de 1,5 ms/siècle.

    Un point complémentaire doit être donné maintenant. La variation séculaire de l’aplatissement terrestre déterminée aujourd'hui par télémétrie laser avec grande précision est une autre façon d'estimer la composante séculaire de la LOD ; elle confirme ses résultats ; comme on l'a dit, il y a en effet une relation physique entre la LOD et la variation de l’aplatissement de la Terre. Cette variation temporelle peut être déterminée avec grande précision par des mesures de télémétrie Laser sur les satellites comme Lageos, Starlette ; la comparaison de la LOD avec cette dernière permet alors de confronter et de conforter les résultats obtenus sur des principes très différents et d'assurer une bonne fiabilité des résultats.

    À partir de différentes analyses de la LOD, on peut observer en plus de ce qui a été dit des écarts entre observation et modélisation qui traduisent des variations, soit à caractère irrégulier de la LOD, soit à caractère multidécennal (plusieurs dizaines d’années) ; l’amplitude relative de ces variations peut atteindre plusieurs millisecondes et parfois beaucoup plus et peut être attribuée pour partie après analyses et discussions à des couplages noyau-manteau ; il y a des échanges de moments cinétiques entre le manteau et le noyau liquide, soit par un couplage de nature électromagnétique ou par un lien avec la topographie de la frontière noyau-manteau ; on ne sait malheureusement pas encore très bien les modéliser et bien les comprendre et l’impact exact reste un problème ouvert. À noter que dans ces analyses, il est nécessaire de prendre en préalable en compte tout ce qui peut être bien connu par ailleurs. Ainsi on sait modéliser les variations induites par les composantes zonales des marées luni-solaires qui doivent donc être prises en compte a priori, et cela pour pouvoir ensuite estimer le plus correctement possible les contributions d’autres sources géophysiques envisageables, celles en particulier d’origine atmosphérique, océanique, hydrologique. Il y a enfin des variations de la vitesse de rotation avec des périodes sensiblement plus courtes à caractère annuel, semi-annuel, saisonnier (figure 2) et même à caractère diurne et semi-diurne qui sont devenues observables en dépit de leur petitesse (seulement quelques dizaines de microsecondes) grâce à la technique de l’interférométrie à grande base (VLBI ou Very Long Base Interferometry).

    Figure 2 – Corrélation entre la variation observée de la LOD (en rouge) et sa variation théorique, liée aux mouvement des enveloppes fluides que sont l'océan et l'atmosphère. On peut en effet la calculer à partir de données météorologiques et altimétriques (en bleu) (d’après l’IERS- Syrte –Observatoire de Paris).

    De même, les composantes de marée diurnes et semi-diurnes de la LOD se corrèlent de manière remarquable avec les prédictions du moment angulaire de la marée de l’océan mondial issues de modèles fondées sur des données altimétriques du satellite Topex-Poséïdon (figure 3, d’après B.F Chao, EOS vol.84, n°16, 2003).

    Figure 3 - Les composantes de marée diurnes et semi-diurnes (en bleu) se corrèlent de manière remarquable à partir des prédictions (en rouge) du moment angulaire de la marée de l’océan mondial issues de modèles fondées sur des données altimétriques du satellite Topex-Poséïdon (d’après B.F Chao, EOS vol.84, n°16, 2003). Pour le lecteur intéressé, voir sur cette page, les trois graphes donnant respectivement les corrélations de la LOD avec le moment angulaire du noyau modélisé sur le long terme (voir la variation de la LOD sur la Figure 1), les corrélations de la LOD avec le phénomène El Niño (à comparer aussi avec la Figure 4) et à nouveau la corrélation de la LOD avec des composantes de marée diurne et semi-diurne en la situant dans le temps.

    La qualité et la complémentarité des observations disponibles permettent de mettre en évidence de petites variations de la vitesse de rotation liées au rythme des saisons.

    Comme effet saisonnier, on doit noter un ralentissement de cette vitesse de rotation au printemps (nord) et une augmentation en automne (nord). On observe aussi des anomalies de vitesse générées avec le développement du phénomène océanographique bien connu El Niño (figure 4 et aussi figure 3).

    Figure 4 - Corrélation entre la durée du jour et l’indicateur (SO1) de El Niño (SO1 est fonction de la différence de pression entre Tahiti et Darwin(Australie) (d’après A.Cazenave, et Kurt Feigl, formes et mouvements de la Terre, satellites et géodésie, la croisée des sciences, CNRS éditions -Belin- 1994 ).

    Ces variations sont liées en effet à des variations importantes du régime des vents induisant des échanges de moments cinétiques entre Terre solide et enveloppes liquides et gazeuses. Dans le cas du phénomène El Niño, on sait en effet que le régime des vents alizés qui soufflent dans les zones équatoriales et tropicales du Pacifique est profondément modifié voire inversé. On sait aussi que ce phénomène débute par un transfert d'une importante masse d'eau de l'ouest du Pacifique vers l'est. Finalement, si l’on porte sur un même graphique sur une durée de quelques années, 2008-2012 (figure 2), la variation de la LOD observée et celle calculée à partir du moment cinétique d’origine atmosphérique et océanique, on observe une corrélation excellente. En résumé, on sait très bien comprendre les fluctuations de la vitesse de rotation de la Terre sur le court terme. Sur le plus long terme, le problème est plus ouvert avec des questions non encore bien résolues.

    La décroissance séculaire de la vitesse de rotation de la Terre peut même se trouver totalement masquée pendant plusieurs décennies et paraître même ne plus exister, voire accélérer dans le sens opposé. Il n'est plus nécessaire de ce fait de faire des sauts de secondes intercalaires additionnelles pour que le Temps Universel Coordonnée qui sert de temps légal, fondé sur les horloges atomiques, puisse rester toujours assez proche d'un temps universel fondé sur la vitesse de rotation de la Terre (jadis utile pour des raisons de navigation maritime, mais toujours maintenu pour des raisons politiques, avec l'impossibilité d'obtenir à ce jour un accord unanime des pays concernés ) ; ainsi entre 1999 et 2004, il n'y a pas eu de sauts de secondes intercalaires.

    Le mouvement du pôle

    L’axe instantané de rotation de la Terre perce la croûte terrestre en un point qu’on appelle le pôle instantané. Ce pôle dont on détermine les coordonnées cartésiennes dans un plan tangent à la Terre à partir d’un point «origine» conventionnelle se déplace continûment sur la croûte terrestre (dans l’océan Arctique ce point origine est proche (quelques mètres) du pôle d’inertie de la figure de la Terre et proche aussi du pôle nord géographique conventionnel - voir l’encadré hors texte sur les définitions des différents concepts de pôles utilisés ; on peut déjà noter que dans l’océan Arctique ce point « origine" est proche(quelques mètres) du pôle d’inertie de la figure de la Terre) ; ce mouvement se fait en accord avec les lois de la mécanique dans un carré petit, moins de 20 mètres sur 20, ce qui permet de définir un pôle moyen de rotation. Ce pôle moyen toutefois n’est pas fixe lui-même comme on peut le constater sur des observations et des analyses à long terme ; il se déplace lentement au cours du temps (à environ 4 millisecondes de degré d’arc par an, milliseconde de degré d’arc qui vaut environ 3 cm à la surface de la Terre) ; c'est un déplacement approximativement linéaire et de type séculaire, au départ en 1900 en direction du Groenland mais avec des sauts ou des variations brutales non négligeables au cours du temps (figure 5).

    Figure 5 - Le mouvement du pôle et sa dérive (d’après l’IERS-Syrte-Observatoire de Paris). En rouge, le déplacement cyclique, d'une période de 430 jours environ, et en noir, le déplacement moyen.

    On estime aujourd'hui que l’origine de la composante séculaire principale de ce mouvement est liée au lent rebond postglaciaire, et que les accidents apparemment chaotiques du mouvement sont dus surtout à des transferts de masse d'origine hydrologique entre continents et océans ou d'origine atmosphérique. Il faut retenir que tout transfert de masse quelle qu'en soit l'origine provoque un déplacement sur la croûte terrestre du pôle de l'axe principal d'inertie ; il est en effet directement fonction de la distribution des masses de la Terre ; mais il génère alors un déplacement relatif du pôle de cet axe principal d'inertie par rapport au pôle de l'axe instantané de rotation.

    Pour entrer plus dans la compréhension détaillée de l'origine du mouvement du pôle à différentes échelles de temps, on doit considérer maintenant l'analyse des différentes composantes périodiques de ce mouvement. On peut déjà noter que depuis très longtemps les analyses sur la décomposition spectrale des coordonnées du pôle en fonction du temps ont permis de reconnaître (dès la fin du XIX éme siècle), les deux premiers termes périodiques prépondérants ; il y a d'abord un premier terme correspondant à un mouvement du pôle de type circulaire avec une période comprise entre 430 et 433 jours (en prenant en compte l'élasticité de la Terre) et une amplitude temporellement variable entre 30 et 300 millisecondes de degré d’arc ou milli-arcseconde- noté mas- (c’est le terme de Chandler mis en évidence par Chandler) ; ensuite, il y a un second terme avec une période annuelle et une amplitude de l’ordre de 100 mas. Le terme de Chandler d’après les lois de la mécanique correspond à un mouvement «libre» qui se poursuit tout seul et dont l’amortissement peut se faire entre 15 et 75 ans (ce n’est pas encore bien connu avec précision aujourd'hui) ; cela permet d’affirmer l’existence de processus d'excitation générant des variations temporelles de l’amplitude et de la phase du terme de Chandler car par ailleurs l'amplitude de ce terme s'amortit ; il y a notamment les marées générées dans les régions polaires qui dissipent l'énergie associée à ce mouvement du pôle ; concernant l’origine des processus générant inversement des variations du terme de Chandler on a pensé pendant longtemps et avec raison qu’elle était à rechercher dans des phénomènes se produisant dans l’atmosphère et les océans. En revanche, le processus physique exact demeurait non certain et problématique ; on n’arrivait pas à modéliser correctement les variations observées du terme de Chandler. Cependant en 2000, Richard Gross (voir référence à la fin) proposa un processus physique qui apparut en revanche très intéressant et valable : l’origine serait à rechercher dans des variations de pression s’exerçant sur le fond des océans, variations causées par des variations de température et de salinité et par des variations de la circulation des océans générée par les vents. Il y aurait aussi une contribution liée aux variations de la pression atmosphérique sur la surface terrestre mais dont les effets seraient comparativement un peu plus petits dans le rapport deux tiers un tiers. Mais de manière plus récente Christian Bizouard (Bizouard et al., A&A, 526, A106, 2011) a encore repris la question en s’appuyant sur la modélisation de la circulation atmosphérique et océanique d’une part et une nouvelle estimation des composantes du terme chandlérien (amplitude et phase) d’autre part. Le résultat de Christian Bizouard est très convaincant et est encore confirmé dans son dernier ouvrage sur le mouvement du pôle (voir les figure 6 et la référence du livre de C.Bizouard à la fin).
    Il est opportun de citer aussi une étude assez récente sur le phénomène El Niño (Marcus, S. L., O. de Viron, and J. O. Dickey (2010), Interannual atmospheric torque and El Niño–Southern Oscillation: Where is the polar motion signal?, J. Geophys. Res., 115, B12409, doi:10.1029/2010JB007524); cette étude va dans le même sens que les travaux cités précédemment et confirme la forte influence de El Niño sur la LOD comme on l' a dit plus hautj ; elle indique également une influence sensiblement moindre sur le mouvement du pôle. Ceci s’explique par la symétrie de la circulation atmosphérique par rapport à l’équateur, mais en revanche l’asymétrie des deux hémisphères Nord et Sud en relation avec leurs surfaces respectives de continents et d’océans conduit à donner une plus grande importance à l’action de l’océan et des transferts hydriques continents -océans pour comprendre le mouvement du pôle tel qu’il est observé; le mouvement du pôle est en effet plus sensible à une asymétrie des mouvements et des pressions exercée sur le fond des océans et sur les continents, comme cela ressort de l’étude de Richard Gross. A titre d’information, et sans entrer dans plus de détails, on peut ajouter que ces considérations sont importantes pour étudier la variabilité proprement dite du phénomène El Niño, qui a conduit à considérer deux types de El Niño avec leurs impacts différents sur la LOD et de ce fait à approfondir les relations entre les échanges atmosphère-océans et la rotation de la Terre.(de Viron, O., and J. O. Dickey, 2014, The two types of El Niño and their impacts on the length of day, Geophys. Res. Lett., 41, 3407–3412, doi:10.1002/2014GL059948)

    Figure 6- Variations d’amplitude et de phase de l’oscillation du terme de Chandler observée et celle modélisée (d’après Christian Bizouard et al. , A et A, 526, 2011) exhibées sur les graphes de la partie supérieure.
    Les graphes de la partie inférieure représentent respectivement le mouvement observé du pôle en trois dimensions (à gauche) et le terme de Chandler extrait du mouvement du pôle observé (à droite).

    Tout cela montre que l’on peut désormais modéliser aujourd’hui les variations du terme de Chandler de manière très satisfaisante, et cela à partir de la modélisation de la circulation océanique et atmosphérique. Ce résultat n’invalide pas l’intérêt de poursuivre certaines autres recherches. Parmi les impacts possibles, on pense à certains événements sismiques exceptionnels liés à d'énormes déplacements de masse. Le terme annuel avec une amplitude de l’ordre de 100 mas correspond par contre clairement à un mouvement «forcé» par le déplacement saisonnier de masses atmosphériques et hydrologiques que l’on sait estimer.

    Dans le détail, le mouvement du pôle doit se décrire aussi en incluant d’autres termes périodiques mais en général de plus petite amplitude comme on le voit aussi sur la figure 6, graphes inférieures. Il y a ainsi un terme du mouvement du pôle découvert par Markowitz correspondant approximativement à une périodicité de l’ordre de 25 ans et avec une amplitude de 15 à 20 mas. On met également en évidence d’autres variations de période comprise entre 10 et 15 ans mais avec encore des plus faibles amplitudes. Il existe enfin des variations avec des périodes encore plus courtes entre 200 jours et 10 ans et même encore plus courtes avec des périodes comprises entre 2 et 100 jours. L’origine de tous ces termes périodiques qui sont révélés par l’analyse de l’observation du mouvement du pôle n’est pas immédiate ; elle doit se trouver dans l’analyse parallèle des processus géophysiques d’échanges possibles de masse avec leurs constantes de temps et leurs périodes envisageables pour les différentes couches composant le système Terre ; les phénomènes à considérer sont essentiellement de nature atmosphérique, océanique, hydrologique ; on doit inclure aussi les relations impliquant les couches internes de la Terre, le noyau, le manteau.

    Il importe dans la recherche et l’estimation des différentes causes d’excitation géophysique de retrancher au préalable tout ce qui est peut-être bien connu a priori, ainsi les termes dus aux marées océaniques, aux déformations de la Terre par les marées zonales, ou encore liés à l’existence du mode libre de l’axe de rotation due au noyau fluide de la Terre ; même si ces termes sont petits et nombreux, ils sont bien connus par la théorie et il faut les retrancher avant toute analyse sur les sources possibles d’excitation.

    En conclusion tout transfert ou déplacement de masse à l'intérieur du système Terre quelle qu'en soit l'origine notamment météorologique ou climatologique provoque un déplacement du pôle d'inertie et donc aussi un déplacement relatif par rapport à lui du pôle de rotation. Pour interpréter et comprendre le mouvement du pôle, il est donc essentiel de pouvoir faire avec précision le bilan de ces transferts et déplacements des masses à toutes les échelles de temps et d'espace. La mission spatiale Grace (2002) va permettre d’évaluer ces transferts avec une précision jusqu’alors inégalée.

    Une révolution en 2002 : Apport des données de la mission spatiale Grace (2002) pour la modélisation du mouvement du pôle.

    Un point très important qui va dans le sens exprimé plus haut doit être maintenant souligné. Il est désormais possible d'avoir une bien meilleure prise en compte des transferts de masse d’origines diverses (calottes glaciaires, glaciers continentaux, hydrologie des bassins fluviaux, continents, océans) et cela sur des durées de quelques semaines ou de quelques années ; ces transferts sont mesurés à partir des données du satellite germano-américain Grace lancé en 2002. Ce satellite a pour objet la détermination du champ de gravité et de sa variation temporelle liée à des redistributions des masses de la Terre. Ces redistributions et ces transferts de masse sont liés notamment et à titre d’exemples à la fonte des glaces du Groenland et de l’Antarctique (qui répartit uniformément sur les océans des masses antérieurement confinées près des pôles) et aux transferts hydrologiques entre continents, bassins fluviaux et océans (qui, selon les épisodes de pluie ou de sécheresse, stocke ou libère de grandes quantités d'eau depuis les océans dans leur globalité vers les zones émergées concernées, ou inversement). En anglais, on parle de l’impact des variations du «Terrestrial Water Storage and Global Cryosphere Storage», voir l'article de Adhikira cité en référence à la fin. Ce faisant sur la période 2003-2015, il a été ainsi possible de manière remarquable de bien représenter le mouvement du pôle à partir de l’intégration des équations fondamentales de la rotation des corps ; on observe ainsi, d’après les auteurs cités en référence, que sur la période certes assez courte entre 2005 et 2011, que le mouvement du pôle moyen suit sur cette durée une tendance distincte de la dérive séculaire moyenne du mouvement du pôle observée et admise depuis 1900 jusqu’alors (figure 5) ; elle pourrait avoir changé de direction en lien avec les phénomènes géophysiques évoqués plus haut (phénomènes météorologiques et climatiques). Il faut noter que dans le passé on a déjà observé de telles fluctuations et le mouvement du pôle moyen a toujours eu un aspect un peu erratique mais on ne savait pas très bien s’il s'agissait d'une réalité ou d’incertitude dans les données et dans leur traitement. Ce qui est en fait le plus intéressant ici est désormais la possibilité aujourd’hui de reproduire avec grande précision, le mouvement du pôle moyen grâce aux données de la mission Grace ; il faut noter la grande importance des transferts de masse entre océans, bassins fluviaux et calottes glaciaires. Cela peut remettre en cause l’importance peut-être surestimée ou mal estimée d’autres processus comme les interactions noyau-manteau. Les données de Grace et des observations associées comme les données laser sur Lageos apparaissent désormais fondamentales et à prendre obligatoirement en compte pour toute interprétation des phénomènes. Tout n’est pas encore évidemment compris, loin de là et des recherches sont à poursuivre.
    Mais il convient surtout ne pas arrêter les observations des paramètres de la rotation terrestres qui sont à poursuivre plus que jamais sur le très long terme, tout comme aussi l’observation spatiale des nombreux paramètres géophysiques par satellite pouvant jouer un rôle dans la rotation de la Terre.

    Conclusion et perspectives

    Des progrès très importants ont été faits dans la mesure des paramètres de la rotation terrestre à partir de toutes les techniques spatiales (GPS/GNSS, Doris, Laser, VlBI).

    Dans la modélisation des paramètres de la rotation de la Terre, il faut distinguer les composantes astronomiques, généralement très bien connues, des composantes géophysiques (météorologiques, atmosphériques, climatologiques, océanographiques, hydrologiques) plus difficiles à prévoir, voire imprévisibles.

    On sait traduire avec une grande précision l'effet d'un changement de régime des vents sur la durée du jour. Mais on ne sait pas calculer ce changement de régime des vents d'après une variation de la durée du jour, car comme on l'a vu, trop de phénomènes géophysiques interviennent.

    Par contre, on sait de mieux en mieux observer ces phénomènes et les mesurer grâce aux nouvelles techniques spatiales (satellites météorologiques type Météosat, satellites altimétriques et océanographiques type Jason, satellites dédiés à l’étude champ de gravité - satellites Grace et Lageos –satellites dédiés à l’environnement terrestre et solaire qui est aussi à prendre en compte à travers des phénomènes climatiques).

    Ces connaissances, en constante amélioration, permettent de comprendre de mieux en mieux les changements qui interviennent dans le système Terre et leurs conséquences sur sa rotation.

    Les interactions noyau-manteau avec leurs implications dans la rotation de la Terre demeurent encore difficiles à appréhender, mais les satellites dédiés à l’étude du champ magnétique terrestre devraient pouvoir y contribuer en liaison avec les autres techniques géophysiques, comme la sismologie. Il y a un enrichissement réciproque de la connaissance entre les observations, l’interprétation des paramètres de la rotation terrestre, et les données géophysiques de toute origine.

    Remerciements et reconnaissance

    Beaucoup des explications et des informations données sont tirées d’un livre publié très récemment en 2017 par le Bureau des longitudes «Les Références de Temps et d’Espace, un panorama encyclopédique : Histoire, Présent, et Perspectives», coordonné par Claude Boucher avec le concours de Pascal Willis, chez Hermann, 2017.
    On a puisé tout particulièrement des informations et des références dans les chapitres portant sur la Rotation de la Terre rédigés par Nicole Capitaine du Bureau des longitudes et de l’Observatoire de Paris (département du Syrte). On doit aussi indiquer une synthèse extrêmement détaillée du sujet avec tous ses aspects historiques par Kurt Lambeck en 1980 «The Earth’s variable rotation: geophysical causes and consequences, Cambridge University Press,1980» et une autre plus récente par Helmut Moritz et Ivan Mueller «Earth rotation, theory and observation, the ungar ublishing company, 1987».
    À noter l’article de Richard Gross «The excitation of the Chandler wobble», Geophys. Res. Lett., vol 27, 15, 2000, p 2329-2332».
    Il faut signaler aussi l’article «Climate-driven polar motion 2003-2015» dans «Advances Sciences» du 8 avril 2016 par Adhikira et al. et portant sur la prise en compte des données du satellite Grace et encore l'ouvrage par Anny Cazenave et Kurt Feigl «Formes et mouvements de la Terre, satellites et géodésie, la croisée des sciences», CNRS éditions -Belin- 1994.
    Beaucoup des figures sont tirées de l’IERS, Service de l’Observatoire de Paris, département du Syrte sous la responsabilité de Christian Bizouard ainsi que de son article «C.Bizouard et al., 526, A106 (2011)» mais voir finalement aussi beaucoup d’informations et des figures dans le livre «Le mouvement du pôle de l’heure au siècle, Modélisation géophysique» par Christian Bizouard, édition paf, Presses académiques francophones, 2014.

  •  Long fleuve tranquille ou torrent tumultueux ?

    Yves Dandonneau 

    En absorbant le rayonnement infra rouge émis par la Terre, le gaz carbonique contribue à réchauffer le climat. Du fait de la combustion de charbon ou d'hydrocarbures pour satisfaire la demande d'énergie due aux activités humaines, la concentration de ce gaz dans l'atmosphère a fortement augmenté, passant de 280 parties par million (ppm) avant l’ère industrielle à plus de 400 ppm actuellement.
    Le réchauffement du climat causé par cette augmentation est régulièrement observé, et les trois dernières années ont été les plus chaudes depuis qu'existe un réseau d'observations météorologiques.

    Après des années d'études et de débats contre ceux qui doutaient que les rejets de gaz carbonique dus aux activités humaines aient un rôle dans le réchauffement climatique, les accords signés à Paris à l'issue de la vingt et unième conférence des parties en novembre 2015, ont semblé inaugurer une période de convergence de vues sur le changement climatique, et une forte volonté internationale pour prendre des mesures, afin de réduire ces émissions et de limiter le réchauffement en cours. Depuis cet accord historique, pourtant, on assiste à davantage de controverses que de mises en œuvre des mesures qu'il conviendrait de prendre.

    En premier lieu, le temps imparti est souvent mal compris : il faudrait très vite prendre ces mesures, alors que le réchauffement n'est évoqué que pour la fin du 21e siècle. Il y a aussi la limite, fixée à + 1,5 °C par rapport à la période pré-industrielle, qui constitue un objectif très ambitieux (trop ambitieux ?), qui sera certainement difficile à respecter. De plus, la pollution de notre environnement et les menaces qu'elle fait peser sur la santé, la baisse de la biodiversité, constituent d'autres menaces, qui ont parfois les mêmes causes que le réchauffement climatique, mais pas forcément les mêmes remèdes. Et il y a la manière dont le monde est dirigé, organisé en États qui se sont définis au cours de l'histoire par des rivalités plus que par la coopération.

    Dans les lignes ci-dessous, nous tentons de fournir un cadre qui permette de situer dans les rouages de l'évolution du climat, les questions qui surgissent actuellement.

    L'effet de serre et le réchauffement climatique

    Le mécanisme par lequel l'accumulation de gaz carbonique dans l'atmosphère conduit à un réchauffement du climat, est désigné par le terme effet de serre (voir encart) et a déjà été analysé dans nos pages. Il a fait l'objet de nombreuses attaques de la part des climatosceptiques, prétendant en particulier qu'au delà d'une saturation que nous avons déjà atteinte, davantage de gaz carbonique dans l'atmosphère ne produirait plus aucun effet, ce qui est inexact. Or, il y a un effet, faible – aux concentrations actuelles en gaz carbonique, la Terre émet environ 1 W/m2 de moins que ce qu'elle reçoit du Soleil – mais durable. Cette différence constitue le «déséquilibre radiatif»

    Le gaz carbonique n'est pas le seul gaz dans l'atmosphère à absorber le rayonnement infra rouge émis par la Terre, mais c'est son injection par l'homme en grande quantité dans l'atmosphère qui est la cause principale du réchauffement du climat. La vapeur d'eau, le méthane, les oxydes d'azote, l'ozone, sont aussi des gaz à effet de serre.
    La vapeur d'eau contribue davantage à l'effet de serre que le gaz carbonique ; elle participe au cycle naturel de l'eau, et multiplie par 2 environ l'action du gaz carbonique car le réchauffement du climat a pour conséquence d'augmenter sa concentration dans l'atmosphère.


    À concentration égale à celle du gaz carbonique, le méthane possède un potentiel de réchauffement 30 fois supérieur. Heureusement, sa concentration est beaucoup plus faible, et il tend à se transformer en gaz carbonique par oxydation au bout de quelques années. Il représente toutefois une menace pour le climat si les réserves qui sont piégées dans les sols gelés venaient à être libérées dans l'atmosphère.

     

     

    Sur une Terre sans océans et sans glaces, la réponse de la température à l'effet de serre serait très rapide, de l'ordre de quelques jours. Mais les océans participent à ces flux d'énergie, et leur capacité calorifique est 1000 fois plus grande que celle de l'atmosphère. C'est un peu comme si on voulait ajuster le chauffage dans un appartement situé dans un immeuble non chauffé : avant d'atteindre un régime d'équilibre, il faudrait attendre que l'ensemble de l'immeuble ait été réchauffé lui aussi. Ainsi, 93 % de la chaleur emmagasinée par l'effet de serre est capté par les océans, 3 % étant capté par la fonte des calottes polaires et des glaciers. Ceci explique la lenteur de la réponse du système climatique, lenteur qui n'incite pas à prendre très vite les mesures qui conviendraient.

    Quand le réchauffement s'arrêtera-t-il ?
    À une concentration en gaz carbonique (ou, plus généralement, en gaz à effet de serre) donnée, correspond théoriquement une température d'équilibre du système climatique, et le réchauffement prendra fin lorsque cette température sera atteinte. Un doublement de la concentration en gaz carbonique (voir encart ci-dessous) dans l'atmosphère par rapport à la période préindustrielle (soit 560 ppm) correspondrait, en régime stabilisé, à une augmentation la température que l'on estime comprise entre 1,5 et 4,5 °C : la limite de 1,5 ou 2 °C fixée par l'Accord de Paris serait franchie.

    Deux processus contribuent à faire évoluer la température de la Terre vers une stabilisation :

    1. plus cette température est élevée, plus la Terre rayonne vers l'espace, ce qui tend à réduire l'écart avec le rayonnement reçu du Soleil, c'est à dire le déséquilibre radiatif, et
    2. les puits (océans, biosphère terrestre) et sources (carbone fossile) de gaz carbonique font évoluer la concentration en gaz carbonique de l'atmosphère, modifiant ainsi la cause de l'effet de serre.
    L'habitude a été prise de comparer les différentes prévisions de l'évolution du climat en prenant comme base l'hypothèse d'un doublement de la concentration en gaz carbonique de l'atmosphère. La réponse du système climatique à ce doublement est désignée par le terme de sensibilité climatique, « transitoire » si son calcul est basé sur les données dont nous disposons, ou « à l'équilibre » s'il se base sur des projections à long terme. Les estimations de la sensibilité climatique à l'équilibre divergent selon les modèles de climat utilisés, autour d'une valeur médiane de + 3 °C .
     

    Actuellement, nos émissions de gaz carbonique sont telles que sa concentration dans l'atmosphère continue d'augmenter, tandis que la hausse très lente de la température moyenne globale ne suffit pas à réduire le déséquilibre radiatif, qui s'accroît d'année en année. Réduire cette concentration est l'enjeu principal pour limiter le réchauffement climatique.

    Réduire la concentration en gaz carbonique de l'atmosphère

    Le gaz carbonique est introduit dans l'atmosphère (sources) par la combustion du carbone fossile, par la fabrication de ciment, et par le changement d'usage des sols (déforestation notamment). Il en sort (puits) par dissolution dans les océans et par absorption par la végétation.

    La combustion du carbone fossile a été, et demeure, notre principale source d'énergie, et malgré les engagements à la réduire, les émissions de 2016 ont été légèrement supérieures à celles de 2015, et ajoutent chaque année environ 2 ppm de gaz carbonique à celui qui était déjà présent dans l'atmosphère. Nous arrivons ainsi à 407 ppm en décembre 2017. Consommer moins de carbone fossile a de fortes implications dans toutes les activités humaines et ne se fera pas sans une forte volonté d'y parvenir.

    Les océans réagissent à l'ajout de gaz carbonique dans l'atmosphère en en absorbant rapidement environ 20 % des émissions annuelles, suffisamment pour tendre vers un équilibre de pression partielle de CO2 entre l'atmosphère et la partie superficielle des océans. L'absorption du CO2 se poursuit ensuite à un rythme beaucoup plus lent, conditionné par le mélange de la couche de surface avec les eaux profondes. On estime que si on stoppait totalement les émissions, il faudrait 100 ans à l'océan seul, pour résorber 20 % de la fraction du CO2 émis qui s'est accumulée dans l'atmosphère, et que 1000 ans plus tard, il en aurait absorbé 50%.
    Il ne faut donc pas compter sur les océans, dont il est irréaliste de penser modifier le comportement, pour résorber rapidement l'excès de CO2 de l'atmosphère.

    Les écosystèmes terrestres, eux, sont plus sensibles à l'action de l'homme. Ainsi, depuis des décennies, par nos pratiques agricoles (qui tendent à appauvrir les sols en matière organique) et par la déforestation, les hommes ont rejeté d'énormes quantités de CO2 dans l'atmosphère. Ce processus est réversible. Depuis une dizaine d'années, ces émissions décroissent légèrement. La mise en œuvre de pratiques résolument orientées vers un stockage accru de matière organique dans les sols pourrait contribuer à faire très significativement décroître la concentration en CO2 de l'atmosphère. Par ailleurs, l'augmentation de la concentration en CO2 stimule la croissance de la végétation terrestre, et cet effet fertilisant a pour conséquence une augmentation de la masse de carbone stockée dans les végétaux. Ceci peut constituer un puits pour environ 25 % de nos émissions de CO2.

    S'il est difficile de stimuler le puits océanique de carbone, la végétation terrestre et les sols offrent un réservoir très vaste où un changement de nos usages peut, pour un coût modéré, extraire du gaz carbonique de l'atmosphère. Cela ne suffira toutefois pas pour faire baisser la concentration de ce gaz dans l'atmosphère à un niveau compatible avec des températures supérieures de seulement 1,5 ou même 2 °C aux températures de l'époque pré-industrielle : il faudra en outre recourir à un coûteux piégeage industriel du CO2, basé sur des énergies renouvelables et non pas sur du carbone fossile, ce qui ne ferait qu’aggraver la situation.

    La route sera longue, mais sera-t-elle sûre?

    Le système climatique est porteur de menaces qui pourraient se traduire par un emballement du réchauffement en cours. Ainsi, la réduction des calottes de glace des pôles qui réfléchissent vers l'espace une part de l'énergie reçue du Soleil, s'accompagne d'un gain d'énergie pour le climat. Lequel gain d'énergie entraîne une réduction accrue de ces calottes polaires et une moindre réflexion vers l'espace de l'énergie reçue du Soleil : cette rétroaction positive déjà engagée, ne semble pas pour le moment devoir évoluer de façon catastrophique, mais un réchauffement trop intense pourrait la déclencher.

    Autre menace : la fonte du pergélisol.
    Les sols gelés des régions subarctiques contiennent d'énormes quantités de matière organique et de méthane. Le dégel de ces régions libérerait de grandes quantités de ce puissant gaz à effet de serre et accentuerait le réchauffement, favorisant d'autant plus le dégel : c'est encore là une rétroaction positive qui causerait un réchauffement incontrôlable.

    La végétation terrestre, on l'a vu, bénéficie pour le moment d'une concentration en gaz carbonique dans l'atmosphère plus élevée que par le passé, et constitue ainsi un puits de carbone. Mais les températures de plus en plus élevées, et les conditions de sécheresse qui progressent dans certaines régions, peuvent finir par nuire à la croissance des végétaux et par accélérer l'oxydation de la matière organique des sols. Le puits de carbone que constituent les écosystèmes terrestres perdrait ainsi de son efficacité, et réduire la concentration de l'atmosphère en gaz carbonique deviendrait alors d'autant plus difficile.

    La probabilité de la mise en route de ces rétroactions augmente à mesure que le climat se réchauffe. Elle augmentera donc tant que le réchauffement durera, c'est à dire tant qu'un déséquilibre radiatif positif sera à l’œuvre.  

    Le seul moyen de réduire cette tendance au réchauffement est de faire baisser la concentration en gaz carbonique de l'atmosphère le plus tôt possible :

    • réduire notre usage de l'énergie basée sur le carbone fossile,
    • stocker du carbone dans la biomasse végétale et dans la matière organique des sols,</>

    et, comme cela ne suffira pas, extraire par géoingéniérie du gaz carbonique de l'atmosphère, ce qu'on ne sait faire actuellement qu'à un prix très élevé.

    Voir aussi la News de octobre 2017 :

    Pour amener le climat à un état stable après la perturbation anthropique, il faudra retirer du gaz carbonique de l'atmosphère. Le coût en sera très élevé si nous ne réduisons pas rapidement nos émissions. Yves Dandonneau.

  • Comment sont-ils construits et utilisés?

    Olivier Talagrand, Katia Laval et Jean Pailleux

    Les modèles numériques
    Les principes de la modélisation numérique
    Différents types de modèles numériques
    La modélisation du climat
    La modélisation des atmosphères planétaires
    Observation et modélisation numérique

    Les modèles numériques sont maintenant devenus omniprésents dans les sciences de l’atmosphère et de l’océanIls sont utilisés quotidiennement dans les services météorologiques pour la production de leurs prévisions. Ils ont fourni les "projections" sur lesquelles le Groupe d’experts Intergouvernemental sur l’Évolution du Climat (GIEC) a fondé, dans ses rapports successifs, l’essentiel de ses conclusions quant à l’évolution future du climat. Ils sont aussi utilisés pour de nombreux travaux de recherche.

    Que sont exactement ces modèles, qui paraissent un peu mystérieux à beaucoup, même parmi ceux qui possèdent un réel bagage scientifique ? Comment sont-ils construits et utilisés ? Et surtout, quel crédit peut-on accorder aux résultats qu’ils produisent ? C’est à ces questions que cette note, qui s’adresse à des lecteurs informés mais nullement spécialistes, cherche à donner des éléments de réponse.

    Les modèles numériques sont des logiciels pour ordinateurs qui calculent l’évolution de l’écoulement atmosphérique ou océanique à partir d’un état de départ donné. Ils ont été conçus à l’origine, à la fin des années 1940, au moment du développement des premiers calculateurs électroniques, pour servir à la prévision météorologique. Et c’est à cette application qu’ils restent aujourd’hui principalement utilisés. Pour donner une première idée de ce dont ils sont maintenant capables, la figure 1 présente une prévision effectuée par le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, voir encart ci-dessous.

     

    Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT)

    Le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT, en anglais European Centre for Medium-Range Weather Forecasts, ECMWF, https://www.ecmwf.int/) est un organisme international installé à Reading, en Grande-Bretagne. Sa mission première est de fournir des prévisions météorologiques aux États membres, mission qu’il assure quotidiennement depuis 1980. Outre deux prévisions quotidiennes de base à échéance de quinze jours, il produit des prévisions d’ensemble, destinées à quantifier l’incertitude sur la prévision aux différentes échéances. Il produit aussi d’autres types de prévisions (prévisions saisonnières, prévision des vagues sur l’océan).

    Le CEPMMT fournit également différents services aux États membres et à la communauté internationale. Il gère plusieurs composantes du programme Copernicus d’observation de la Terre, soutenu par l’Union Européenne. Il produit aussi des réanalyses d’observations passées, c’est-à-dire des descriptions détaillées de l’évolution quotidienne de l’écoulement atmosphérique, obtenues à l’aide des modèles et des systèmes d’assimilation actuels. L’analyse ERA-Interim, qui commence en 1979, est maintenue à jour en permanence.

    Il effectue en outre, en liaison avec des groupes de recherche européens ou non, des recherches de pointe sur la prévision météorologique numérique et ses multiples applications.

    Le CEPMMT est formellement un service commun aux services météorologiques des États membres. En novembre 2018, il compte 22 États membres de plein droit et 12 États associés.

     

    La carte du haut présente l’état de l’atmosphère sur l’Atlantique Nord et l’Europe Occidentale le 20 septembre 2018, à 00:00 UTC.
    Les quantités représentées sont la pression au niveau de la mer (isolignes blanches) et le géopotentiel (c’est-à-dire, à un coefficient multiplicatif près, l’altitude) de la surface isobare 500 hPa, qui sépare l’atmosphère en deux couches de même masse (plages de couleur).

    L’une et l’autre de ces deux quantités (dont, comme on peut le voir, les variations spatiales sont similaires) décrivent les structures de grande échelle de la circulation atmosphérique, structures dont la formation, l’amplification, le déplacement, les interactions mutuelles éventuelles et la disparition finale gouvernent la météorologie des latitudes moyennes.

    L’état du 20 septembre a servi de point de départ à une prévision à 8 jours d’échéance effectuée par le modèle du CEPMMT. L’état ainsi prévu est présenté sur la carte intermédiaire, et l’état réel correspondant sur la carte inférieure. La similarité entre ces deux derniers états, et leur différence commune avec l’état de départ de la prévision, sont absolument évidentes. C’est là un exemple typique de ce qu’est à l’heure actuelle une bonne prévision.

    Figure 1. Un exemple de prévision à 8 jours effectuée par le modèle du CEPMMT.
    Haut : état initial de la prévision (20 septembre 2018, 00 :00 UTC).
    Milieu : prévision pour le 28 septembre 2018, 00:00 UTC.
    Bas : état réel correspondant à la prévision.
    Isolignes du champ de pression au niveau de la mer (en blanc).
    Géopotentiel de la surface isobare 500 hPa (en plages de couleur).
    Source : meteociel.fr.

    La figure 2, relative elle aussi au géopotentiel à 500 hPa, présente l’évolution de la qualité des prévisions produites par le CEPMMT depuis 1981.

    La quantité représentée en ordonnée est un coefficient de corrélation statistique qui mesure les performances comparées de deux prévisions : d'une part la prévision produite par le modèle, d'autre part une prévision «climatologique» qui consisterait à prévoir pour demain et les jours qui suivent l'état climatologique moyen pour le jour considéré. Cette corrélation prendrait la valeur 1 pour une prévision parfaite, et la valeur 0 pour une prévision climatologique. Plus elle est élevée, et plus la prévision du modèle est bonne.

    Les différentes courbes de la figure présentent à partir du haut l’évolution de la corrélation à 3, 5, 7 et 10 jours d’échéance.
    Pour chacune de ces échéances, deux courbes, séparées par une bande de couleur, montrent la corrélation sur les hémisphères boréal (courbe du haut) et austral (courbe du bas) respectivement.

    On voit sans surprise que la qualité des prévisions décroît à mesure que l’échéance augmente. Mais surtout cette qualité a augmenté depuis 1981, à toutes échéances, de façon quasi-systématique. Les prévisions à 5 jours sont maintenant meilleures que les prévisions à 3 jours en 1981, et les prévisions à 7 jours meilleures que les prévisions à 5 jours. Cette amélioration progressive est due à l’augmentation du nombre des observations, et à l’amélioration de la qualité du modèle de prévision lui-même. On voit aussi que la qualité des prévisions dans l’hémisphère austral, inférieure à l’origine à celle des prévisions de l’hémisphère boréal, lui est devenue égale à partir de l’année 2000 environ. Cela est dû à l’accroissement du nombre des observations satellitaires, qui couvrent également les deux hémisphères, tandis que les observations au sol sont beaucoup plus nombreuses dans l’hémisphère boréal.

    Figure 2. Variation au cours du temps de la qualité des prévisions du géopotentiel à 500 hpa effectuées par le CEPMMT (voir explications dans le texte)
    (source : ecmwf.int).

    L’"effet papillon" bien connu nous dit que l’écoulement atmosphérique est chaotique, en ce sens qu’une petite incertitude sur l’état initial de l’écoulement peut conduire rapidement à une grande incertitude sur la prévision. Sans discuter plus avant cet aspect important, les figures ci-dessus montrent que des progrès sont encore réalisés dans la qualité des prévisions.

    Les principes de la modélisation numérique

    Les modèles numériques sont fondés sur les lois physiques qui régissent le monde macroscopique, familières à tout étudiant en physique, et dont personne ne doute qu’elles régissent, en particulier, les mouvements de l’atmosphère.

    Ce sont :

    • la loi de conservation de la masse,
    • de conservation de la quantité de mouvement (loi de Newton), qui définit comment le mouvement d’une particule fluide répond au forces mécaniques qui lui sont appliquées,
    • la loi de conservation de l’énergie, qui définit comment l’énergie interne d’une particule fluide (ici, sa température) varie du fait de ses échanges avec le milieu environnant.

    L’approche sous-jacente aux modèles est bien fondée au départ sur ces lois physiques de base. Elle n’est en particulier pas fondée, comme on pourrait se le demander, sur l’ajustement empirique de multiples coefficients destinés à permettre une simulation réaliste de l’écoulement.
    Pour ce qui est de la prévision météorologique, une autre approche pourrait parfaitement être envisagée : rechercher dans le passé des situations analogues à celle du jour, et fonder la prévision sur ce qui a suivi ces situations analogues. Cette approche n’est pas utilisée, pas plus que toute approche qui serait fondée sur l’exploitation des observations passées : on sait que l’échantillon statistique fourni par les archives météorologiques est beaucoup trop limité pour permettre des prévisions de la qualité des modèles numériques actuels. Nous sommes en outre dans une période de variation rapide du climat, ce qui diminue d’autant la valeur de ces archives météorologiques pour l’étude éventuelle de situations présentes.

    Le principe sur lequel est construit un modèle numérique est simple, et d’ailleurs très général dans l’étude numérique d’écoulements fluides de toutes natures. Le volume de l’atmosphère est divisé en mailles (Figure 3), à l’intérieur de chacune desquelles on définit les quantités d’intérêt météorologique.
    Sous l’hypothèse hydrostatique faite actuellement pour la prévision météorologique à grande échelle (et expliquée plus bas), ces quantités sont les deux composantes du vent horizontal, la température et le contenu de l’air en humidité. Des quantités complémentaires sont définies au niveau du sol ou de la surface de l’océan, dont la pression, la température de la surface et, dans le cas du sol, le contenu en eau. L’évolution de toutes ces quantités est ensuite évaluée pas à pas, dans chaque maille.

    Pour ce qui est par exemple de la température de l’air, tous les processus jugés pertinents sont pris en compte :

    • échauffement ou refroidissement résultant de compression ou de détente adiabatique,
    • absorption du rayonnement solaire et du rayonnement infrarouge émis par les autres couches atmosphériques ou le milieu sous-jacent (océan ou sol solide),
    • émission propre de rayonnement infrarouge,
    • conduction de chaleur depuis le milieu sous-jacent,
    • émission ou absorption de chaleur latente associée aux changements de phases de l’eau (évaporation ou condensation).

    À cela s’ajoute l’apport par l’écoulement lui-même d’air de température différente venant des mailles voisines. Un bilan similaire, effectué pour chacune des variables dans chacune des mailles du modèle, permet de calculer de proche en proche l’évolution de l’ensemble de l’écoulement sur la durée de la prévision.

    Figure 3. Représentation schématique d’un Modèle de Circulation Atmosphérique (L. Fairhead, LMD/IPSL)

    Les modèles constituent donc une formulation numériquement utilisable des lois physiques qui régissent l’écoulement. Cette formulation est nécessairement approchée, et donc imparfaite. Dans la version actuelle du modèle du CEPMMT (novembre 2018), la distance horizontale entre deux mailles est d’environ 9 km, et la direction verticale est divisée en 137 niveaux, s’étendant jusqu’à une altitude de 80 km. Cela conduit à environ 900 millions de mailles, et environ 4 milliards de variables dont l’évolution est explicitement calculée. Le pas temporel correspondant est de 450 secondes.

    Les spécialistes distinguent dans leur jargon la "dynamique" d’un modèle de sa "physique".

    La "dynamique" décrit comment le mouvement évolue sous l’effet des forces mécaniques et de la rotation de la Terre.

    La "physique" décrit les effets radiatifs et de conduction thermique, les effets de viscosité et de frottement et, aussi, tous les aspects du cycle de l’eau.

    En simplifiant, la dynamique décrit les processus thermodynamiquement réversibles, et la physique les processus irréversibles. On inclut dans la seconde la description de l’effet des processus d’échelle inférieure à la maille du modèle, non résolus par celui-ci. Ces processus influent néanmoins sur les processus explicitement résolus, et leur effet statistique est représenté par ce qu’on appelle les paramétrisations sous-maille. La définition et la validation de ces paramétrisations est l’un des problèmes importants de la modélisation numérique.

    La dynamique, construite sur des lois physiques parfaitement connues, est décrite de façon considérée désormais comme totalement sûre (même si des recherches actives sont toujours menées pour améliorer par exemple l’efficacité numérique des algorithmes, ou bien élargir leur degré de généralité). Il n’en est pas de même de la physique, qui est d’ailleurs constamment enrichie par l’introduction de nouveaux processus (effets des lacs et nappes d’eau, interactions avec la végétation, ruissellement des eaux de surface et souterraines, …). Contrairement à la dynamique, la physique contient, en ce qui concerne par exemple les effets radiatifs des nuages ou les interactions avec la végétation, de nombreuses formulations empiriques ou phénoménologiques, qui ne découlent pas directement de la physique de base. Et c’est d’ailleurs bien en ce qui concerne la physique, et en particulier le cycle complexe de l’eau, que les modèles actuels sont les plus limités et leurs prévisions les moins précises. L’expérience quotidienne nous montre que les précipitations sont plus difficiles à prévoir que la pression au sol, même si la seconde est indispensable à la prévision des premières.

    Différents types de modèles numériques

    L’approximation hydrostatique sur laquelle sont construits les modèles utilisés actuellement pour la prévision météorologique à grande échelle stipule simplement que la pression en tout point est proportionnelle à la masse de fluide située au-dessus de ce point. Elle est valide quand l’accélération verticale du fluide est négligeable devant la gravité. Du fait de la présence dans l’atmosphère de mouvements convectifs intenses, mais localisés, qui transportent des quantités d’énergie importantes vers les couches élevées de l’atmosphère, l’approximation hydrostatique perd sa pleine validité pour des échelles horizontales inférieures à 20 km environ.

    Des modèles non hydrostatiques ont donc été développés pour représenter les échelles plus fines. Ils permettent, entre autres, de simuler explicitement les phénomènes convectifs, mais leur coût élevé ne leur permet de couvrir à ce jour qu’une aire limitée de la surface terrestre. Météo-France a ainsi développé le modèle AROME (Applications de la Recherche à l'Opérationnel à Méso-Echelle), non-hydrostatique, qui couvre la France métropolitaine et les régions avoisinantes avec une résolution spatiale horizontale de 1,3 km, 90 niveaux dans la direction verticale, et est intégré plusieurs fois par jour à une échéance allant jusqu'à 48 h. Les modèles non hydrostatiques à haute résolution permettent une prévision beaucoup plus précise des phénomènes météorologiques intenses. Mais ils exigent par contre, du fait de leur aire limitée, la définition de conditions aux limites latérales appropriées. Ces conditions aux limites sont extraites d’un modèle de plus grande échelle. Le CEPMMT travaille au développement d’un modèle non-hydrostatique global.

    D’autres modèles encore servent à la prévision de l’océan en tant que tel. Ils sont fondés, mutatis mutandis, sur les mêmes principes que les modèles atmosphériques. De même que l’eau, par ses effets radiatifs et thermodynamiques, est un composant essentiel de la circulation atmosphérique, le sel, par les variations de densité qu’il entraîne, est un composant essentiel de la circulation océanique. Les échéances de prévisibilité, qui se comptent en jours pour l’atmosphère, se comptent plutôt en mois pour l’océan. L’état interne de l’océan, qui est opaque à toute forme de rayonnement électromagnétique, est beaucoup moins bien observé et connu que celui de l’atmosphère. Le programme français Mercator produit chaque jour des prévisions de l’état de l’océan global à une résolution spatiale de 1/12° et à échéance de 9 jours (donc courte pour l’océan ; voir le bulletin Mercator Océan pour les différents produits mis en ligne dans le cadre de ce programme).

    Aux échéances mensuelles ou saisonnières, les interactions entre l’atmosphère et l’océan ne peuvent plus être ignorées. Ces interactions mutuelles sont à l’origine de phénomènes spécifiques, comme le phénomène El Niño bien connu, qui n’existeraient pas dans l’un ou l’autre milieu isolément. Des modèles couplés ont donc été progressivement développés, qui produisent d’ores et déjà des prévisions utiles à l’échéance saisonnière.

    De nombreux modèles numériques ont été développés à d’autres fins : dispersion de traceurs ou de polluants, hydrologie, chimie atmosphérique. La plupart de ces modèles sont utilisés en association avec un modèle purement atmosphérique ou océanique, qui leur fournit les conditions physiques permettant de représenter les processus spécifiques qu’ils doivent simuler.

    La modélisation du climat

    Même si c’est la prévision à échéance relativement courte, nécessitant en particulier une définition précise de conditions initiales appropriées, qui a été à l’origine de la modélisation numérique de l’atmosphère, celle-ci a trouvé dès la fin des années 1960 une autre utilisation, qui suscite à l’heure actuelle beaucoup plus de questions et d’interrogations, quelquefois dubitatives. Il s’agit de la simulation du climat et de la prévision de son évolution à long terme.

    Des Modèles de Circulation Générale (MCG) ont ainsi été développés à partir des modèles météorologiques, sans modification des principes sur lesquels ceux-ci étaient construits. Mais il a fallu pour cela développer des composantes nouvelles, qui ont en retour bénéficié à la prévision météorologique. La différence la plus importante résulte de ce que l’effet des océans doit être pris en compte, plus encore qu’aux échéances mensuelles ou saisonnières, aux échéances climatiques.
    Les Modèles de Circulation Générale sont couplés, en ce qu’ils décrivent explicitement la circulation de l’océan et de l’atmosphère et leurs interactions mutuelles. Ils sont intégrés sur des périodes de temps (décennies ou plus) beaucoup plus longues que celles des prévisions météorologiques, et la quantité de calculs nécessaire impose une résolution spatiale beaucoup plus grossière. Une autre différence importante résulte de ce que l’on n’est pas intéressé dans l’étude du climat à l’état de l’atmosphère à un instant particulier, mais à des quantités statistiques (moyennes, variances, corrélations mutuelles, … ) calculées sur plusieurs années ou plus. On estime que ces quantités statistiques, prises sur de longues périodes, sont indépendantes de l’état initial de l’intégration. Contrairement donc à ce qui se passe pour les prévisions météorologiques, on ne cherche pas à définir aux modèles climatiques des conditions initiales très précises. Un état climatique moyen initial est souvent considéré comme suffisant.

    À titre d’exemple de ce que peuvent produire les Modèles de Circulation Générale, la Figure 4 présente le champ de température de l’air à la surface de la Terre, moyennée sur une année. La carte du haut montre le champ observé, la carte du bas le champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace. On voit que, s’il existe des différences, les variations spatiales des températures, en latitude, mais aussi entre les continents et les océans, sont très similaires.

    Figure 4. Champ de température de l’air à la surface de la terre, moyenné sur une année.
    Haut : champ observé.
    Bas : champ produit par le Modèle de Circulation Générale de l’Institut Pierre Simon Laplace (J.-L. Dufresne, LMD/IPSL)

    Les simulations climatiques servent en particulier à effectuer les "projections" présentées et discutées dans les rapports successifs du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC ; le cinquième de ces rapports a été publié en 2013-2014, la publication du prochain est prévue pour 2022 ; un rapport spécial a été récemment publié en octobre 2018).
    La question de la prévision du climat a été traitée brièvement dans la FAQ : Les modèles climatiques ont-ils une valeur prédictive?

    La figure 5, extraite du dernier rapport du GIEC, présente des comparaisons entre les observations relatives à la période 1910-2010 et des simulations issues de modèles.

    Figure 5. Comparaison d’observations et de simulations numériques sur la période 1910-2010. Sur chacune des sous-figures, la courbe pleine représente les observations, les bandes de couleur bleue et rouge clair le résultat de simulations numériques effectuées respectivement sans et avec le forçage anthropique (détails dans le texte).
    Figure extraite du cinquième Rapport d’évaluation du GIEC.

    Les observations, représentées par des courbes pleines sur chacune des sous-figures, portent :

    • sur la température de surface pour les régions continentales (fond jaune),
    • le contenu thermique superficiel pour les régions océaniques (dénoté OHC, fond bleu),
    • et l’extension des glaces pour les océans polaires (fond blanc).

    On remarque tout d’abord que la température et le contenu thermique de l’océan ont augmenté dans toutes les régions, surtout depuis 1960 (à la seule exception de l’Océan Austral, dont le contenu thermique a diminué depuis la fin des années 1990).
    L’extension des glaces a diminué sur l’Océan Arctique, tandis qu’elle est restée stable sur l’Océan Antarctique.

    Les simulations numériques sont représentées par les bandes de couleur :

    • bleues pour des simulations ne prenant en compte que les forçages naturels agissant sur l’atmosphère (tels que les éruptions volcaniques),
    • rouge clair pour des simulations prenant en compte, outre les forçages naturels, l'augmentation des gaz à effet de serre tel que le dioxyde de carbone (CO2) et aux autres gaz émis par les activités humaines (la largeur de chaque bande de couleur indique la dispersion entre les différents modèles numériques utilisés).

    On voit que (à la seule exception de l’Océan Antarctique, où l’on n’a de toute façon observé aucune évolution significative) les modèles numériques simulent toujours beaucoup mieux la réalité observée quand l’effet de serre anthropique est pris en compte. Ce résultat, outre qu’il conforte l’idée que les modèles numériques sont capables de simuler la structure thermique de l’atmosphère et de l’océan superficiel, conforte aussi l’idée que l’échauffement récent du climat est dû pour l’essentiel à l’effet de serre anthropique.

    Cela étant, il reste une marge d’incertitude, visible dans la largeur des bandes de couleur de la Figure 5. Une étude détaillée montre que les désaccords entre les résultats produits par les différents modèles viennent de leur "physique", et particulièrement du cycle de l’eau. Et encore plus précisément, pour ce qui est du cas présent des projections climatiques, de la représentation de l’effet radiatif des nuages. Comme dans le cas de la prévision météorologique, les faiblesses des modèles numériques résident beaucoup plus dans leur "physique" que dans leur cœur dynamique. Le cycle de l’eau, en particulier, et les flux d’énergie qui lui sont associés, restent assez mal connus, et mal représentés dans les modèles. C’est par la combinaison d’acquisition et d’analyse d’observations, de travaux théoriques, et d’expériences de simulations appropriées, que l’on pourra continuer à améliorer cet aspect des modèles numériques.

    La modélisation des atmosphères planétaires

    Une autre preuve du niveau de qualité physique atteint par les Modèles de Circulation Générale est fournie par les atmosphères extra-terrestres.
    Trois des différents objets du Système Solaire, Vénus, Mars et Titan (un satellite de Saturne), possèdent une atmosphère similaire à celle de la Terre : une couche mince à la surface d’un corps solide, recevant du Soleil l’essentiel de son énergie.

    Les Modèles de Circulation Générale terrestres ont été adaptés à ces différents objets en en modifiant les paramètres pertinents :

    • dimension de la planète,
    • taux de rotation,
    • flux solaire incident,
    • masse et composition de l’atmosphère
    • propriétés thermiques du gaz atmosphérique,
    • etc.

    Dans chacun de ces trois cas, et sans qu’il ait été nécessaire de recourir à des modifications non justifiées par ce que l’on sait de la physique, les modèles ont produit un régime de circulation atmosphérique et une structure thermique en bon accord, et quelquefois même en excellent accord, avec les observations disponibles.

    La Figure 6 présente le champ de température martien, moyenné en longitude, à l’équinoxe de printemps boréal.
    La partie supérieure montre la température observée par l’instrument Mars Climate Sounder, qui est resté en orbite autour de Mars pendant plusieurs années à partir de 2006.
    La partie inférieure montre la température produite par le modèle de circulation martienne développé à partir du modèle terrestre du Laboratoire de Météorologie Dynamique.
    On voit que la structure des deux champs de température est très similaire. L’atmosphère martienne est constituée pour l’essentiel de dioxyde de carbone, et elle est de ce fait le siège d’un effet de serre important. La similarité des deux champs de température montre que le modèle est capable de simuler l’effet de serre avec succès. Une remarque similaire s’applique à l’atmosphère de Vénus, elle aussi constituée pour l’essentiel de dioxyde de carbone, mais beaucoup plus massive que les atmosphères terrestre et martienne. L’effet de serre y est la cause d’une augmentation de température de 400°C. Cette augmentation est reconstituée par les modèles de circulation, de même que le régime de circulation dynamique qui lui est associé.

    Figure 6. Champ de température de l’atmosphère martienne, moyenné en longitude dans un plan méridien, à l’équinoxe de printemps boréal.
    La coordonnée horizontale est la latitude, la coordonnée verticale la pression.
    Partie supérieure : champ de température observé par l’instrument Mars Climate Sounder.
    Partie inférieure : champ de température produit par le modèle de circulation martienne développé au Laboratoire de Météorologie Dynamique (F. Forget, LMD/IPSL).

    En dehors de ces diverses applications, toutes destinées à simuler et étudier une atmosphère réelle, la modélisation numérique est aussi utilisée à l’étude de processus spécifiques, menée dans des situations de simplification plus ou moins idéalisées. On peut citer par exemple l’étude de la convection thermique, de la formation des dépressions des latitudes moyennes ou bien encore de la formation et de l’évolution des cyclones tropicaux. Ces études de processus sont extrêmement instructives, et aident beaucoup à la compréhension des multiples aspects de la dynamique et de la thermodynamique de l’atmosphère et de l’océan.

    La modélisation numérique de l’écoulement atmosphérique, même si la possibilité en avait été anticipée dès le début du XXe siècle, est née, on l’a dit plus haut, avec les premiers ordinateurs électroniques (voir Le changement climatique : histoire et enjeux, Chapitre V : De nouveaux outils bouleversent le paysage scientifique, pour une histoire des débuts de la modélisation numérique). Et ses progrès, particulièrement en ce qui concerne la prévision météorologique, ont toujours suivi de près la croissance de la puissance des ordinateurs : l’augmentation de la résolution spatiale des modèles, quand elle était possible dans les contraintes imposées par les conditions opérationnelles, a toujours résulté à ce jour en une amélioration de la qualité des prévisions (bien entendu, toutes les autres composantes du système de prévision, comme les algorithmes numériques, la représentation des processus sous-maille, l’assimilation des observations, ont toujours été continûment améliorées en parallèle avec l’augmentation de la résolution spatiale). Mais la croissance de la puissance des ordinateurs commence à diminuer et, sauf nouvelle révolution technologique qui pourrait relancer cette croissance (on parle régulièrement d’ordinateurs quantiques), le jour viendra où l’on ne pourra plus compter sur l’augmentation de la puissance de calcul pour améliorer les modèles numériques. Cela modifiera significativement, sinon la science fondamentale elle-même, du moins le travail quotidien des chercheurs.

    Observation et modélisation numérique

    Pour reprendre une remarque souvent faite, la modélisation numérique ne remplacera jamais l’observation, qui est à la base même de la science. Mais elle vient en sus de l’observation, en lui ajoutant la formulation, explicite et quantifiée, des lois physiques qui lui sont sous-jacentes. La modélisation est extrêmement utile à l’observation, et d’abord en ce qu’elle aide souvent à définir ce qui doit être observé. Toutes les campagnes de mesures atmosphériques sont maintenant précédées de simulations numériques destinées à identifier les quantités les plus pertinentes à observer. Tout projet de mise en œuvre d’un nouvel instrument d’observation (porté par satellite par exemple) est précédé d’expériences de simulation, dans lesquelles des observations virtuelles similaires à ce qu’on attend de l’instrument envisagé sont introduites dans l’intégration d’un modèle numérique. L’impact des observations virtuelles sur, par exemple, la qualité d’une prévision météorologique est ainsi quantifié. Ces expériences ne produisent certes pas des résultats parfaitement fiables (elles conduisent en général à des conclusions qui se révèlent a posteriori trop optimistes quant à l’impact des nouvelles observations), mais elles n’en sont pas moins extrêmement utiles, en indiquant dans quelles directions il faut améliorer les systèmes d’observation.

    Ensuite, la modélisation permet de tirer un plein profit des observations disponibles. Un excellent exemple en est fourni par la définition des conditions initiales des prévisions météorologiques numériques. De très nombreuses observations, satellitaires ou non, sont effectuées chaque jour sur l’atmosphère, dont la nature, la distribution spatio-temporelle, la résolution et la précision sont extrêmement variables. Ces observations (plus de 107 par période de 24 heures) doivent être "synthétisées" pour en tirer la description la plus exacte possible de l’état de l’écoulement atmosphérique à l’instant initial de la prévision. Cela est obtenu en combinant les observations avec un modèle numérique dans un processus appelé assimilation. L’assimilation des observations, construite sur des algorithmes puissants progressivement développés en parallèle avec la modélisation elle-même, est maintenant devenue une composante essentielle de la prévision météorologique : les grands centres de prévision, tels que le CEPMMT ou Météo-France, consacrent autant de ressources de calcul à assimiler 24 heures d’observations qu’à effectuer 10 jours de prévision à haute résolution.

    L’observation et la modélisation numérique, en ce qui concerne au moins l’atmosphère, sont désormais intimement liées. Chacune des deux perdrait beaucoup d’intérêt et d’utilité si l’autre n’existait pas.

    La modélisation numérique de l’écoulement atmosphérique s’est progressivement développée à partir de son objectif premier, la prévision météorologique. Une représentation réaliste de l'océan et de multiples processus a été ajoutée au fil des années dans les différents modèles utilisés pour des applications diverses.

    Dans le vaste cadre de la prévision climatique, des Modèles du Système Terre sont maintenant développés : ces modèles simulent, en plus des mouvements de l’atmosphère et de l’océan, leurs interactions avec la végétation et la cryosphère, les réservoirs d’eau divers, et avec les cycles de différentes espèces chimiques (dont particulièrement le dioxyde de carbone).
    Le jour approche où ils seront associés à des modèles de la production industrielle et agricole, et peut-être ultérieurement à des modèles des circuits économiques. À l’heure où la question de l’influence des activités humaines sur l‘environnement est devenue cruciale et soulève de multiples problèmes, la modélisation numérique constitue, et constituera certainement encore longtemps, un outil central pour l’étude et, espérons-le, la solution de ces problèmes.

    Voir aussi les FAQs :

    Quelle est la différence entre «météorologie» et «climatologie»?

    Les modèles climatiques ont-ils une valeur prédictive?

  • Katia Laval

    1- Introduction

    Les cyclones tropicaux (appelés aussi ouragans ou typhons) sont des perturbations régionales dont l’extension est de l’ordre de plusieurs centaines de kilomètre. Les vents, violents, tournent autour du centre, appelé l'œil du cyclone. Les mouvements verticaux y sont très développés et les précipitations intenses, de plusieurs centaines de mm par jour, et avec des pics de 50 millimètres par heure. La pression au niveau de la mer est très basse, souvent inférieure à 900 hPa. Ces dépressions météorologiques prennent naissance sur les océans tropicaux ou sub-tropicaux, et s'amplifient en se déplaçant vers l'ouest et vers les latitudes plus élevées.

    Ce sont des phénomènes très intenses qui peuvent dévaster des régions, faire de nombreuses victimes et semblent se produire de manière aléatoire. Le typhon Haiyan qui s’est abattu sur les Philippines, en 2013, en est un exemple tragique. Il a été particulièrement destructeur et a provoqué des morts et des blessés par milliers et l'évacuation de centaines de milliers de personnes.

    Les vents y sont supérieurs1 à 119 km/h et peuvent atteindre 300 km/h pour les plus violents. Ainsi, lors de rafales observées pendant Haiyan, qualifié par certains de cyclone probablement  le plus puissant jamais enregistré, les estimations de vents ont été de 380 km/h. Suivant la violence, on classe les cyclones tropicaux (CT), de la catégorie 1 pour les plus faibles (de 119 km/h à 153 km/h), à la catégorie 3 pour des vents entre 178 et 210 km/h, et à la catégorie 5 pour les plus intenses (au dessus de 251 km/h)

    L'année 2017 a été particulièrement dévastatrice2 avec les ouragans Harvey, de catégorie 4, donnant lieu à des précipitations records de 1500 mm, et provoquant des inondations exceptionnelles sur le Texas, puis Irma et Maria tous deux de classe 5, qui se sont abattus sur les Antilles. Au total, six cyclones majeurs (de classe supérieure à 3) se sont succédés, dépassant largement la moyenne de 3 cyclones majeurs dans cette région. En septembre 2019, l'ouragan Dorian a dévasté les Bahamas avec une puissance dépassant celle des cyclones Irma et Maria qui avaient touché ces îles en 2017. Il a, lui aussi, été de force 5, avec des vents moyens qui ont dépassé 295 km/h. Peut-on déduire de cette succession d'événements exceptionnels que l'on assiste à une augmentation du nombre et de l'intensité des CTs ces dernières années?

    On a noté que les cyclones se développent lorsque la température de la mer est supérieure à 26°-27°C mais qu'un cisaillement du vent horizontal3 a un effet d'atténuation et même d'inhibition des CTs. Quand les vents sont inférieurs à 119 km/h, les spécialistes nomment ces dépressions des orages tropicaux ou des tempêtes tropicales.

    Décrire un CT à l'aide d'un modèle implique de représenter l'œil, cette zone de vent calme, dont l'extension est de quelques dizaines de kilomètres, et le mur du cyclone, surface où les vents sont les plus forts, qui entoure l'œil.

    Figure 1: Un cyclone. On distingue l'œil au centre, et les vents tourbillonnant autour, zone blanche recouverte de cumulonimbus.

    Leur énergie a pour origine la quantité de chaleur considérable dégagée lors de la condensation de la vapeur d’eau charriée par ces perturbations atmosphériques. Cette grande quantité de vapeur provient essentiellement de l’évaporation qui s'effectue lors du passage du CT sur les eaux chaudes océaniques, mais aussi de l'humidité de l'environnement où se déplace le cyclone.

    La dynamique des CTs est réellement complexe et les connaissances sur ces processus ont beaucoup progressé depuis une quinzaine d’années. Les études régulièrement publiées l’attestent, et donnent lieu quelquefois à des débats entre scientifiques, étant donné la difficulté de maîtriser totalement les mécanismes donnant lieu à ces événements au développement explosif.

    2- Prévision des cyclones tropicaux

    Les dommages considérables que subissent les populations lors du passage d'un CT sont atténués quand on en fait une prévision fiable. C'est pourquoi depuis plus d'une vingtaine d'années, des efforts ont été déployés pour améliorer leur prévision. Les chercheurs ont des outils de plus en plus performants: des modèles statistiques, des modèles régionaux avec une résolution inférieure à la dizaine de kilomètre pour représenter de manière réaliste un CT et étudier théoriquement ses mécanismes d'amplification ou d'atténuation, et des observations par satellites qui fournissent un suivi des CTs apparaissant chaque année sur les différents bassins océaniques. Ces études ont permis une meilleure connaissance de leurs caractéristiques. Comment mesurer l'énergie maximum d'un CT? Combien de CTs sont déclenchés chaque année? Quelles sont les caractéristiques des précipitations, des profils de température dans l'environnement du cyclone?

    En 2012, on a pu saluer la précision, sur la région de New York, de la prévision du cyclone Sandy qu’a effectuée le Centre Européen pour les Prévisions Météorologiques à Moyen Terme (CEPMMT). Sa trajectoire a été prévue 6 jours à l’avance et l’erreur a été, 2 jours avant qu'il n'atteigne New York, de quelque 70 kilomètres seulement, ce qui a constitué une amélioration nette par rapport aux prévisions précédentes et a certainement permis d'épargner des vies humaines. Il faut souligner les progrès importants sur la prévision de la trajectoire des ouragans, et Sandy en est un exemple. Vers les années 1970, la prévision à 3 jours de la trajectoire des CTs en Atlantique comportait des erreurs de l'ordre de 700 km; à l'heure actuelle, ces erreurs ont été divisées par 4 et la prévision à 5 jours comporte une erreur voisine de 300 km.

    Les spécialistes arrivent à déterminer assez bien leur trajectoire quelques jours en avance, mais anticiper l’activité cyclonique d’une région quelques mois en avance serait très bénéfique pour de nombreux secteurs : la protection des bâtiments et des populations, la gestion des ressources en eau. Ces prédictions saisonnières sont effectuées par le CEPMMT (avec un modèle dont la résolution est de 36 km), cependant elles nécessitent encore des progrès pour être fiables.

    Prenons pour exemple l'étude4 qui a porté sur les prévisions qui ont été effectuées sur le Nord de l’Atlantique, quelques mois avant la saison des CTs qui va de juillet à novembre. Généralement, une seule prévision étant peu crédible, on en effectue plusieurs, qui ont pour origine des dates décalées dans le temps, et qui permettent d'être plus confiants sur les résultats. En 2010, ces essais ont été couronnés de succès, comme le montre le schéma de la figure 2. Les différentes prévisions saisonnières effectuées successivement de mars à mai, indiquaient, pour la saison suivante, un nombre probable d'ouragans de 9 à 12, bien supérieur à la valeur moyenne de 6, et ceci a été tout à fait réaliste puisque les ouragans observés ont été au nombre de 11. Ce succès a permis d'espérer que les outils utilisés pour cette détermination étaient plus performants que dans le passé. Malheureusement, l’année 2013 n'a pas permis de confirmer cette avancée. Les différentes prévisions saisonnières avaient conclu que l'année serait presque normale, avec une fréquence de CTs de 6 ou légèrement supérieure; or 2013 fut l’année où on a eu le moins de cyclones depuis que l’on a des observations globales (voir figure 2).

     

    Figure 2: Prédiction et observations (en gris: 12 en 2010 et seulement 2 en 2013) d'une saison cyclonique en Atlantique Nord. L'activité intense de la saison 2010 a été bien prédite, mais en 2013, les études n'ont pas su prévoir la très faible activité des TC. Les points représentent les prédictions par différentes méthodes, avec leur écart type décrit par une barre. Les mois initiaux de chaque jeu de prédiction sont inscrits sur la figure.

    3- Les cyclones tropicaux et les modèles climatiques

    Généralement, un modèle global de climat (les Modèles de Circulation Générale ou MCG) ne peut véritablement décrire un ouragan car la maille du modèle est de l'ordre de la centaine de kilomètre. Réduire la maille est extrêmement coûteux et par conséquent, les expériences numériques dont la résolution est suffisante sont rares.

    Pourtant, pour évaluer la capacité des MCG à représenter les CTs, quelques simulations ont pu être conduites en réduisant la taille de la maille du modèle. C'est le cas au laboratoire de Princeton, le "Geophysical Fluid Dynamics Laboratory" (GFDL)5, où les chercheurs ont fait des simulations climatiques avec un MCG dont la maille a été réduite à 50 km. Ces expériences numériques ont démontré que la physique du modèle était suffisamment performante pour que des CTs apparaissent avec des caractéristiques assez satisfaisantes. Leur développement dans les différents bassins océaniques était présent, avec une évolution maximum de juillet à novembre, conforme à la réalité, ce qui est remarquable. Mais le caractère explosif des cyclones majeurs de catégorie 4 à 5 n'a pas été simulé par ce modèle et seuls, ceux de classe 1 à 3 ont pu être représentés. Malgré cette dernière difficulté, ce résultat rassure car il montre que, seule, une résolution insuffisante empêche les MCG de mieux représenter les cyclones et leur évolution avec le changement climatique.

    Malgré leur résolution insuffisante, les MCG ont été utilisés pour approfondir les connaissances sur les CTs. Pour détecter l'apparition et l'intensité des cyclones des modèles, les scientifiques ont développé des algorithmes simples basés sur des seuils de quantités locales telles que le tourbillon de vent (cette quantité mesure la rotation du vent qui s'amplifie lors du développement d'un cyclone), la pression, et la température de la haute troposphère, ou d'autres indices définis ci dessous au paragraphe 5. Ces études ont permis de confirmer le lien entre l'existence d'une année El Nino (la Nina) et l'affaiblissement (le renforcement) de l'activité cyclonique en Atlantique6. Ces relations ont été constatées sur les observations portant sur la période allant de 1981 à 2009. Plus la maille des modèles est fine et la résolution précise et plus performante est la représentation des CTs.

    L'influence du changement climatique (CC), résultant de l'émission anthropique des gaz à effet de serre (GES) sur l'activité cyclonique a été véritablement étudiée après les années 2000, même si quelques publications avaient tenté auparavant d'explorer le sujet. On a pu noter des désaccords sur les conclusions des nombreuses publications. En utilisant l'ensemble des MCG ayant participé au 4ième rapport du GIEC, des scientifiques ont montré que, en Atlantique, et sur l'Est du Pacifique, le cisaillement de vent7 augmentait avec le CC, ce qui inhibe l'intensification des cyclones; d'autres analyses, publiées bien après 2005, ont conclu que le nombre de cyclones8 diminuait dans cette région alors que des publications en 2005 annonçaient une augmentation du nombre et de l'intensité des CTs. Le débat entre scientifiques s'est instauré, certains utilisant des modèles qui obtiennent une augmentation de l'intensité ou du nombre de cyclones, alors que d'autres trouvent l'inverse. Nous revenons plus précisément sur ces résultats dans les prochains paragraphes. 

    4- Comment déterminer l’évolution des cyclones tropicaux 

    Comment évoluent, sous l'effet du changement climatique, la fréquence et l'intensité des cyclones tropicaux, ou encore la région où ils sont produits? La réponse à cette question présente des difficultés. Elle est encore débattue par les scientifiques, qui pourtant sont bien conscients de son importance majeure pour la société, eu égard aux désastres engendrés par ces situations météorologiques. 

    Les Observations 

    Les études sur l'évolution des CTs passés présentent deux difficultés. Tout d'abord la qualité des observations, en particulier avant leur détection par les satellites et d'autre part la longueur insuffisante des données du passé auxquelles on a accès. Définir un signal statistique fiable sur des événements rares (encore plus si l'on s'intéresse aux cyclones majeurs (de catégorie supérieure à 3) nécessiterait d'avoir des séries plus longues que celles dont on dispose.

    Les CTs sont assez rares, dans les différents bassins océaniques, malgré l'impression ressentie par le public. Ainsi, en Atlantique, où on a des enregistrements les plus complets, les études n'ont pas toujours été en accord. Sur le nord de l'Atlantique (figure 2) le nombre d'ouragans est en moyenne de 6 par an, avec des écarts type de l'ordre de 3. Néanmoins, certaines années, leur nombre peut être bien supérieur, ce qui peut faire penser à une tendance sur le long terme. Ainsi, on en a observé plus de 10 en 1995, en 2005 et en 2010. L'année 2005 a comporté 15 CTs particulièrement violents, dont l'ouragan Katrina, en Nouvelle Orléans, qui a fait plus de 1300 morts et 100 milliards de dégâts. De nombreuses publications ont alors affirmé que l'on assistait à une augmentation globale du nombre de CTs en Atlantique, ou de l'intensité des cyclones majeurs, ou de leur capacité de destruction9. La question suivante  a été alors posée: une telle évolution peut elle être attribuée au changement climatique lié aux émissions des gaz à effet de serre? Ces conclusions ont été réfutées par la suite, quand on a étudié des enregistrements plus longs10. Après 2005, le nombre de cyclones a nettement décru en Atlantique et certains en ont cherché la cause. Une hypothèse a été que les variations d'aérosols de la région ont eu une influence sur l'activité des CTs, mais cette explication n'a pas convaincu tous les chercheurs. L'activité cyclonique très forte en 2017, bien qu'inférieure à celle de 200511, a relancé les recherches sur les causes de cette intensification et certains l'ont reliée à la modification des températures de surface

    en Atlantique12. Sur le Pacifique, des études ont montré que le nombre de cyclones décroissait. Des chercheurs ont émis l'hypothèse que l'augmentation du nombre de CTs en Atlantique, certaines années, pouvait être compensée par une décroissance sur l'océan Pacifique13.

    Les dernières études14 montrent que, sur l'ensemble de la planète, le nombre total annuel  de perturbations tropicales (CTs et tempêtes) est de l'ordre de 87, avec une variabilité interannuelle importante: on en a compté 69 en 2010, et 108 en 1996. Parmi ces perturbations, 48 en moyenne correspondent aux cyclones de classe 1 ou plus. De même que pour l'Atlantique, les données globales reconstituées n'ont pu démontrer une tendance à l'augmentation ou à la réduction  du nombre total d'ouragans, même si la variation décennale, avec des minimums de 29 (comme en 1977, ou en 2008-2009), apparaissant sur la Figure 3, a pu induire des interrogations, voire même l'hypothèse d'une décroissance de leur nombre total, lors de l'analyse de séries moins longues.


     

    Figure 3: Fréquence (nombre de cyclones par an) des cyclones tropicaux (en rouge) et de l'ensemble des orages et des cyclones tropicaux (en noir) sur la planète. Chaque point correspond à une moyenne glissante sur 12 mois. Knutson et al15, 2019.

    Les études théoriques

    - Les indices

    Les Modèles MCG n'ont pas la résolution suffisante pour représenter les cyclones, sauf lors de quelques expériences spécifiques déjà soulignées. C'est pourquoi les physiciens ont défini à partir des propriétés de l'environnement, des indices liés à la violence des cyclones, et qui, eux, peuvent être déterminés par les MCG. Ils ont, par exemple, défini un indice qui correspond à la limite supérieure de l’intensité du cyclone16 en tenant compte de l’état de l’environnement, et l'ont nommé « intensité potentielle » du cyclone. Cette intensité potentielle (IP) est une estimation théorique du maximum d'intensité qu'un cyclone tropical peut atteindre dans un environnement aux caractéristiques thermodynamiques données. D'autres indices ont été définis pour mieux déterminer le pouvoir destructeur d'un cyclone, tout au long de son existence17.

    La relation entre la température de surface de l’océan et l’activité cyclonique est connue depuis longtemps. On a déjà noté que les cyclones tropicaux ne se développent que si la température de la mer est supérieure à 26-27°C. Cette condition a été souvent évoquée dans les médias, en particulier lorsqu'on prédit l'évolution de l'activité cyclonique provoquée par le réchauffement climatique. En effet, si les températures océaniques sont plus fréquemment supérieures à ce seuil, cette condition se trouve plus souvent réalisée. Cependant, la température supérieure à 26-27°C, seule, ne suffit pas à engendrer un cyclone: c'est une condition nécessaire mais non suffisante.

    En fait, cet indice IP est lié à l’instabilité de l’atmosphère, ce qui implique non seulement la température de surface mais le profil de température, mesuré depuis la surface jusqu'au haut de la troposphère (vers 12 km). C'est la raison pour laquelle il n'est pas évident qu'une température de surface plus chaude renforce l'intensité des cyclones. Les études conduites à l'aide des données des Centre de Prévision l'ont démontré, comme expliqué dans le paragraphe suivant.

    - Les réanalyses

    Pour calculer cet indice et son évolution ces dernières décennies, il était nécessaire d’avoir des données continues du profil de température et d’humidité sur les bassins océaniques. Ces quantités peuvent être fournies par les réanalyses des centres de prévision18, celui des USA (NCEP/NCAR) et le Centre Européen à Reading (CEPMMT). Ces centres de prévision emmagasinent chaque jour toutes les observations, satellitaires et in situ, les passent à travers des filtres qui utilisent des Modèles de Circulation Générale (MCG) pour obtenir des analyses que l’on distribue à la communauté scientifique. Ces opérations permettent chaque jour d’avoir une analyse de l’état de l'atmosphère et de l'océan la plus réaliste, compatible avec les données et les lois auxquelles est soumis le système climatique. Les réanalyses consistent à refaire ces opérations, à postériori, sur de longues périodes antérieures, avec les algorithmes les plus récents, ce qui permet d'obtenir des séries homogènes de l'état de l'atmosphère sur plusieurs années.

    La première évaluation de cette "intensité potentielle"  a été réalisée avec les ré analyses du NCEP/NCAR, aux USA. Cette étude a montré une augmentation de l’« intensité potentielle » au cours des dernières décennies. Cela a permis d’annoncer dans les médias et le public que les cyclones tropicaux étaient plus intenses au cours de ces derniers 30 ans. Cependant, d'autres études, moins médiatisées, ont questionné la fiabilité de ces résultats. Par exemple, ils ont souligné que l'intensité potentielle de certaines zones pouvait être réduite si les températures de la haute troposphère étaient mal évaluées19. De plus, certains scientifiques ont émis l'hypothèse que le réchauffement non local, mais relatif par rapport à celui de l'ensemble du bassin, influence l'énergie des cyclones.

    Une étude similaire a ensuite été effectuée en utilisant les réanalyses du CEPMMT20 pour décrire l'environnement, et n’a pas montré de croissance de cette intensité potentielle, mais au contraire un profil quasiment plat, avec des variations décennales (Figure 4). Ce résultat, contrasté, s'expliquait par le fait que les valeurs de température de la haute troposphère obtenues par les deux jeux des deux centres de prévision étaient différentes. Pourquoi et comment crédibiliser une de ces deux études par rapport à l'autre?

     

    Figure 4: Évolution de l'intensité potentielle annuelle moyenne des orages et cyclones tropicaux, et leur tendance à long terme. Les données utilisées sont MERRA (rose), ERA interim (bleu) (2 versions du CEPMMT) et NCEP en rouge. La tendance sur les données du CEPMMT n'est pas significative.

    Les auteurs ont fait bien mieux que de constater cette différence entre les 2 jeux de données. Grâce aux progrès des suivis de cyclones tropicaux par satellites21, ils ont calculé l'indice pour chacun des cyclones observés, en suivant sa trace plutôt que de faire une étude sur les paramètres climatiques obtenus par les centres de prévision sur toute la région environnante. Et ils ont vérifié que les mesures, chaque année, de la température au sommet du cyclone observé était en accord avec les réanalyses ERA-interim du CEPMMT et était en désaccord avec ces réanalyses NCEP/NCAR. Les températures de la troposphère analysées par le CEPMMT sont donc plus réalistes que celles du NCEP pour ces deux jeux de réanalyses: l'intensité potentielle n'a pas varié significativement.

    - Résultats des MCG

    Les chercheurs ont utilisé les indices déjà décrits pour détecter des modifications des cyclones tropicaux que leurs modèles représentaient, quand ils prescrivaient une augmentation des gaz à effet de serre. Un certain nombre de publications, vers les années 2000, ont conclu à une augmentation de l'intensité des cyclones, et cela a eu une résonance importante dans les médias.

    Depuis, des développements significatifs ont permis de progresser de manière importante dans la connaissance et la représentation de ces cyclones. Tout d'abord, on a pu augmenter la résolution de certains MCG, ce qui a eu un impact considérable sur la confiance que l'on pouvait avoir sur leurs résultats. De plus, des techniques sophistiquées ont été introduites pour résoudre les échelles adaptées aux cyclones par des méthodes de désagrégation: elles consistent à associer aux MCG, des modèles régionaux, de résolution bien plus fine, de 50 km ou de 18 km22 pour mieux définir la dynamique du cyclone; certaines études ont même associé, en descendant à une échelle encore plus fine, un modèle de cyclone, à 9 km de résolution pour représenter les ouragans les plus intenses. Ces analyses ont donné lieu à un ensemble de résultats qui ont paru bien plus convaincants que les simples résultats brut obtenus par les GCM, de résolution de l'ordre de la centaine de kilomètre.

    Les exercices effectués dans le cadre du GIEC, en particulier pour le rapport AR5, publié en 2013, ont permis d'étudier cette évolution (leur intensité, leur nombre, leur trajectoire) en tenant compte de l'ensemble des MCG qui participaient au GIEC, ce qui implique une plus grande confiance accordée aux résultats.

    Il faut noter que ces évaluations comportent deux hypothèses: d'une part, que le changement du climat régional des zones tropicales est calculé de manière réaliste par les modèles et que, d'autre part, les indices qui sont utilisés soient des indices valables dans un climat plus chaud. Notons au passage une difficulté: les CTs de classes 4 et 5, plus difficiles à représenter, sont ceux qui importent le plus car, s'ils représentent 6% d'occurrence de ces événements, ils sont responsables de 50% des dommages économiques.

    S'appuyant sur ces méthodes, un grand nombre d'études ont été publiées. Elles déterminent l'évolution des cyclones en Atlantique, sur le Pacifique, ou les autres bassins; certains se sont intéressés au nombre de cyclones, d'autres à l'évolution de leur intensité. Certains ont publié des résultats pour la proportion de cyclones les plus violents (classe 4 et 5). Ces résultats présentent des accords partiels mais encore des désaccords, ce qui démontre simplement la complexité du sujet, qui n'est toujours pas maîtrisé.

    - Conclusions des spécialistes

    Étant données la complexité et la diversité des résultats, et, en même temps, l'importance de ces études vis à vis de la société, onze spécialistes internationaux du domaine, dont la compétence est reconnue, ont publié un article en commun23, en décembre 2019, pour faire le point des connaissances et décrire leurs certitudes, incertitudes, questionnements sur l'évolution des cyclones face au changement climatique. Ils se sont placés dans l'hypothèse d'une augmentation du réchauffement global de 2°C et ont analysé plus de 130 publications sur le sujet. Leurs conclusions sont les suivantes:

    - Les études scientifiques ne permettent pas d'affirmer que le nombre de CTs augmente, même si un chercheur sur les onze en est convaincu.

    - Il est possible que la proportion des CTs les plus intenses (les classes 4 et 5) augmente, au détriment des ouragans moins intenses. Les auteurs soulignent que ceci n'implique pas que le nombre total de cyclones de classe 4 et 5 augmente, mais que leur pourcentage par rapport au nombre total augmenterait dans l'hypothèse où le nombre de CTs serait réduit globalement.

    - Ils accordent une confiance moyenne ou peu de confiance aux modèles qui montrent une diminution du nombre de cyclones, même si la plupart des expériences numériques l'obtiennent. Leur argument est que cette variation n'est pas observée à l'heure actuelle. La question "pourquoi les modèles simulent en général (mais pas tous) une diminution de la fréquence des cyclones" n'a pas encore reçu de réponse tout à fait satisfaisante malgré les recherches qui ont proposé des mécanismes possibles.

    - On a observé, ces dernières années, un ralentissement du déplacement des cyclones sur leur trajectoire. Ceci a pour effet d'intensifier les dommages subis en un endroit donné et peut expliquer une partie de l'augmentation des dommages sur les zones habitées, comme cela a été constaté pour le cyclone Dorian, en 2019. Le consensus pour cette affirmation n'est pas total, cependant. Notons, de plus, que cet effet doit être distingué du fait que des évolutions socio-économiques ont provoqué une augmentation des coûts des dommages, constaté par les compagnies d'assurance.

    - Certaines publications ont émis l'hypothèse d'un déplacement vers le Nord de la région d'apparition des cyclones, et pouvant toucher Hawaï, quand cette translation a lieu sur le Pacifique. Cependant, suivant les auteurs, les zones concernées sont un peu différentes, et le consensus n'est pas établi. Bien que la latitude du maximum d'intensité des perturbations sur l'ouest du Pacifique se soit décalée depuis les années 1940, vers le Nord, cette proposition n'est pas considérée comme robuste par l'ensemble des spécialistes.

    - Il y a cependant un résultat qui est énoncé avec plus de conviction par ces chercheurs: le taux de précipitation augmentera avec le réchauffement climatique, car cet effet est basé sur une théorie thermodynamique solide, et les simulations des modèles sont en accord avec cette modification. Le fait de ne pas l'avoir détecté sur les observations tempère cette conclusion, mais elle reste affirmée par un certain nombre de ces spécialistes.

    Quand on lit attentivement chacune de leurs remarques, on est frappé par leur prudence et les marges d'incertitude qu'ils veulent porter à la connaissance des autres spécialistes climatologues. Il serait important que les médias nous aident à rapporter vers le public cette attitude rigoureuse et nuancée. 

    Conclusions

    Les études que nous avons décrites montrent, à l'évidence, que tout n'a pas été dit sur le futur des cyclones et que certaines contradictions entre chercheurs demeurent. Il est possible que de plus longues observations soient nécessaires pour démontrer ou confirmer certains résultats, comme l'évolution de l'intensité des cyclones avec le changement climatique en cours. Leur déplacement en latitude, le ralentissement du déplacement du cyclone sur sa trajectoire, ou la proportion de cyclones majeurs (car ceux de faible intensité diminuent en fréquence) donnant lieu à des dommages plus importants localement, tous ces facteurs induisent une inquiétude compréhensible.

    Il est indéniable que si la résolution des modèles globaux pouvait atteindre 10 kilomètres, voire même moins, la représentation de la convection et des cyclones en serait nettement améliorée, et partant, leur évolution provoquée par le changement climatique sur de longues simulations, évaluée avec plus de fiabilité. Deux éminents spécialistes du climat24 ont proposé que la communauté internationale des scientifiques milite pour obtenir des ordinateurs dont la puissance serait multipliée par 1 000 000, de telle sorte qu'on puisse faire des expériences numériques avec des MCG de 1 kilomètre de résolution. Ce type de développement apporterait un outil plus performant et des réponses plus fiables pour comprendre, en particulier, l'évolution de ces événements extrêmes si dévastateurs.

    1 Cette échelle (de Saffir-Simpson) étant définie en miles par heure, les valeurs limites de chaque classe ne correspondent pas à des chiffres ronds

    2 http://www.meteofrance.fr/actualites/61768048-saison-cyclonique-2017-l-omm-fait-le-bilan-pour-l-atlantique

    3 Le cisaillement est la variation de la vitesse du vent entre les hautes altitudes et les basses altitudes. Conventionnellement, on le calcule en prenant la différence du vent entre les niveaux 200 hPa et 850 hPa

    4 Vecchi, G. A. and G. Villarini. Next Season's Hurricane, Science 343, 2014

    5 Zhao M., I. Held, S-J Lin, and G. A. Vecchi. Simulations of global hurricane climatology, interannual variability, and response to global warming using a 50-km resolution GCM.Journal of Climate, 2009

    6 Depuis quelques années, on a différentié deux modes El Nino, un mode à l'est (EP), et l'autre au centre (CP) de l'océan Pacifique. Le mode EP est l'El Nino conventionnel avec des anomalies chaudes de la surface sur l'est du Pacifique tropical alors que le mode CP, noté Modoki, est un mode où les anomalies les plus chaudes sont situées au centre du Pacifique. Le lien entre les CP El Nino et les ouragans est moins bien établi que celui avec les années EP El Nino.Voir Wang et al, J. Climate, 2014

    7 Vecchi G. A. et B. J. Soden, Increased tropical Atlantic wind shear in model projections of global warming., Geophys. Research Letters, 34, 2007

    8 Zhao M. et al, An analysis of the effect of global warming on the intensity of Atlantic hurricanes using a GCM with statistical refinement, J. Climate, 23, 2010 ou encore Knutson et al, Dynamical downscaling projections of twenty-first century Atlantic hurricane activity, Journal of Climate, 2013

    9 Webster P. J., et al, Changes in tropical cyclone, number, duration, and intensity in warming environment, Science, 309, 2005. Ou Emanuel K., Increasing destructiveness of tropical cyclone over the past 30 years, Nature, 436, 2005

    10 Chan, J. C. L., Comments on "Changes in tropical cyclone, duration, and intensity in warming environment, Science, 311, 2006

    11 En 2005, la saison cyclonique reste exceptionnelle en Atlantique nord, avec 14 ouragans dont 7 majeurs

    12 Murakami H. et al, Dominant effect of relative tropical warming on major hurricane occurrence, Science, 2018

    13Wang C and S.K. Lee, Co-variability of tropical cyclones in the north Atlantic and the eastern North Pacific, Geophysical Research Letters, 36, 2009

    14 Maue, Recent historically low global tropical cyclone activity, Geophysical Research letters, 38, 2011

    15 Knutson et al, Tropical cyclones and climate change assessment; Detection and attribution, Bulletin of American Meteorological Society, Octobre 2019

    16 Emanuel K., Thermodynamic control of hurricane intensity, Nature, 401, 1999.Cet indice définit le carré du maximum de la vitesse du cyclone.

    17 Deux autres indices rendent mieux compte des dommages que le cyclone peut engendrer sur son passage. L'un mesure le cube de la vitesse du vent tout au long de la vie du cyclone (Emanuel (2005), et l'autre mesure l'énergie accumulée par le cyclone (Bell et al, 2000)

    18 Voir la Faq sur le site du "Club des Argonautes": http://www.clubdesargonautes.org/faq/modèles-numériques-météo-climat.php

    19 Vecchi G. A. et al, Impact of atmospheric temperature trends on tropical cyclone activity. Journal of Climate, 2013

    20 Kossin J. P., Validating atmospheric reanalysis data using tropical cyclones as thermometers.Bulletin of American Meteorological Society, 2014

    21 Ils ont utilisé une technique basée sur le signal infrarouge mesuré par satellite et qualifiée de "Advanced Dvorak Infrared Technique améliorée"

    22 L'imbrication d'un modèle régional dans un MCG est la méthode classique qu'utilisent les centres de prévision météorologique pour fournir aux citoyens des prévisions du temps précises au niveau régional. La NOAA utilise systématiquement un modèle régional, de 18 km de résolution, imbriqué dans un GCM pour la prévision des cyclones. Le Centre Européen CPMMT fait tous les jours une prévision probabiliste à 15 jours d'échéance de l'activité cyclonique avec une résolution de 18 km

    23 Voir Note 15

    24 Palmer T. and B. Stevens, The scientific challenge of understanding and estimating climate change, PNAS, 2019

  • Les données de vent du lidar embarqué sur le satellite Aeolus sont utilisées opérationnellement dans la prévision numérique à Météo-France (analyse Arpège) depuis le mardi 30 juin 2020.

  • Trois jours après l'échec du lancement du satellite TARANIS qui devait étudier certains phénomènes physiques peu connus associés aux orages,

  • Paul Crutzen, météorologue et chimiste néerlandais né à Amsterdam nous a quitté le 28 janvier 2021

  • Le HCC a rendu public le 23 février 2021 un rapport où il n'hésite pas à détailler les insuffisances et les incohérences de ce projet.

  •  Jean Pailleux 

    Les mots «météorologie» (ou «météo»), «climat» et «climatologie» ont pour l'homme de la rue des définitions courantes qui sont plus restrictives que les définitions des scientifiques. Ce sont généralement ces définitions courantes qui apparaissent en premier dans les dictionnaires et encyclopédies. Les définitions scientifiques sont plus larges car l'étude des phénomènes atmosphériques amène à s'intéresser à beaucoup d'autres milieux que l'atmosphère.

    «Météorologie» au sens le plus courant

    «La météorologie est l'étude des phénomènes atmosphériques et de leurs lois, notamment en vue de la prévision du temps». (Petit Larousse).

    Un dictionnaire équivalent en langue anglaise donne une définition très proche : «Meteorology: science of the weather; study of the earth's atmosphere and its change».

    Comme indiqué dans le «Dictionnaire Culturel des Sciences» (édition du Seuil), l'acception commune tend à confondre la météo avec la prévision du temps, plus spécialement du «temps sensible» qui gouverne nos impressions humaines. C'est une définition qui ne sort du milieu atmosphérique que pour étudier ses conséquences humaines les plus directes (sols gelés, inondations, etc...).

    «Météorologie» au sens le plus scientifique

    «La météorologie est la science de l'atmosphère». Cette définition, la plus concise, est donnée par l'Encyclopedia Universalis qui ajoute : «Plus exactement elle étudie les processus physiques qui en déterminent l'évolution et rend compte des phénomènes essentiellement observés dans sa partie la plus basse».

    C'est presque aussi la définition que nous (les argonautes) avons retenue pour notre rubrique «Glossaire» : «Science des phénomènes atmosphériques qui permet de prévoir l’évolution du temps sur une durée courte (quelques jours) en fonction de conditions initiales bien déterminées

    L'atmosphère étant un système ouvert, la météorologie (science de l'atmosphère) doit s'intéresser aux nombreux phénomènes interactifs avec les milieux connexes à l'atmosphère: océan, cryosphère, biosphère, surfaces continentales, espace... Pour étudier les processus physiques pertinents, la météorologie doit les analyser et les traiter à toutes les échelles de temps.

    «Climat» et «climatologie» au sens le plus courant

    D'après sa définition grecque rappelée dans le glossaire : «climat», du grec «klima» (inclinaison), en référence à l'inclinaison de l'axe de la Terre qui fait que le climat varie en fonction de la latitude, le climat est «l' ensemble des qualités de l’atmosphère d’un lieu sur une longue durée».
    «Le climat est l'ensemble des phénomènes météorologiques qui caractérise l'état moyen de l'atmosphère et son évolution en un lieu donné» (Petit Larousse).

    Un dictionnaire équivalent en langue anglaise indique : «Climate: weather conditions of a place or an area»; et : «Climatology : science of climate».

    Au sens le plus restrictif le climat est donc un sous-ensemble de la météorologie, dans lequel on ne retient que les caractéristiques moyennes (sur un mois au moins), ou encore les grandes échelles temporelles (du mois jusqu'à plusieurs millions d'années). Ceci est exprimé dans le Dictionnaire Culturel des Sciences de la façon suivante (qui a l'inconvénient d'introduire une notion encore plus complexe, «l'effet papillon») : «Le climat est ce qu'il reste du temps météorologique lorsqu'on le débarrasse de ses caprices que nul ne peut prévoir au-delà de l'horizon qu'assigne l'effet papillon». Le terme de «climatologie» a eu longtemps pour les météorologistes un sens assez restrictif : l'établissement et l'étude de statistiques relatives aux éléments du climat.

    «Climat» et «climatologie» au sens le plus scientifique

    Mais plus généralement on entend par le mot «climatologie», «la science qui donne une description systématique et une explication de la répartition des climats» (Source: Encyclopedia Universalis).

    On pourrait préciser que la climatologie cherche maintenant à expliquer non seulement la répartition géographique des climats, mais aussi leur évolution au fil des décennies et des siècles, surtout depuis qu'une évolution lente du climat de la planète (vers le réchauffement) est devenue évidente. Pour prendre en compte cette évolution lente, certains ont introduit la notion de «climatologie dynamique». Quant à l'évolution du passé, elle a fait l'objet d'un énorme travail de reconstitution de la part des historiens, glaciologues, sédimentologistes, etc..., travail documenté dans de nombreux ouvrages.

    A l'échelle de la décennie ou du siècle, l'évolution de l'atmosphère est largement pilotée par celle des océans (gelés ou pas), des surfaces continentales (couvertes de glace ou pas) et de toute la biosphère. Elle dépend aussi dans une plus faible mesure de facteurs astronomiques tels que l'évolution du rayonnement solaire ou des caractéristiques géométriques de l'orbite terrestre. Pour étudier, comprendre et prévoir l'évolution du climat (souvent en s'aidant de la modélisation numérique), le scientifique est amené à traiter beaucoup de processus physiques extérieurs à l'atmosphère, y compris par exemple ceux affectant l'océan profond et l'hydrologie (lacs, fleuves, glaciers, réserves continentales d'eau profonde) , en fait tous les processus affectant ce qu'on appelle « le système climatique ».

    Pour le météorologue chargé de la prévision du temps à quelques jours d'échéance, il n'est pas nécessaire de s'intéresser en détail à tous ces milieux connexes à l'atmosphère, vu qu'ils évoluent en général beaucoup plus lentement que l'atmosphère elle-même. On peut alors se contenter de modéliser très simplement ces milieux connexes. Ainsi, dans les modèles de prévision opérationnels l'état de l'océan est supposé constant sauf parfois dans sa partie superficielle. La température de surface (qui pilote directement les échanges d’énergie et de matière entre l’océan et l’atmosphère) y est souvent maintenue constante. Mais dans les modèles de prévision les plus modernes, elle est devenue une variable évolutive issue d’un couplage avec un modèle d’océan. La situation est identique pour le vent qui dépend de la rugosité de l’océan qu’un modèle ad hoc peut faire évoluer en fonction de la hauteur des vagues. Sur les continents, la plupart des variables sont aussi maintenues constantes dans un modèle de prévision (végétation, étendue des glaciers, état du sol...), à l'exception notable de la température et de l'humidité des surfaces continentales qui peuvent présenter de fortes variations diurnes, ainsi que de l'épaisseur du manteau neigeux lorsqu'il recouvre le sol.

    Ainsi l'ensemble des processus physiques intéressant le météorologiste est souvent plus restreint que celui intéressant le climatologiste. Le «système météorologique» (limité à la prévision du temps) peut donc être vu comme un sous-ensemble du «système climatique», contrairement à l'acception courante du mot «climat» qui peut être vu comme un sous-ensemble de la météorologie.

    Dans le langage des mathématiciens et modélisateurs

    Pour les modélisateurs les simulations de l'évolution du temps (ou des phénomènes météorologiques) se différencient des simulations de l'évolution du climat par le jeu des "conditions initiales" et des "conditions aux limites". L'état de l'atmosphère observée à un instant donné sera pris comme l'état (ou condition) initial du système atmosphérique pour un modèle numérique qui calculera son évolution au cours du temps et fera ainsi une prévision météorologique. Notons que ces calculs s'appliquent à un système physique qui déborde un peu au-delà de l'atmosphère puisque un tel modèle «météorologique» doit obligatoirement simuler l'évolution de la température et de l'humidité des surfaces continentales qui, sur quelques heures ou quelques jours, sont des variables qui varient très vite (souvent plus vite que les températures atmosphériques elles-mêmes). On est là dans le domaine de la prévision du temps et de la météorologie.

    Mais pour cela le modèle devra cependant fixer l'état de la plupart des milieux extérieurs à l'atmosphère, comme l'océan dans sa quasi-totalité, la végétation, la composition des sols, etc..., qui l'encadrent et conditionnent son état moyen; ce sont les "conditions aux limites" du système météorologique. Dans une simulation du seul système météorologique, les "conditions aux limites" sont invariantes et fixées.

    Mais on sait que la prévision météorologique n'a plus de sens au bout d'une dizaine de jours car l'atmosphère, système physique chaotique, possède la propriété d' "oublier" rapidement ses conditions initiales. Ce sont alors
    ses "conditions aux limites" qui prennent de l'importance et qui déterminent l'état statistique moyen de l'atmosphère : son climat. On est là dans le domaine de la modélisation climatique et de la climatologie. Notons enfin qu'il n'y a pas de différence fondamentale entre un modèle de prévision météorologique et un modèle de simulation climatique même si la mise en œuvre pratique des calculs est très différente. Ce sont les mêmes lois physiques et les mêmes équations qui y pilotent l'évolution de l'atmosphère. Simplement, dans les modèles météorologiques, il y a beaucoup de variables d'état du système qui sont des conditions aux limites fixes, et qui deviennent une partie des conditions initiales (donc évoluant dans le temps) dans le même modèle étendu au système climatique.

    Voir aussi la FAQ : Qu’est-ce que le climat ? 

    Mise à jour  février 2021.   

Sauvegarder
Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner
Unknown
Unknown
Accepter
Décliner