logo argo large new

observations non satellite

  • C'est un fait d'observation. De 1860 à nos jours... Les chercheurs observent....

    La température moyenne de l'air de la planète a augmenté d'environ 0,8°C (à +/- 0,2°); cette augmentation s'est faite par paliers, entre 1910 et 1940, puis entre 1980  et nos jours.

    Un point effectué en l'an 2001 indiquait que les années 1989 à 2000 étaient les années les plus chaudes jamais enregistrées depuis 1850, à une exception près 1996. La même analyse effectuée au début 2016 indique qu'un record de température globale a été établi en 2010, puis en 2014 et 2015 (voir la News sur l'année climatique 2015 référencée à la fin de cette page). La tendance générale au réchauffement s'est poursuivie sur la période 2001-2015, même si l'on observe de fortes fluctuations d'une année sur l'autre.

    On note sur la figure ci-dessous, l’évolution semblable au cours du temps de la température des terres (courbe en rouge), de la surface de l’eau de mer (courbe en bleu). L'échelle des températures est  graduée par rapport à la moyenne des températures entre 1961 et 1990 (base 0).

    Figure 1

    Depuis 650 000 ans...

    Les glaces polaires constituent les seules archives des climats passés. L'analyse des carottes de glace donnent accès à des informations sur la modification du climat du globe et sur la composition de l'atmosphère.

    Publié en 1999, l’enregistrement de Vostok dans l'antarctique a révélé l’histoire du climat et de l’atmosphère sur les derniers 420 000 ans, avec 4 cycles glaciaire-interglaciaires rythmés environ tous les 100 000 ans par des périodes interglaciaires chaudes. Plus récemment en 2005, les trois kilomètres de carottes de glace  extraits du site de Dôme C en Antarctique (programme EPICA), ont prolongé de 200 000 ans les résultats de Vostok.

    Figure 2 - Nota : Sur l'axe horizontal qui indique les années, notre époque se trouve à gauche

    Au cours des 650 000 dernières années, la température moyenne de l'air, (en rouge sur la figure 2), a varié plusieurs fois de près de 10°C : de -8°C à +2°C, par rapport a la moyenne de l'année 1980.
    On a pu mettre en évidence l'alternance de périodes "froides" beaucoup plus longues que les périodes "chaudes" (dites "interglaciaires"), d'une durée de 15 000 ans tous les 110 000 ans environ.  Les périodes interglaciaires antérieures à 430 000 ans sont moins chaudes, elles présentent des concentrations en CO2 et CH4 plus faibles que celles des quatre périodes interglaciaires les plus récentes. Cette information indique que la proportionnalité entre gaz à effet de serre et température antarctique est conservée pour des modes climatiques différents.

    Depuis 12 000 ans, une période de grande stabilité a été observée (partie gauche de la courbe rouge), succédant à une période très froide, siège de grandes glaciations se traduisant par un abaissement de plus de 120 m du niveau des mers.

    Il est remarquable de voir sur cette figure la corrélation entre les concentrations atmosphériques en CHet CO2 et la température de l’air antarctique tout au long de l’enregistrement.

    Pour en savoir plus :

    Lettre CNRS : Le projet EPICA : la carotte antarctique du Dôme C, nouvelle donnée phare de la Paléoclimatologie

    Observations météorologique (OMM)

    Comment mesure-t-on la température?

    Comment peut-on évaluer les températures pour la période antérieure à 1860?

    Peut-on parler de température moyenne mondiale?

    Quelles observations pour estimer la température à la surface de la Terre?

    News année 2015 L"année la plus chaude de l'époque moderne

    News année 2014 L"année la plus chaude de l'époque moderne

    News année 2012  L'année 2012 au palmarès des années les plus chaudes depuis 1880.  Analyse des indices climatiques 2012

    News année 2010      L’année 2010 fut l’année la plus chaude sur Terre depuis 1880.

    Sur quelles connaissances s'appuie-t-on ?

    Les connaissances scientifiques des mécanismes qui régissent les transformations de la planète ont fait des progrès considérables au cours des cinquante dernières années, grâce au renforcement quantitatif des équipes scientifiques, à l'accroissement des budgets consacrés à l'observation de la Terre, et aux progrès des systèmes d'observation (satellites en particulier) et de la modélisation rendue possible par la puissance des ordinateurs.

    Depuis 1958, Année Géophysique Internationale, on a assisté aussi à la mise en place de programmes internationaux de recherche, s'accompagnant d'un nombre croissant d'échanges de communications entre chercheurs. 

    Enfin,  en 1988 (date de création du GIEC), pour la première fois, les chercheurs internationaux les plus éminents dans les domaines concernés par les climats de la Terre, se sont groupés dans un contexte multinational ouvert (sous l'égide de l'ONU) pour discuter de leurs observations, émettre des avis et des recommandations: dont nous extrayons la substance de cette présentation. 

    NB: Le groupe s'intitule "Groupe Intergouvernemental d'Experts sur l'Évolution du Climat" GIEC (en anglais "International panel for climate change", IPCC).

    Voir : FAQ : Comment fonctionne le GIEC (IPCC)?

     

    Dernière mise à jour, mai 2017

  • Jean-Paul Guinard -  mars 2004 - mise à jour janvier 2005

    La société Micrel a développé sous contrat Ifremer à partir de brevets BrIO, un profileur de température EMMA-T.

  • Il y a peu de chances de pouvoir coloniser un autre corps du système solaire et même si l’on découvre sans cesse de nouveaux systèmes planétaires

  • Madeleine Zaharia, Yves Dandonneau, décembre 2020.
    Remerciements à Pierre Yves Le Traon de Mercator Océan pour la relecture de cet article et les compléments apportés.

  • On fait souvent référence à l’AGI comme un début exemplaire de la coopération internationale pour l’étude de la Terre, particulièrement de ses enveloppes fluides.

  • Jean Labrousse 

    En l’absence de mesures instrumentales, on est réduit à des estimations obtenues par la méthode des proxies (mot anglais fréquemment employé qu’on pourrait traduire par «indicateurs»). Cela consiste à établir une relation entre le paramètre à mesurer, ici la température, et une autre grandeur que l’on peut mesurer. On essaie bien sûr d’établir plusieurs proxies qui se recoupent entre eux, accroissant la précision de l’évaluation.

    Il existe par exemple une relation solide entre la date des vendanges et la température qu’il faisait – du moins pendant la période végétative de la vigne. Grâce au dépouillement des archives, E. Le Roy Ladurie et son école ont pu, pour la période où de telles archives existent, établir la courbe de variation de la température du dernier millénaire en divers point où la vigne était cultivée.

    Un autre proxy est la relation entre la température et la croissance des arbres. Une coupe transversale d’un tronc fait apparaître des zones concentriques plus ou moins épaisses, leur épaisseur respective étant d’autant plus grande que la croissance a été plus forte. Pour un type d’arbre donné, l’établissement de la relation entre température, humidité et croissance permet donc, ici encore pour chaque région, de savoir quelle en a été la température. Grâce à des arbres comme les séquoias (qui vivent très longtemps), par exemple, on peut remonter quelques millénaires. C’est la méthode de la dendrochronologie.

    Lorsque l’on veut remonter plus loin dans le passé, on va s’intéresser à d’autres relations.

    L’étude des carottes glaciaires permet de connaître la composition chimique de l’air grâce à l’analyse des bulles prisonnières de la glace. On peut en outre estimer la température de l’air au moment du dépôt neigeux en mesurant la composition isotopique de l’oxygène de la molécule d’eau de la glace. La profondeur atteinte actuellement par les sondages en Antarctique ramène 800 000 ans en arrière, et on espère atteindre 1,5 million d’années.

    En milieu continental, l’analyse des pollens des sédiments lacustres et des tourbières permet de connaître la végétation qui existait dans le passé et d’évaluer ainsi la température de l’air.


    Pour remonter encore plus loin dans le passé on effectue des carottages dans les sédiments marins. Leur analyse isotopique permet d’évaluer la température qu’il faisait il y a une centaine de millions d’années.

    Bien entendu, on essaie toujours de confronter plusieurs proxies, ce qui permet de recouper les estimations et d’accroître
    leur fiabilité.

    Extrait de l'ouvrage "Climat - une planète et des hommes" édité par le cherche midi éditeur en 2011. Toute reprise totale ou partielle de ce texte doit obligatoirement mentionner le titre et l'éditeur de l'ouvrage.

  • Observations et causes.
  • Le cas de la campagne océanographique internationale Keops2
  • La mer domestiquée ?

    Il y a trois sortes d’hommes disait paraît-il Aristote : les vivants, les morts, et ceux qui vont sur la mer.

  • Michel Petit

    Chacun de nous s’intéresse à la température qui règne autour de lui, à ses variations diurnes et saisonnières.

    La moyenne dans le temps des températures observées en un lieu donné constitue un indicateur qui permet par exemple de caractériser la différence de température entre Abidjan et Paris.
    Il existe certes des variations de température locale dont ne rend pas compte la moyenne et que subissent les habitants, mais ce sont précisément ces variations aléatoires que la moyenne permet de lisser, de façon à avoir une valeur significative.

    La température moyenne mondiale est obtenue en faisant une nouvelle moyenne sur tous les points du globe. C’est un indicateur de la tendance générale des températures partout dans le monde, et cet indicateur est largement utilisé pour caractériser le réchauffement global de la planète, même si on ne peut le mesurer directement nulle part.

    Les modèles numériques simulent la température en tous les points du globe, et en faire la moyenne ne présente aucune difficulté.

    Mesurer la température moyenne mondiale est plus délicat, parce que la répartition des stations d’observation n’est pas homogène et surtout parce qu’il n’en existe pas dans certaines zones peu accessibles.
    Les auteurs n’utilisent pas tous la même méthodologie pour pallier cette absence, ce qui explique de petites variations dans les résultats obtenus.
    Certains ne tiennent pas compte de ces zones, ce qui revient à leur attribuer une valeur égale à la moyenne mondiale. D’autres pensent plus représentatif de la réalité d’attribuer à ces zones la moyenne des régions adjacentes, en faisant remarquer qu’il existe généralement une corrélation forte entre les températures de régions voisines. Les résultats obtenus diffèrent peu mais peuvent conduire à des modifications de détail du classement des années par ordre de température croissante.

    Le record absolu de chaleur peut ainsi être attribué soit à 1998 soit à 2005. L’évolution dans le temps de la température moyenne est peu affectée selon que l’on prend telle ou telle option, à condition de conserver la même pour toutes les époques.

    Le mérite essentiel de la température moyenne mondiale est d’être un indicateur des tendances mondiales, lissant les fluctuations naturelles dans le temps et dans l’espace. Néanmoins, cette moyenne fluctue elle-même d’une année à l’autre et seul son comportement moyen sur plus de 10 ans est significatif.

    La réalité n’est décrite que partiellement par une moyenne quelconque et il ne faut pas perdre de vue que les mesures de température montrent que les continents se réchauffent plus que les océans. Le réchauffement des continents, où vivent généralement les humains, est environ le double de la moyenne mondiale, et celui des régions les plus septentrionales le triple.
    De même, les modèles simulent que, pour un réchauffement en moyenne mondiale de 2°C, le réchauffement des continents sera de 4°C et celui des régions septentrionales de 6°C. L’intérêt et les limites des moyennes sont transposables à tous les paramètres caractérisant le climat, et en particulier à l’importante question des précipitations.

    Extrait de l'ouvrage "Climat - une planète et des hommes" édité par le cherche midi éditeur en 2011. Toute reprise totale ou partielle de ce texte doit obligatoirement mentionner le titre et l'éditeur de l'ouvrage.

  • Jean Labrousse

    La température ne se mesure pas directement. En fait, on mesure le changement que subit l’organe sensible sous l’effet d’un changement de température. Par exemple une dilatation, une déformation, la variation de la résistance électrique d’un conducteur, la variation de conductivité d’un semi-conducteur, le développement d’une force électromotrice, etc.

    L’homme est très sensible à la température. Ce qu’il ressent résulte des échanges thermiques entre son corps et le milieu ambiant, ce qui peut être très différent de la température de l’air qui l’entoure. C’est pourquoi on parle alors de «température sensible».

    Pour mesurer la température de l’air on doit s’assurer que l’organe sensible, par exemple le réservoir du thermomètre à mercure, est en équilibre thermique avec l’air dans lequel il baigne.

    L’air est très mauvais conducteur de la chaleur, on l’utilise par exemple comme isolant dans les fenêtres à double vitrage, les échanges de rayonnement entre l’air et le réservoir sont négligeables, ce sont les échanges convectifs qui prédominent. On doit donc assurer une bonne ventilation du thermomètre.

    Il doit être protégé du rayonnement solaire direct et du rayonnement réfléchi par le sol, et être à l’abri de la pluie.

    Cela conduit à le mettre dans un abri ventilé, les parois de cet abri le protégeant des effets indiqués ci-dessus.
    Enfin, si la connaissance de la température en un point est importante, il faut aussi s’assurer que des mesures faites en des lieux et à des moments différents sont comparables.

    Pour ce faire, l’Organisation météorologique mondiale (OMM) édicte des normes définissant les caractéristiques des thermomètres à employer, des abris, de leur emplacement, etc.

    Par exemple, pour les mesures au sol, le thermomètre doit être orienté au nord, à 1,50 m au-dessus du sol, ce dernier devant, du moins aux latitudes moyennes, être gazonné. L’abri doit être conforme au modèle conçu au milieu du dix neuvième siècle par Thomas Stevenson, un ingénieur écossais, fils de l’écrivain Robert-Louis Stevenson.

    Enfin des campagnes d’inter-comparaison sont régulièrement organisées, en particulier pour les mesures effectuées à l’aide d’instruments emportés par des ballons, les radiosondes.

    Le respect des conditions qui précèdent permet de rendre les mesures comparables dans l’espace et dans le temps, donc d’en suivre l’évolution.

    Si l’on peut faire remonter le premier réseau de mesure de la température de l’air à 1653, à l’initiative de Ferdinand II, grand-duc de Toscane, les mesures de la température effectuées à partir d’instruments fiables ne remontent qu’aux environs de 1860.

    Depuis lors, bien entendu, les instruments ont évolué, les stations ont changé d’emplacement, leur environnement s’est modifié, et c’est pourquoi les données brutes nécessitent une étude critique qui permette d’assurer leur comparabilité dans le temps. Des méthodes fiables ont été développées par des centres de recherche dont l’université d’East Anglia, au Royaume-Uni, est la référence mondialement reconnue.

    Voir aussi :

    Article Météo France sur la température

    Extrait de l'ouvrage "Climat - une planète et des hommes" édité par le cherche midi éditeur en 2011. Toute reprise totale ou partielle de ce texte doit obligatoirement mentionner le titre et l'éditeur de l'ouvrage.

    Actualisé janvier 2016.

  • Jean Pailleux

    Le suivi du changement climatique nécessite une cartographie globale de la température à la surface de la Terre. Sa moyenne globale Tglob est un indicateur essentiel du réchauffement climatique lorsqu'on examine son évolution. En outre, une cartographie très détaillée est souvent nécessaire du fait de la très grande variabilité spatio-temporelle des effets du changement climatique.
    Voir aussi les FAQs : Le hiatus existe-t-il vraiment? et Peut-on parler de température moyenne mondiale?

    L'estimation de la température à la surface de la Terre repose essentiellement sur deux réseaux d'observation in-situ :

    • Les réseaux de bouées (dérivantes et fixes) et de bateaux, mesurant directement la température de l'eau à la surface de la mer (SST, Sea Surface Temperature).
    • Les réseaux de stations d'observation météorologique, mesurant en particulier la «température de l'air sous abri» à une hauteur conventionnelle de l'ordre de 2 m au-dessus du sol (T2m).

    Voir par exemple le réseau français.

    Ces réseaux in-situ sont maintenant complétés par de nombreux instruments satellitaires.

    La température de surface de la mer

    La température de surface de la mer (SST) est une variable essentielle du système climatique qui est obtenue très directement à partir de mesures.
    Voir la FAQ  : «Le vent à la surface de l'océan.» qui explique que les variables climatiques sont presque toujours estimées en partie par la mesure, en partie par la modélisation. Alors que le vent à la surface de l'océan se situe largement du côté modélisation» (dans cette présentation «mesuré vs modélisé»), la SST est franchement du côté «mesures».

    En effet, la SST est mesurée sur l'ensemble du domaine océanique par une multitude d'instruments spatiaux, surtout les radiomètres infrarouges, instruments qui peuvent s'inter-calibrer entre eux et avec les mesures in-situ de navires et de bouées ; ces dernières couvrent assez bien l'océan non gelé car il est relativement facile d'installer un capteur de température de l'eau sur une bouée dérivante. Beaucoup de capteurs de bouées transmettent les mesures très fréquemment, ce qui permet de caractériser facilement le cycle diurne de la température océanique (non négligeable, quoique beaucoup plus faible que pour les températures de surfaces continentales).

    La variabilité spatio-temporelle de la SST est relativement faible, beaucoup plus faible que celle du vent à 10 m ou de la température atmosphérique. Chaque observation ponctuelle de la température océanique est donc souvent représentative d'une zone horizontale de quelques dizaines de kilomètres, ce qui permet de «boucher les trous» entre les observations pour obtenir facilement une analyse globale, au moyen d'algorithmes simples d'analyse (ou de «spatialisation») pour obtenir des produits SST sur une grille régulière. La forte inertie thermique de l'océan fait que les capteurs infrarouges satellitaires peuvent estimer la SST, même sur des zones restant couvertes par les nuages pendant quelques jours. À l'échelle horizontale décamétrique ou hectométrique, il y a peu de variabilité de la SST, du moins pour les phénomènes intéressant la prévision météorologique et le suivi de l'évolution du climat.

    En conséquence, la SST peut s'estimer globalement par une analyse séparée qui ne soit pas intégrée dans l'analyse 3D (ou 4D) de la température atmosphérique, ni dans celle de l'océan. C'est ainsi que l'on procède dans toutes les mises en œuvre opérationnelles. Les centres faisant de la modélisation opérationnelle ou des réanalyses ont toujours traité la SST par une analyse séparée, et cela depuis les années 1970. Des centres ont pu se spécialiser sur la production d'analyses SST à diverses échelles horizontales, analyses qui sont ensuite utilisées comme un «input observé» par les modèles atmosphériques et océaniques. Ces analyses séparées permettent un suivi de l'évolution à long terme de la température moyenne de l'océan global Tmog.

    Ce traitement de la SST par une analyse séparée a été effectuée aussi pour les réanalyses atmosphériques remontant au début du 20e siècle, donc bien avant l'apparition des données satellitaires. Pour le futur, elle ne semble pas être remise en cause, même pour les futures réanalyses océan-atmosphère qui sont planifiées pour être couplées aussi au niveau de l'assimilation. Voir le plan de l'analyse européenne CERA (Coupled European Re-Analysis) dans la Newsletter 144 du CEPMMT (Centre européen pour les prévisions météorologiques à moyen terme), en particulier le diagramme de mise en œuvre, page 16 de la Newsletter.
    Noter dans ce diagramme la petite boîte en haut à droite qui traite séparément la SST, alors que la plupart des autres variables essentielles de l'interface océan-atmosphère sont fortement intégrées dans un ensemble de deux assimilations couplées 3D ou 4D.

    Dans les modèles météo-climatiques, cette température est directement connectée à l'évaluation des flux de rayonnement (loi de Stefan) ; elle est aussi très directement liée à la température atmosphérique au niveau du modèle le plus proche du sol. Le modèle inclut une description des phénomènes de couche limite et permet de calculer avec une bonne précision la température atmosphérique près de la surface de l'océan, par exemple à une hauteur standard de 2 m. Sur l'océan, il existe très peu d'observations directes de la température de l'air, et quand il en existe (bateaux, bouées), elles sont à des hauteurs au-dessus de l'eau très variables (ponts de navires, mâts de bouées...). Néanmoins par une combinaison entre modélisation et mesures, l'estimation de la température à 2 m au-dessus de l'océan peut être faite avec une bonne précision. En d'autre termes "transporter" l'information température depuis la surface jusqu'à une hauteur standard de 2 m est une opération suffisamment précise pour utiliser la SST et la T2m avec le même niveau de confiance dans la plupart des applications liées au suivi de l'évolution climatique.

    La température à la surface des continents

    Sur les continents, la situation en termes d'observation de la température est en quelque sorte inverse de celle des océans. Non seulement il n'y a pas de vrai instrument observant la température superficielle du sol, mais celle-ci est très difficile à définir tellement elle dépend de l'état du sol (albedo, végétation,etc...) et présente une énorme variabilité à petite échelle. Cette variable "température de surface continentale", jointe à la SST, est nécessaire dans les modèles météo-climatiques, en particulier pour écrire les équations du rayonnement. Elle est alors définie comme une moyenne à l'échelle de la maille du modèle qui utilise aussi un albedo, état du sol, indice de végétation, etc... moyennés sur la même maille.

    Mais sur les continents, il existe de nombreuses mesures de la température de l'air effectuées régulièrement à 2 m ou à une hauteur voisine. 2 m est une hauteur conventionnelle permettant de standardiser les mesures de la température de l'air sur l'ensemble de la planète. En pratique, c'est souvent la hauteur du thermomètre placé dans des abris standard des stations météorologiques, à la bonne hauteur pour les yeux de l'observateur chargé des relevés réguliers (quand la station n'est pas automatisée), soit plutôt entre 1.5 m et 2 m ! En plus des réseaux entretenus par les services météorologiques, il existe de nombreuses stations mesurant la température de l'air à des hauteurs variées près du sol, ou même dans le sol, mais ces dernières sont trop rares pour permettre directement un suivi climatique de la température à grande échelle. Sur mer, les observations équivalentes sont rarement à 2 m d'altitude, mais plutôt à la hauteur où l'on peut facilement placer un thermomètre sur un bateau, ou, pour certaines bouées à la hauteur du mât où ce thermomètre peut être accroché. Sur la banquise, quelques bouées sont régulièrement déposées, permettant d'obtenir la température de l'air sur un océan solide (plutôt que liquide). La disponibilité globale des données en temps réel est illustré sur le site du monitoring de Météo-France.

    Sur les continents, les observations les plus directes sont donc des températures de l'air alors que la température de surface est estimée indirectement (situation inverse de l'océan). Là encore la modélisation de la couche limite atmosphérique permet de "transporter" l'information température entre les hauteurs 0 m et 2 m.

    Estimation de la température à la surface de tout le globe terrestre

    Estimer la température globale Tglob, moyennée sur toute la surface du globe, est une opération qui combine surtout les observations de la température de l'eau océanique (via une analyse SST séparée) et les observations de l'air continental. Ces deux systèmes d'observation présentent en effet une bonne couverture globale en mesures de diverses sortes, et les différents capteurs satellitaires permettent en outre de raffiner l'analyse des petites échelles spatiales et aussi d'apporter des informations sur les endroits mal couverts en données in-situ (calottes polaires par exemple). Il existe plusieurs algorithmes permettant d'estimer Tglob. Le plus optimal , et le plus complexe aussi, c'est une assimilation permettant d'intégrer toutes les données, afin de produire une analyse globale et cohérente de tous les champs de température. Tglob et sa tendance peuvent alors être estimés par une moyenne globale de la température à 2 m. C'est ce qui se fait naturellement lorsque l'on dispose d'une réanalyse sur une longue période. Mais il existe toute une palette de méthodes, depuis les plus simples jusqu'aux plus complexes permettant d'estimer ce Tglob et sa tendance, comme expliqué dans la FAQ du site Le climat en question : Une température globale a-t-elle un sens ?

    Pour l'établissement d'une série chronologique et pour le suivi d'une tendance climatique, l'important, c'est que la même méthode soit toujours appliquée tout au long de la période étudiée.

    Quelques organisations au monde effectuent un suivi continu de Tglob et de sa tendance, mois par mois, année par année, décennie par décennie, etc... Les communiqués réguliers de l'OMM (Organisation Météorologique Mondiale), repris par la presse, s'appuient, comme les rapports du GIEC, sur une moyenne des estimations de ces organisations. Voir par exemple la page 37 du 5éme rapport du GIEC qui dit:

    "Le réchauffement est exprimé sous la forme d’une moyenne non pondérée fondée sur des estimations de la tendance linéaire calculée à partir de l’ensemble de données.... sur les températures de surface de l’Unité de recherche climatique du Hadley Centre (HadCRUT4), de l’analyse MLOST (Merged Land-Ocean Surface Temperature Analysis) et de l’analyse des températures de surface de l’Institut Goddard pour les études spatiales (GISTEMP)".                               

  • Parti de Brest le 6 février 2020, le navire océanographique de l'Ifremer Thalassa est de retour ce lundi 30 mars après avoir accompli la mission «Pirata FR30» dans son intégralité.

  • Un changement progressif de la teneur en isotope 13 du carbone dans les muscles des thons révèle un changement de l'écosystème des océans tropicaux.

  • Les êtres vivants dans les océans interagissent avec les propriétés chimiques de l’eau de mer de façon différente selon les endroits, les saisons, et à plus longue échelle, les ères géologiques. Ces interactions dépendent de la physique des océans : température, courants, salinité.

  • Reconstituer le passé, observer le présent, analyser les données observées des milieux naturels
  • Bruno Voituriez
    I - Naissance de l’océanographie opérationnelle

    L’océanographie opérationnelle se propose d’établir un système d’observations et de simulations numériques pour suivre et prévoir en continu le devenir de l’océan,

  • En examinant régulièrement le signal radar de précipitation fourni par le site météorologique windy.com sur une zone situé à l’ouest de Toulouse,

  • En suivant une directive européenne, Météo France permet désormais un accès gratuit à ses données publiques (voir communiqué de presse).

Sauvegarder
Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner
Unknown
Unknown
Accepter
Décliner