Embarquez avec des scientifiques, des ingénieurs et des marins pour une navigation-exploration des relations avec l'océan, le climat et les énergies marines dans la perspective du changement climatique
Chapitre IX : Le changement climatique : histoire et enjeux
L'apport de la "paléocéanographie"
Jacques Merle, Bruno Voituriez, Yves Dandonneau,Club des Argonautes - Mars 2014 - Mis à jour Février 2015
Avant l’exploration de la mémoire de la glace, les sédiments marins et continentaux déposés au fil des millénaires au fond des océans et des lacs avaient déjà délivré de précieuses informations sur les climats passés.
L’étude de ces dépôts du plancher océanique, qui a ouvert la voie à la «paléo-océanographie» ou en plus condensé la «paléocéanographie», est complémentaire de l’étude des enregistrements glaciaires et les deux disciplines se sont développées parallèlement jusqu’à ce qu’elles convergent en s’attaquant à la même question scientifique : la reconstitution des climats passés.
Néanmoins cette étude des sédiments marins et continentaux est issue d’une autre tradition scientifique plus ancienne que la glaciologie et dépendante de la géologie, appelée la sédimentologie. Il est donc légitime de la traiter individuellement dans la question climatique, même si, comme on le verra plus loin, ses conclusions rejoindront celle de la glaciologie dans l’interprétation des signaux climatiques du passé, notamment en vérifiant l’hypothèse du forçage astronomique élaborée par Milankovitch.
On a rapporté plus haut (chapitre II et IV) les interrogations passionnées des géologues qui étaient intrigués par les blocs erratiques striés, les moraines et les résidus détritiques divers qu’ils trouvaient dans les vallées alpines, en Grande Bretagne et en Amérique du nord et qui semblaient témoigner de l’existence passée de climats froids ayant recouvert ces régions d’une épaisse chape de glace.
Il existe une préhistoire de la climatologie qui a ses racines depuis le XVIII ème siècle dans ces observations géologiques témoignant de climats passés très froids pour lesquels ces géologues (comme Louis Agassiz – chapitre II) cherchaient des explications.
Ils en proposèrent de nombreuses allant des crises volcaniques susceptibles de réduire l’apport énergétique du Soleil en modifiant l’albédo de la Terre, aux modifications de la géométrie des bassins océaniques limitant l’effet, déjà reconnu, de la circulation océanique, incluant le Gulf Stream, sur le climat de l’Europe.
Ces spéculations perdurèrent jusqu’à ce que la théorie astronomique de Milankovitch, longtemps combattue, finit par s’imposer à partir des années 1960 comme une hypothèse plausible. Mais il fallait la vérifier et chercher dans les empilements sédimentaires récents la trace des fréquences caractéristiques de baisses d’insolation d’origine astronomique susceptibles d’expliquer les alternances de climats chauds et plus froids. Dès lors, les sédiments qui s’accumulaient au fond des bassins océaniques, comme ceux des lacs et autres lagunes continentales, furent considérés comme un gisement possible de données susceptibles de vérifier, ou, au contraire, d’infirmer, cette théorie astronomique du climat, et d’une façon plus générale, de tester des scénarios explicatifs des variations climatiques passées.
La sédimentologie, émanation de la géologie, avait trouvé une raison d’être plus solide que la simple description des sédiments qui se déposaient au fond des océans et des lacs. Elle allait progressivement se projeter vers de nouveaux objectifs scientifiques autour de la question climatique enfantant ainsi une nouvelle discipline : la «paléoclimatologie» qui s’attache à l’étude des climats passés dans tous les milieux terrestres, sur les continents, dans les océans et dans les glaces. Elle inclut donc la glaciologie et la paléocéanographie. Cette dernière est dédiée à l’étude du passé de l’océan, incluant son enveloppe continentale solide (fonds et côtes) et sa masse liquide.
1- Naissance de la paléocéanographie
Á coté de l’exploitation des archives glaciaires que l’on vient de traiter au chapitre précédent, la reconstitution des climats anciens est venue surtout de l’étude des sédiments marins qui ont l’avantage de se déposer régulièrement au fond des océans pendant longtemps, et ainsi de sceller une information sur l’évolution des conditions climatiques d’un passé plus lointain - pouvant atteindre plusieurs millions d’années - que celui accessible par les archives glaciaires.
Depuis le XIXème siècle, les navigateurs et les savants qui les accompagnaient, s’intéressaient à la nature des roches et des sédiments qui tapissaient le fond des océans et tentaient d’en prélever des échantillons avec les moyens de fortune dont ils disposaient à l’époque traînant au bout d’un câble une petite nacelle qui raclait le fond et pouvait accrocher quelques centaines de grammes de sédiments ou de roches. La pose des câbles téléphoniques sous-marins avait aussi conduit les ingénieurs à s’intéresser, dès la fin du XIXème siècle, à la nature des fonds marins.
Mais il fallut attendre la deuxième moitié du XXème siècle pour que les navires océanographiques s’équipent de carottiers permettant de prélever des carottes de sédiment de plusieurs dizaines de mètres et ainsi d’atteindre des archives sédimentaires vieilles de l’ordre de plusieurs millions d’années.
Un géologue micropaléontologue, Cesare Emiliani, en poste à l’université de Chicago, rassemblant tous les prélèvements sédimentaires océaniques disponibles, a été le premier en 1955 à relier les rapports isotopiques de l’oxygène contenu dans les débris de coquilles de foraminifères benthiques, avec la température des eaux marines. Il put ainsi analyser les 500 000 dernières années et identifier 5 cycles climatiques d’environ 100 000 ans correspondant approximativement aux cycles de Milankovitch. Ses résultats ont été longtemps contestés par ses collègues géologues faute de faire la part dans les variations de ce rapport isotopique de ce qui était dû aux changements de volume des calottes glaciaires et aux variations locales de température. La paleocéanographie prit réellement son essor en 1973 avec les travaux de Shackleton et Opdyke qui purent analyser avec précision une carotte prélevée dans l’océan Pacifique équatorial dans le but de déterminer si les périodes principales de variation de l’ensoleillement prédites par Milankovitch étaient bien à l’origine de variations de températures décelables dans un enregistrement sédimentaire. Ils vérifièrent ainsi que le rapport isotopique de l’oxygène était bien un marqueur de la température comme le supposait Emiliani mais à condition de bien prendre en compte tous les éléments qui déterminent ce rapport.
Leur enregistrement couvrait une période de 900 000 ans et ils mirent clairement en évidence une succession de glaciations entrecoupées de courtes périodes interglaciaires, avec une fréquence principale de 100 000 ans. Ils utilisaient comme marqueurs climatique le volume total de la glace continentale qu’ils estimaient aussi à partir de l’analyse de ces rapports isotopiques.
Pour bien saisir la valeur et la portée des résultats obtenus par Schackleton et Opdyke il est nécessaire de les analyser plus en détail. Deux conditions principales doivent être satisfaites pour confronter objectivement et rigoureusement des observations de sédiments marins avec la théorie astronomique. La première condition est de disposer d’un index climatique caractérisant le climat de l’ensemble de la planète et pas seulement d’une région. La deuxième condition, tout aussi importante, est de disposer d’une chronologie précise et la plus détaillée possible. La géochimie des radioéléments et la micropaléontologie, notamment l’étude des foraminifères et leurs relations avec leur environnement, fourniront des données qui permettront de satisfaire en partie ces conditions. Shackleton et Opdyke ont mesuré le long de leur carotte le rapport 18O/16O des isotopes de l’oxygène dans les sédiments formés de débris de coquilles de foraminifères. Pour fabriquer leur coquille les foraminifères extraient de l’eau de mer des ions carbonates et calcium, mais cette précipitation des carbonates privilégie l’oxygène lourd 18O en fonction de la température ; plus elle est basse plus les atomes lourds 18O précipitent de telle sorte que le rapport 18O/16O d’un fossile à coquille calcaire est d’autant plus grand que la température à laquelle le foraminifère a vécu était plus basse. Pour fabriquer leur coquille les foraminifères extraient de l’eau de mer des ions carbonates et calcium, mais cette précipitation des carbonates privilégie l’oxygène lourd 18O en fonction de la température ; plus elle est basse plus les atomes lourds 18O précipitent de telle sorte que le rapport 18O/16O d’un fossile à coquille calcaire est d’autant plus grand que la température à laquelle le foraminifère a vécu était plus basse. Ce rapport 18O/16O peut donc être utilisé comme un «thermomètre géologique» permettant d’estimer la température de l’eau de mer du passé avec une grande précision, de l’ordre du degré Celsius. Outre sa relation avec la température, ce rapport peut également être utilisé pour suivre l’évolution du volume de glace sur l’ensemble de la Terre car les glaces polaires sont très pauvres en 18O et donc le rapport 18O/16O est un indicateur du climat global de la Terre, les périodes froides correspondant à un rapport 18O/16O élevé.
Quant à la datation et l’établissement de la chronologie dans les sédiments, Shackleton et Opdyke l’ont déterminée par la teneur en radioéléments tel que le carbone 14 (14C) pour les dépôts récents de moins de 40 000 ans et le thorium 230 (230Th) pour les dépôts plus anciens. Les deux auteurs mesurèrent aussi dans la même carotte le champ magnétique terrestre et purent déterminer précisément le niveau correspondant à son dernier renversement bien connu (daté de 780 000 ans) leur fournissant ainsi une chronologie absolue. Cependant la première condition, concernant l’indicateur climatique universel que pouvait être le volume de glace de la planète, n’était pas totalement vérifiée par cette unique carotte prélevée en un lieu très particulier, l’océan Pacifique équatorial. Il fallait s’assurer que le volume des glaces ainsi déterminé n’était pas influencé par des paramètres locaux. C’est pourquoi, trois ans plus tard en 1976, Hays, Imbrie et Shackleton allèrent plus loin et présentèrent les résultats de l’analyse de deux carottes de l’océan Indien prélevées dans des sites éloignés. Ils prirent en compte de nombreux paramètres de nature différente associant la micropaléontologie et la géochimie de radioéléments. Ils mesurèrent : le rapport 18O/16O des coquilles de foraminifères benthiques indicateur de la température et du volume de glace planétaire comme l’avaient fait Shackleton et Opdyke. Mais en plus ils déterminèrent la teneur en carbonates des sédiments reflétant la productivité biologique de l’océan et donc en partie son climat, ainsi que les changements de populations de foraminifères qui sont également un indicateur climatique. Enfin, comme dans la précédente étude, ils associèrent ces observations au renversement du champ magnétique terrestre dont l’âge est connu précisément.
Courbes publiées dans Science en 1976 -par Hays, Imbrie et Shackelton confirmant la théorie empirique selon laquelle les cycles interglaciaires correspondent à des intervalles de faible excentricité. http://www.mantleplume...../Hays1976.pdf
Les résultats de l’analyse de ces paramètres par Hays, Imbrie et Shackleton sur leurs deux sites furent étonnamment concordants dans la précision et la richesse de leur contenu informatif. Pour les différentes catégories d’enregistrements étudiées et les paramètres qui en découlent, toutes les périodes prédites par la théorie de Milankovitch furent retrouvées : celle de 100 000 ans pour la variation de l’excentricité de l’écliptique, mais aussi celle de 41 000 ans pour les variations de l’inclinaison et le doublet 23 000 – 19 000 caractéristique de la précession des équinoxes.
Ce résultat, qui eut un grand retentissement, accréditait définitivement l’origine astronomique des glaciations formulée par Milankovitch 40 ans plus tôt. Il restait cependant à compléter et à préciser les calculs de Milankovitch, ce que les ordinateurs allaient permettre.
Il restait aussi à répondre à quelques questions qui demeuraient embarrassantes.
Pourquoi le mécanisme de Milankovitch imposait-il son rythme de façon marquée seulement au dernier million d’années et peu avant ?
Pourquoi l’affaiblissement du rayonnement solaire dû à l’allongement de l’excentricité de l’orbite terrestre, le plus faible (seulement 0,2 %) des trois paramètres astronomiques, induisait-il la réponse la plus marquée à la période de 100 000 ans ?
D’une façon générale pourquoi et comment d’aussi faibles variations de l’énergie solaire reçue par la Terre pouvaient elles induire une réponse climatique aussi spectaculaire ?
Á la recherche de réponses à ces questions entraîna une intense activité des paléocéanographes qui multiplièrent les prélèvements de carottes de sédiment en de nombreux points de l’océan mondial où les conditions d’accumulation et de préservation des sédiments étaient favorables. La paléocéanographie était en marche !
2- La paléocéanographie reconstitue les climats des derniers 80 millions d’années
L’un des fondateurs de la paléocéanographie, le français Jean-Claude Duplessy du Laboratoire des Faibles Radioactivités (LFR) de Gif-sur-Yvette dresse un panorama saisissant de l’évolution du climat de la Terre au cours des 80 derniers millions d’années pendant lesquels les dépôts sédimentaires se sont accumulés au rythme de quelques millimètres à quelques centimètres par millénaires avant d’être absorbés et enfouis par la subduction de la plaque qui les portait. Les plus anciens de ces sédiments encore en place et accessibles par les carottiers des navires foreurs datent du crétacé et sont vieux de 80 à 65 millions d’années, époque où un monde sans glace et très chaud abritait de nombreuses espèces végétales et animales disparues depuis, et parmi elles les fameux dinosaures. En effet, Il y a 65 millions d’années, une extinction massive des espèces vivantes (plus de 90 %), incluant donc les dinosaures, marque le passage du dernier étage de l’ère secondaire à l’ère tertiaire. Cette catastrophe écologique, repérable sur l’ensemble de la planète, est probablement due à la collision avec la Terre d’un astéroïde géant dont on pense avoir retrouvé les traces de l’impact dans le golfe du Mexique. Tenter de visiter ces climats très anciens, vieux de plusieurs dizaines de millions d’années, peut nous aider à mieux comprendre quels sont les facteurs qui déterminent la variabilité du climat à long terme et comment on en est arrivé à notre climat actuel. C’est cette «promenade climatique» depuis le crétacé jusqu’à nos jours, dans les pas de Jean-Claude Duplessy, que nous proposons dans ce qui suit.
2- 1 Le climat chaud du crétacé était déjà gouverné par l’effet de serre
Comment expliquer le climat chaud du crétacé ?
Les astrophysiciens nous assurent que le Soleil n’est pas en cause car son flux énergétique émis sous forme de rayonnement n’a que peu varié au cours des derniers 200 millions d’années. Différents modèles couplés entre l’atmosphère et l’océan, prenant en compte la géométrie des continents de cette époque et des hypothèses raisonnables sur la dynamique des enveloppes fluides, océan et atmosphère, ont tenté de reproduire les conditions climatiques régnant aux différentes latitudes à cette époque du crétacé. Ces simulations devaient être confrontées aux observations de la géologie, y compris la flore et la faune du moment. Mais le succès ne fut pas au rendez-vous jusqu’à ce que, en 1989, deux géochimistes de l’Université de Yale, Berner et Lasaga, imaginent que la concentration en gaz carbonique de l’atmosphère avait pu varier dans une large fourchette et être très différente de ce que l’on imaginait généralement. Ils estimèrent, comme l’avaient fait les précurseurs du XIXème siècle : Tyndall, Arrhénius et Chamberlin, (Chapitre II) que deux phénomènes antagonistes gouvernant le cycle du carbone, pouvaient modifier la concentration en gaz carbonique de l’atmosphère : une émission de gaz carbonique dans l’atmosphère par l’activité volcanique et à l’inverse une fixation de ce carbone dans les roches par la sédimentation et l’enfouissement de dépôts marins sur le fond. Ces idées n’étaient pas révolutionnaires mais elles remettaient au goût du jour l’intérêt des méthodes de bilan, appliquées à des paramètres géophysiques affectant le milieu fermé qu’est le système planétaire. Ces deux auteurs tentèrent de faire ce bilan pour estimer la teneur en gaz carbonique de l’atmosphère de cette époque. Ils trouvèrent que les émissions volcaniques de gaz carbonique au crétacé devaient dépasser de beaucoup l’enfouissement de carbone dans les sédiments ; et ils en conclurent que la teneur en gaz carbonique de l’atmosphère au crétacé avait pu être quatre à cinq fois supérieure à ce que l’on pensait qu’elle était. Un modèle, tenant compte de cette hypothèse et de l’effet de serre induit, associé à une circulation océanique vigoureuse pour dissiper la chaleur des basses latitudes vers les latitudes élevées, montra alors des conditions climatiques simulées en accord avec les observations géologiques. La température moyenne était assez homogène en latitude et supérieure à la température moyenne actuelle de la Terre d’environ 5°C, avec une absence totale de glace aux pôles. Ce serait donc l’effet de serre qui serait le principal responsable du climat chaud du crétacé. Et notre planète aurait connu au cours de ce passé très lointain une atmosphère marquée par une teneur en gaz carbonique très élevée.
2- 2 Avec l’ère tertiaire la glace apparaît
L’ère tertiaire a vu les premières glaces terrestres s’établir sur le continent antarctique. Lentement d’abord puis massivement à partir de l’ouverture du passage de Drake il y a 22 millions d’années. Que s’est-il passé ? Et comment cette calotte de glace a-t-elle pu s’établir et se maintenir pendant plusieurs dizaines de millions d’années jusqu’à aujourd’hui ? Tout a commencé avec la catastrophe d’origine cosmique, déjà évoquée, qui frappa la Terre il y a 65 millions d’année marquant la fin du crétacé et le passage de l’ère secondaire à l’ère tertiaire. Cet événement, qui eut d’énormes conséquences sur la faune et la flore et qui a entraîné la disparition de tous les animaux de grande taille, n’a, semble-t-il, que légèrement affecté le climat à long terme. Mais à très court terme cependant, à l’échelle de quelques siècles, voire quelques années, l’impact de la météorite a eu d’importantes conséquences environnementales. Il a soulevé un énorme nuage de poussière et de gaz qui s’est répandu dans la haute atmosphère, a obscurci le ciel et absorbé le rayonnement solaire qui ne parvenait plus à la surface de la Terre. Les arbres, ne pouvant plus renouveler leur feuillage par photosynthèse, disparurent massivement et un froid intense s’abattit sur l’ensemble du globe. Mais aucune anomalie climatique n’a pu être mise en évidence au cours des quelques centaines de milliers d’années qui ont suivi cet événement. Néanmoins 2 à 3 millions d’années après le choc de l’astéroïde, une étrange période caniculaire de courte durée : 100 000 à 150 000 ans, s’est établie. La température des côtes du continent Antarctique atteignait 18°C à 20°C et il se recouvrit d’une forêt de hêtres. Ce réchauffement des hautes latitudes marqua également les eaux océaniques profondes, qui atteignirent plus de 12°C, sans que les océans superficiels tropicaux n’en soient notablement affectés. Après ce coup de chaleur un lent refroidissement s’est amorcé, plus marqué dans les hautes latitudes que dans les régions tempérées et tropicales. Pour de nombreux paléoclimatologues et paléocéanographes cette évolution serait due à une diminution de l’effet de serre consécutif à une baisse de la teneur en gaz carbonique de l’atmosphère. Néanmoins cette teneur en CO2 atmosphérique en régression n’était qu’une hypothèse imaginée à partir d’indices révélant une activité volcanique en baisse. Les paléoclimatologues nous affirment cependant que pendant 17 millions d’années les températures baissèrent au rythme moyen de 0,4°C par million d’années, jusqu’à ce que des premières gelées apparaissent dans des vallées de l’Antarctique ! Puis soudain, il y a 36 millions d’années, une nouvelle crise frappa la Terre, le refroidissement s’accéléra et en 200 000 ans les températures des eaux profondes de l’océan, qui étaient encore tièdes et voisines de 6 à 8°C, chutèrent brutalement pour atteindre les températures actuelles comprises entre - 1°C et + 2°. La crise frappa évidemment les organismes vivants, les faunes benthiques notamment seront remplacées par des espèces mieux adaptées au froid. Comment expliquer une perturbation aussi brutale qui nous a fait changer d’ère en nous rapprochant des climats actuels ?
2-3 Á l’oligocène, la calotte glaciaire Antarctique se constitue
Cette «grande coupure» comme l’ont appelé les géologues, vieille de 36 millions d’années, qui sépare un éocène chaud d’un nouvel état climatique plus froid, a modifié considérablement l’équilibre des faunes et des flores définissant ainsi un nouvel étage géologique appelé l’oligocène.
Dans ce climat de plus en plus froid, des glaciers se sont progressivement établis sur le continent Antarctique, entrecoupé cependant de périodes de recul plus chaudes, jusqu’à ce que le continent soit totalement englacé mais avec un volume de glace très inférieur à ce qu’il est aujourd’hui. Après l’ouverture du passage de Drake au sud du Cap Horn il y a 22 millions d’années, l’Antarctique s’est trouvé subitement isolé des autres masses continentales et une circulation océanique intense s’est établie comme un anneau froid tournant autour de cette île gigantesque. Le continent et les eaux océaniques qui l’entouraient sont devenus de plus en plus froids. Le gradient thermique entre les mers tropicales et ce courant froid périantarctique s’est accru considérablement freinant d’autant le transport méridien de chaleur des basses latitudes tropicales vers ces régions australes englacées et accentuant de plus en plus le refroidissement. Entre, approximativement, 15 à 13 millions d’années le froid s’accentue encore, la calotte glaciaire s’installe définitivement et s’épaissit pour atteindre un volume comparable à ce qu’il est aujourd’hui avec cependant des variations importantes qui se traduiront par des avancées et des reculs du niveau général des océans sur les autres continents, donnant naissance aux dépôts sédimentaires caractéristiques de cette époque (en France, ce sont les bassins parisien et aquitain. Ailleurs, dans les tropiques et l’hémisphère Nord, les conditions climatiques avaient peu changé, elles restaient même tempérées aux hautes latitudes avec exceptionnellement quelques glaciers cantonnés dans les régions de haute montagne. A la fin de l’ère tertiaire, il y a environ une dizaine de millions d’années, il existait donc encore une dissymétrie marquée entre l’hémisphère sud froid et dominé par un continent Antarctique totalement englacé, et l’hémisphère nord, très tempéré, où la glace n’était pas encore apparue. Une nouvelle question s’impose alors aux paléoclimatologues et paléocéanographes :
Que s’est-il passé au cours de la dernière dizaine de millions d’années qui pourrait expliquer le passage d’un hémisphère nord tempéré jusqu’aux plus hautes latitudes, à un englacement progressif des régions arctiques conduisant à la situation actuelle ?
2-4 Á la fin du tertiaire, la glace envahit les hautes latitudes boréales
Les progrès dans l’étude des flores fossiles au cours des dernières décennies couplés aux apports théoriques de la tectonique des plaques issues des données des forages du programme JOIDES ont offert aux paléontologues et aux géologues un ensemble de résultats étonnants qui les ont rapprochés des autres sciences de l’environnement. Ils se sont découverts des intérêts scientifiques communs avec les paléoclimatologues, les météorologues et les océanographes en convergeant avec eux sur l’objectif climatique.
Les deux grandes chaînes montagneuses de la Terre : l’Himalaya en Asie et la cordillère des Andes et les rocheuses en Amérique, ont commencé leur surrection il y a seulement une dizaine de millions d’années.
Avant, les régions occupées par ces massifs montagneux étaient des plaines de basse altitude comme en atteste leur végétation fossile d’arbres à feuilles caduques.
Le choc des plaques :
plaque indienne contre plaque asiatique
et plaque pacifique contre plaque américaine,
a amorcé la création de ces chaînes de montagne qui poursuivent encore aujourd’hui leur surrection.
L’apparition, presque subite à l’échelle géologique, de ces grandes chaînes de montagne à des latitudes moyennes bouleverse énormément la circulation atmosphérique et le climat. C’est ce qui s’est passé du coté nord-américain où les vents, qui soufflaient régulièrement d’ouest en est au dessus d’une immense plaine il y a dix millions d’années, ont pris presque soudainement, sous l’effet de la montée des montagnes rocheuses, une configuration tourbillonnaire à grande échelle qui a ouvert les régions tempérées à l’influence des vents polaires, refroidissant ainsi tout l’hémisphère nord.
C’est ce qui s’est également passé en Asie où la surrection de l’Himalaya a créé la mousson indienne renforçant le contraste saisonnier qui affecte maintenant fortement l’hémisphère nord. Par ailleurs, la surrection de ces montagnes a intensifié l’érosion chimique qui se fait au dépend du gaz carbonique et accru la consommation de gaz carbonique atmosphérique, ce qui a réduit d’autant l’effet de serre et accentué encore le refroidissement. Ces phénomènes d’évolution lente ont refroidi progressivement l’hémisphère nord et les premiers grands glaciers continentaux sont apparus en Islande il y a environ trois millions d’années. Puis les glaciers de montagne sont devenus de plus en plus nombreux et se sont étendus. Il y a deux millions et demi d’années les glaciers américains, groenlandais, et scandinaves ont atteint la mer relâchant des icebergs. Soudainement, quelques milliers d’années plus tard, une première grande glaciation s’est étendue sur la moitié la plus septentrionale de l’hémisphère nord envahissant le Groenland, le Canada et le nord de l’Europe.
Le climat de la Terre venait d’entrer dans un nouveau régime avec deux pôles englacés et des oscillations rythmiques glaciaires froides et interglaciaires plus chaudes, affectant principalement l’hémisphère nord et conférant une extrême sensibilité du climat à des perturbations mineures comme les variations du flux radiatif solaire reçu par la Terre. On était arrivé au régime climatique actuel, en place depuis environ 1024 000 ans, dominé par ces alternances de climats froids et chauds apparaissant avec une période principale voisine de 100 000 ans.
3 - Les oscillations climatiques des derniers millions d’années et la théorie astronomique
Schackleton et ses co-auteurs, Imbrie et Hays, avaient démontré, en 1976, le bien-fondé de la théorie de Milankovitch et retrouvé dans les sédiments du plancher de l’océan indien les périodes d’oscillations principales du régime climatique avec ses glaciations et ses périodes interglaciaires prédites par la théorie astronomique. Mais il restait à préciser ces corrélations entre observations et théorie. Et une question revenait avec insistance : depuis quand et pourquoi les oscillations glaciaires-interglaciaires existent-elles ? Pourquoi ne se manifestaient-elles pas antérieurement ?
3-1 L’apparition des glaces dans l’Arctique
Pour répondre à ces questions, Schackleton dût sélectionner soigneusement une carotte de sédiment, non remaniée, recouvrant une longue durée, permettant de relier cette période de glaciation de l’hémisphère nord et ses oscillations de grandes amplitudes des derniers 1024 000 ans, avec les climats antérieurs. L’étude détaillée de cette transition climatique pouvait être très riche d’information sur les mécanismes responsables de l’évolution du climat, y compris ceux d’origine astronomique. Parmi toutes les carottes recueillies par le navire JOIDES Resolution, il choisit une carotte de l’océan Pacifique équatorial qui recouvrait six millions d’années.
Schackleton distingue trois épisodes dans ces 6 millions d’années. De six à trois millions d’années les glaciers antarctiques sont stables et on note l’absence de glace dans l’hémisphère nord. Puis s’opère une conquête progressive par la glace des hautes latitudes nord avec des avancées et des reculs aux rythmes prévus par la théorie astronomique de 40 000 et 23 000 ans caractéristiques de l’inclinaison et de la précession. Mais la période principale de 100 000 ans associée à l’allongement de l’écliptique n’est pas encore perceptible. Enfin, depuis 1024 000 ans un nouveau régime climatique s’établit, l’intensité du froid ainsi que l’extension et le volume des glaces, s’accroît tous les 100 000 ans tandis que le niveau des océans baisse d’environ 50 mètres. Mais les variations associées à l’inclinaison (40 000 ans) et à la précession (doublet 19 000 – 23 000 ans) sont toujours présentes. Parmi ces trois périodes d’oscillations froides-chaudes la plus marquée est celle de 100 000 ans qui se reproduit neuf fois et dessine donc neuf glaciations au cours du million d’années de la période quaternaire qu’a connue l’espèce humaine. Cette oscillation correspond à des écarts considérables de température entre les épisodes froids et les interglaciaires chauds de l’ordre de 8 à 10°C. Comment expliquer cette énorme amplitude thermique caractéristique de cette fréquence principale de 100 000 ans alors que le forçage astronomique (allongement de l’écliptique réduisant le flux radiatif solaire) à cette fréquence est le plus faible des trois forçages astronomiques et représente seulement 0,2 % de la valeur moyenne de la constante solaire reçue par la Terre ? Beaucoup d’auteurs ont émis l’hypothèse d’un enchaînement possible de rétroactions passant par la biosphère continentale et les forêts boréales pour expliquer l’amplification de la réponse climatique à cette période. Mais les glaciologues et les géophysiciens ont avancé une autre explication qui peut s’ajouter à la précédente en faisant intervenir l’élasticité des continents ainsi que les propriétés mécaniques de la glace affectant sa dynamique. Les plates-formes continentales réagissent au poids de la couverture glaciaire en s’enfonçant lorsque celle-ci s’épaissit et au contraire en remontant lorsque la chape de glace s’amincit ou disparaît. Ces ajustements verticaux des continents, sont appelés des « mouvements isostatiques » par les géophysiciens. Lorsque les calottes glaciaire sont à leur développement maximal, qui peut les élever de plusieurs kilomètres, elles enfoncent par leur poids le socle continental et elles affleurent à la côte au niveau de l’océan où elles subissent un travail de sape intense par la mer qui libère des icebergs et des blocs tabulaires gigantesques comme c’est le cas actuellement en Antarctique . Les modèles des glaciologues indiquent que les calottes glaciaires qui recouvraient le nord de l’Amérique et de l’Europe, ne pouvaient grossir indéfiniment au-delà de 100 000 ans, cette période étant déterminée par les propriétés mécaniques et la vitesse de glissement de la glace sur son socle.
3-2 La théorie astronomique et la circulation océanique dans l’Atlantique nord
Dans les années 1970 la théorie astronomique n’est plus remise en cause bien qu’elle pose encore des questions et que beaucoup pensent qu’il faut reprendre les calculs de Milankovitch qui n’étaient qu’approchés après cependant plus de trente ans de patiente mise au point avec un papier et un crayon.
Les ordinateurs sont maintenant les outils qui manquaient. Mais la mécanique céleste est une science complexe et pour résoudre les équations permettant de prévoir l’évolution dans le temps de la position de la Terre par rapport au Soleil, il faut prendre en compte les perturbations que les autres planètes du système solaire exercent sur ces mouvements terrestres. On entre dans un domaine dominé par la théorie du chaos que le météorologue Edward Lorenz avait remis au goût du jour (Chapitre V) et les solutions ne peuvent être qu’approchées et numériques. C’est dans ce contexte qu’un mathématicien, devenu astronome, puis météorologue, déjà cité, André Berger, de l’Université catholique de Louvain-la-neuve a mis au point une nouvelle méthode de calcul de l’excentricité, de l’obliquité et de la précession des équinoxes maintenant possible avec les ordinateurs et beaucoup plus précise que les calculs de Milankovitch. Il confirma néanmoins que les variations des paramètres orbitaux avaient des composantes périodiques et que les valeurs de ces périodes, mises en évidence par Milankovitch, étaient justes.
Plus tard, en 1988, avec un autre modèle, l’équipe de Berger simula la réponse de l’océan à ces forçages astronomiques. L'équipe montra qu’en périodes glaciaires, tel que celui vécu par nos ancêtres il y a plus de 18 000 ans, les eaux nord atlantique plongeaient moins profondément dans la zone de convection au sud du Groenland et de l’Islande. Cette plongée d’eaux denses, froides et salées, est la source froide de la machine thermique océanique méridienne, la fameuse MOC «Meridional Overturning Circulation». C’est le départ du «tapis roulant» qui, pendant les périodes glaciaires, se trouvait ralenti d’environ un tiers par rapport à ce qu’il était en périodes interglaciaires, comme celle que nous connaissons aujourd’hui. Le modèle montrait aussi que, durant un épisode glaciaire, la limite nord de l’extension des eaux superficielles chaudes, prolongeant le Gulf Stream pour devenir la dérive nord atlantique avant qu’elles ne se refroidissent et plongent dans la zone de convergence, était décalée vers le sud jusqu’aux latitudes tempérées. Autrement dit, moins de chaleur atteignait les hautes latitudes de l’Atlantique nord-est et une partie de la branche chaude de la machine thermique océanique était déviée vers le sud rebouclant en direction des tropiques.
Ces caractéristiques de la circulation océanique durant le dernier maximum glaciaire, simulées grâce à un modèle, confortaient les données issues de l’ensemble des carottages sédimentaires disponibles. A la fin des années 1970, un groupe de chercheurs paléocéanographes décida de faire une analyse globale de toutes les données issues de ces carottages pour reconstituer la température et la circulation océanique mondiale lors du dernier maximum glaciaire il y a 18 000 ans. Ce travail fit l’objet d’un grand programme international, initié par les États Unis, appelé CLIMAP «Climate Long-range Investigation Mappings and Prediction Project», qui dura 10 ans et fut inclus dans un programme international : «International Decade of Ocean Exploration» créé en 1969 par l’UNESCO et la COI. Le premier et le principal résultat de CLIMAP publié en 1981 fut la carte des températures de surface de l’océan au maximum de l’extension de la couverture glaciaire il y a 18 000 ans. Pour obtenir ces températures et garantir leur homogénéité d’un océan à l’autre, un important travail de micropaléontologie sur les foraminifères benthiques, couplé avec des analyses du rapport 18O/16O, fut nécessaire comme montré au début de ce chapitre. Après huit ans de travail le programme CLIMAP proposa une description des principales caractéristiques du climat glaciaire. Le refroidissement avait affecté principalement les hautes latitudes de l’Atlantique nord cernées par les glaces qui recouvraient les mers du Labrador, du Groenland et de Norvège, presque toute l’année.
Le niveau moyen de l’océan était 120 mètres plus bas qu’actuellement, la Manche et la mer du nord avaient disparues sous la glace. Les eaux froides polaires descendaient jusqu’à la latitude de l’Espagne créant un front thermique intense avec les eaux tropicales chaudes plus au sud. Ces eaux tropicales étaient un peu plus chaudes qu’actuellement, particulièrement dans l’océan Pacifique (1 à 2°C). Ce sont les régions tempérées des latitudes moyennes qui avaient subi les bouleversements les plus importants avec des baisses de température de 10 à 14 °C. La France et l’Europe occidentale étaient recouvertes d’une steppe herbacée où la forêt avait disparu. Dans l’hémisphère sud la glace avait aussi avancé autour de l’Antarctique englobant les îles Kerguelen et touchant la Tasmanie ainsi que la Patagonie qui était recouverte d’immenses glaciers. Mais globalement la température moyenne de l’ensemble de la Terre était plus froide qu’actuellement de seulement 4 à 5°C. D’autres milieux du système Terre se souviennent aussi des climats du passé ; c’est le cas des coraux, principaux témoins de notre environnement dans les régions tropicales.
3-3 D’autres archives climatiques : les coraux
Les océanographes disposent d’une autre source importante d’information sur les climats passés, ce sont les coraux. Ces organismes dont certains vivent exclusivement tout près de la surface dans les océans tropicaux sécrètent un squelette d’aragonite, variété de carbonate de calcium, dont la composition isotopique peut permettre de déterminer plusieurs paramètres de l’environnement dans lequel ils ont vécu. Pour atteindre ces informations il faut forer des carottes dans le massif corallien et en extraire des échantillons soumis à des analyses isotopiques minutieuses de certains atomes qui les constituent, principalement l’oxygène mais aussi le carbone et des éléments rares tels que le strontium, l’uranium, le thorium ou le baryum. Les paramètres physiques caractérisant l’environnement de l’époque où ils ont vécu qui sont accessibles par ces méthodes d’analyse sont très divers incluant la température, la salinité, les précipitations, mais aussi le niveau de l’océan à cette époque. C’est ainsi que depuis les années 1970 plusieurs équipes principalement françaises et américaines, ont obtenu des résultats qui sont venus confirmer ou infirmer dans les tropiques des données scientifiques issues de carottes de sédiments marins ou de carottes de glace prélevées à des latitudes plus élevées. Un premier centre d’intérêt s’est focalisé dès les années 1970 sur El Niño, ce phénomène d’interaction entre l’océan et l’atmosphère de l’océan Pacifique qui affecte des régions où se développent les récifs coralliens, et dont les variations en fréquence et en intensité ont pu être observées dans le passé. D’autres phénomènes plus singuliers, émaillant la dernière déglaciation comme le soudain refroidissement du «Younger Dryas il y a 12 000 ans, ont aussi imprimé leur marque dans des enregistrements coralliens de l’hémisphère sud confirmant le caractère global universel de ce refroidissement. Plus près de notre époque, le refroidissement du «petit âge glaciaire» a aussi été retrouvé dans des enregistrements coralliens de la région équatoriale de l’océan Pacifique confirmant là encore son caractère universel, ce qui avait longtemps été contesté par certains climatologues. Un autre résultat tout aussi remarquable est plus récent. Il s’agit du suivi du niveau de l’océan qui est un indicateur de la masse totale de glace de la planète et donc de sa température moyenne et du climat. En étudiant le niveau de l’océan dans le Pacifique sud au début de l’avant dernière déglaciation il y a environ 137 000 ans, une équipe internationale mixte a montré que les coraux indiquaient que le niveau de l’océan avait déjà très sensiblement et très rapidement remonté, n’étant alors inférieur au niveau actuel que de seulement 85 mètres, ce qui traduisait un climat déjà assez chaud. Or l’ensoleillement - ou flux radiatif solaire - encore proche de son minimum dans l’hémisphère nord n’expliquait pas ce réchauffement. Par contre l’ensoleillement dans l’hémisphère sud qui était au contraire proche de son maximum, pouvait rendre compte de la fonte partielle des glaces. Ainsi, contrairement à ce qui était admis jusqu’ici affirmant que c’étaient les variations d’ensoleillement de l’hémisphère nord seul qui, du fait de son ultra-continentalité, pilotaient les alternances de glaciations et de déglaciation, il est possible que l’hémisphère sud soit également susceptible d’avoir une influence sur ces oscillations par une «bascule climatique» nord-sud reliant le climat des deux hémisphères, ce qui se marque principalement dans l’Atlantique où on observe une circulation méridienne intense (MOC).
Ainsi l’étude des sédiments marins et continentaux, avec celle des coraux fossiles a apporté une connaissance étonnement détaillée et précise des climats passés, au moins pour le dernier million d’années qui a vu la conquête des terres émergées par l’espèce humaine.
Cette passionnante avancée des connaissances sur l’évolution passée mais relativement récente de notre environnement climatique a amené plusieurs disciplines scientifiques,
glaciologie,
géochimie,
paléontologie,
sédimentologie,
paléocéanographie
à converger autour de l’étude des sédiments récents, discipline descendante de ce qui était appelé autrefois la géologie du quaternaire et la sédimentologie.
Ces convergences disciplinaires, et l’infléchissement de leurs objectifs initiaux vers la question climatique, ont amené à créer le mot de «paléoclimatologie» pour désigner l’ensemble des approches scientifiques des climats passés de la Terre.
L’association de deux de ces disciplines reconstruisant le passé environnemental de notre planète, la glaciologie et la paléo-océanographie (ou sous sa forme plus contractée la paléocéanographie), qui inclut l’étude des sédiments marins et continentaux ainsi que celle des coraux fossiles, a été particulièrement fructueuse. Elle a permis notamment de mettre en évidence des événements climatiques étonnants par leur brutalité et leur rapidité, appelés souvent en anglais «Abrupts climate changes» déjà évoqués antérieurement et présentés plus longuement dans le chapitre qui suit.
Références :
«Quand l’océan se fâche – Histoire naturelle du climat» Jean Claude Duplessy – Odile Jacob éditeur – 1996
Travaux sur les coraux indiquant que, il y a 137 000 ans, le niveau de l’océan avait déjà très sensiblement et très rapidement remonté. «Penultimate Deglacial Sea-Level Timing from Uranium/Thorium dating of Tahitian Corals», 2009, 324 (5931), p. 1186-1189. Thomas A.L et al . Publié dans Science.
Détails
Écrit par : Y. Dandonneau, J.Merle, B. Voituriez
Catégorie : Livre climat, histoire et enjeu
Chapitre XIII : Le temps de l’action
Jacques Merle, Bruno Voituriez, Yves Dandonneau, Club des Argonautes -Décembre 2014
En une dizaine d’années (autour des années 1990) la question climatique est passée d’un domaine scientifique complexe, où convergent plusieurs disciplines des sciences de l’environnement terrestre, au domaine politique, avec des enjeux économiques, sociaux, culturels, voire philosophiques, de dimension planétaire mais contenant aussi les germes d’affrontements géopolitiques possibles, potentiellement violents, notamment entre les pays développés du Nord et les pays pauvres du Sud.
Mais entre la science et la politique, ou entre la connaissance avec ses incertitudes et l’action avec ses impotences, il y a le public, l’opinion publique, sans l’adhésion de laquelle, en démocratie au moins, l’action politique est impossible.
Cette opinion publique est sous la dépendance de différents flux d’information dominés et orchestrés par les médias qui se positionnent entre la quête scientifique de la connaissance, dont ils s’efforcent de suivre les progrès, et ce public citoyen dont l’opinion est guettée avec attention. Mais entre ces trois entités : scientifique, médiatique et publique, les relations sont complexes et des intérêts catégoriels peuvent être divergents, sous le regard embarrassé du politique qui doit décider et agir.
On a perçu clairement ces difficultés en 2010 au cours de l’offensive de «climato-sceptiques» niant la responsabilité de l’homme dans le changement climatique en cours et tentant de mettre à mal le consensus scientifique de la grande majorité des climatologues représentés par le GIEC. La plupart des médias privilégièrent le coté excessif et passionnel de l’affrontement au détriment d’un débat rationnel soumis à la rigueur à laquelle sont habitués les scientifiques.
Une présentation fondée sur des faits scientifiques aurait pu utilement éclairer un public dont l’opinion fut incontestablement troublée par la remise en cause de la quasi évidence scientifique actuelle : nous vivons un changement climatique causé par l’homme. En France, en 2010, la décision avortée de l’institution d’une «Taxe carbone» sur les produits pétroliers, ou plus récemment, en 2014, une «Écotaxe», sont d’autres exemples des difficultés qu’éprouvent les instances politiques pour prendre des mesures mal comprises des citoyens.
1- De la connaissance à l’action : faire savoir, convaincre, décider
1-1 Retour sur le GIEC et son histoire
Le GIEC ( Voir Chapitre XII) a très tôt dû s’adapter et composer avec la dimension politique de la question climatique, comme on l’a vu précédemment. C’est ce qui explique son évolution au cours de ses vingt premières années d’existence (jusqu’en 2010).
Dès son origine le GIEC, soucieux de ne pas interférer avec les politiques, a dû se recentrer sur l’expertise scientifique dont il a implicitement assuré le leadership en la déclinant en trois volets distincts représentés par 3 groupes de travail :
GT I (bases physiques),
GT II (impact, vulnérabilité et atténuation)
et GT III (adaptation).
C’est principalement le groupe I sur les bases physiques du climat qui, au début au moins, l’a fait connaître et a assuré sa légitimité, les groupes II et III étant plus fréquemment contestés bien que moins connus du public.
Cette contestation s’est manifestée très tôt. C’est ainsi que dès 1989 le GIEC a dû faire face aux revendications des pays du Sud qui refusèrent la vision globale centrée sur le concept d’atténuation impliquant un effort commun mondial pour réduire les émissions de GES. Ils opposèrent à cette atténuation une stratégie d’adaptation, plus favorable à leur situation de «pays en développement», car elle ne les obligeait pas à des mesures susceptibles de freiner leur développement. En fait tout au long de la décennie 1990, c’est le souci de promouvoir des mesures destinées à l’atténuation qui a prévalu, d’ailleurs déjà inclus dans la CCNUCC, adoptée à Rio en 1992. Cette convention stipulait, dans son article 2, que son objectif ultime était de :
«stabiliser… les concentrations de gaz à effet de serre dans l’atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique…».
C’est cet objectif et les modalités de son application qui sont âprement discutés depuis plus de vingt ans dans les réunions des COP auxquelles le GIEC apporte son expertise. Ce fut notamment le cas lors de la COP 3 qui élabora le protocole de Kyoto en décembre 1997. Et ce fut encore le cas des débats de la COP 15 à Copenhague en 2009 ainsi que les suivantes, COP 16 à Cancun en 2010, et COP 17 à Durban en 2011 pour définir la suite du protocole de Kyoto au-delà de 2012 (voir Chapitre XII ) et préparer la COP 21 qui se tiendra à Paris en novembre-décembre 2015. Elle devrait déboucher sur un nouvel accord international contraignant une grande majorité des nations à limiter leurs émissions en GES avec des objectifs précis. Cependant pour les pays du Sud, l’enjeu principal reste le développement, et dans l’opposition environnement-développement, l’environnement reste une préoccupation secondaire pour eux. Ils cherchent cependant à tirer partie de la priorité que les pays développés accordent de plus en plus à l’environnement et au climat pour obtenir d’eux des soutiens financiers sensés leur permettre de supporter ces contraintes environnementales ; mais ils refusent des engagements précis et le contrôle tatillon que les donateurs veulent leur imposer. C’est là que se situe actuellement un nœud de tensions très fortes au cœur du débat politique entre le Nord et le Sud. La question climatique a ramené les pays du Sud sur le devant de la scène politique internationale comme cela ne l’avait plus été depuis la décolonisation après la deuxième guerre mondiale.
1 - 2 Priorité à l’atténuation ou à l’adaptation ?
Les pays du Sud privilégient l’adaptation et demandent avec insistance au Nord de leur transférer les moyens technologiques et financiers nécessaires à cette adaptation de leurs économies au changement climatique, insistant sur la responsabilité du Nord dans cette perturbation de l’environnement terrestre causée par sa surconsommation d’énergies fossiles liées au carbone. Ainsi des groupes de pays particuliers servent d’emblèmes pour promouvoir l’adaptation. C’est le cas des petits pays insulaires - 42 pays regroupés dans une organisation très influente aux Nations Unies : «Alliance Of Small Islands States – AOSIS», composée principalement d’atolls de quelques mètres d’altitude menacés de disparition par la montée générale du niveau de l’océan.
Ces nations se déclarent les premières victimes non coupables du changement climatique, et demandent que les moyens de leur adaptation :
digues,
habitats en dur,
protection et gestion de l’eau douce et des déchets,
aménagement des sols…
leur soient fournis immédiatement sinon leur disparition de la carte du monde en tant qu’États souverains serait inéluctable avant le milieu du XXIème siècle.
De même plutôt qu’invoquer en priorité le taux de CO2 dans l’atmosphère et le contrôle de ses émissions, des pays émergents comme la Chine, l’Inde, le Brésil, proposent également d’aborder prioritairement le problème climatique par le biais de l’adaptation. Curieusement ce sont les États Unis qui, à la suite de l’élection de George W. Bush refusant toujours de ratifier le protocole de Kyoto, apportèrent leur soutien aux pays du Sud au cours de la COP 8 de New Delhi en 2002 privilégiant ainsi l’adaptation et la réduction de la vulnérabilité à la réduction des émissions. Ainsi à partir de la décennie 2000 le thème de l’adaptation est monté en puissance et a été finalement reconnu comme une priorité au même titre que la réduction des émissions. L’Europe, toujours favorable aux objectifs de réduction des émissions, a été contrainte d’accepter que l’adaptation devienne aussi un thème prioritaire. Dès lors, pour le GIEC, les groupes de travail II et III, qui avaient été un peu marginalisés et dont la légitimité même au sein du GIEC avait parfois été contestée, notamment par les États Unis, se sont trouvés renforcés par le soutien des pays du Sud qui en compensation obtinrent d’être présents dans chacun des groupes de travail. Ces instances furent donc systématiquement coprésidées à partir de 2002 par un représentant issu des pays développés et un représentant issu des pays en développement.
1 - 3 Du débat scientifique à l’expertise et au politique
L’expertise scientifique est l’expression de l’état des connaissances d'un domaine scientifique donné et à un moment donné. Elle procède de l’analyse de la littérature scientifique la plus exhaustive possible pour en extraire ce que l’on connaît avec certitude, ou seulement partiellement et ce que l’on ignore encore. Elle est pratiquée par des «experts» qui le sont à un double titre :
par leurs compétences scientifiques en leur qualité d’acteurs de la recherche sur le sujet traité
et aussi par leur aptitude à analyser et à synthétiser l’ensemble des travaux qui relèvent du sujet à expertiser.
Les experts du GIEC possèdent cette double qualification. Ils sont choisis pour leur excellence et leur notoriété confirmée par leurs pairs, mais également pour leur capacité à synthétiser l’information la plus précise et la plus complète possible sur l’état des connaissances qui émergent de l’ensemble des publications scientifiques disponibles. Une des règles propres aux expertises du GIEC est aussi qu’elles doivent aboutir à un consensus de l’ensemble des experts et des représentants nationaux qui les accompagnent avant d’être soumises aux étapes ultérieures plus proches de l’étage politique. Cette recherche du consensus est parfois longue et difficile et nécessite un débat scientifique qui peut être vif sur des questions où la communauté scientifique est divisée ou exprime des doutes sur la pertinence de certaines théories ou de certains concepts.
Un exemple en a été donné dans le domaine du climat par les prises de positions d’un météorologue américain, professeur au MIT, Richard Lindzen, très connu et très respecté par ses pairs dans son domaine, qui réfuta longtemps l’affirmation d’une majorité de climatologues déclarant que l’on était presque sûr (à 95%) que les émissions de GES produite par l’activité humaine étaient la cause du réchauffement climatique constaté.
Pour Lindzen la méconnaissance de l’évolution de la teneur en vapeur d’eau de l’atmosphère, principal GES naturel, ne permettait pas d’exclure que d’autres phénomènes encore incompris, impliquant, entre autre, le cycle de l’eau et la formation des nuages, pouvaient être à l’origine de ce réchauffement. Ces désaccords furent débattus en profondeur par les experts du groupe I du GIEC, ce qui fit avancer la connaissance et au final contribua à affiner la teneur de l’expertise. C’est ce que des historiens des sciences appellent : la «pratique réflexive de l’expertise». Autrement dit, l’expertise fait aussi avancer la connaissance à travers un débat scientifique approfondissant les données scientifiques initiales. On s’éloigne ainsi de l’intuition commune d’une relation graduée entre science à la base, puis expertise et politique. Cette vision d’un ordonnancement linéaire des étapes à franchir, s’appuyant en premier sur un socle solide de connaissances à travers des expertises soigneusement argumentées pour en extraire enfin des propositions d’actions claires offertes aux «décideurs», fait de ce socle scientifique une boîte noire qui ne peut être remise en cause et sur lequel sont construits les étages supérieurs, économiques, sociétaux, politiques, conduisant à des accords internationaux.
Mais réduire ainsi la science à un domaine clos entre les mains d’un petit nombre de spécialistes suscite de multiples réactions de défiance :
défiance d’une moitié de l’humanité - les pays du Sud - qui ne possèdent pas les moyens de participer concrètement à cette avancée des connaissances ;
défiance aussi des politiques en général qui acceptent mal la «dictature» de la science lorsque leurs modes d’action sont en jeu et qui tentent alors d’imposer la primauté du politique.
C’est ainsi que des instances nouvelles comme le CIN et le SBSTA (présentées antérieurement Chapitre XII) ont été créées pour redonner la main aux politiques.
C’est ce qui a fait dire àl'historienne des sciences Amy Dahan Dalmedico :
«Chaque fois qu’une instance se purifie d’un point de vue scientifique et cherche à mettre en boîte noire certaines questions scientifiques qui pourraient lui sembler tranchées, se créé à ses cotés une autre instance - un comité, un panel technique, un groupe - qui assume plus explicitement les contradictions avec le politique».
De ce fait la relation entre les étages scientifiques et politiques dans les institutions internationales, et nationales, se complexifie et l’on assiste à un foisonnement d’instances intermédiaires, évoqué au chapitre précédant, qui ralentissent la prise de décision, obscurcissent, auprès du public, l’image de ces mécanismes internationaux et génèrent un certain pessimisme sur l’issue finale de ces négociations, sans parler des «climato-sceptiques» dont les affirmations négationnistes trouvent là un terreau favorable à la propagation de leur dissidence.
2- Le rôle de la psychologie dans la perception publique du changement climatique
Les sciences de la communication, et particulièrement la psychologie ont fait d’énormes progrès ces dernières décennies. C’est ainsi qu’un nombre croissant d’études de psychologie se sont données pour objet la question climatique et sa perception par le public.
Deux auteurs américains, Ben Newellet Andrew Pitman, psychologues de formation, ont publié, en 2010, une synthèse de ce domaine à l’intention des lecteurs du Bulletin of American Meteorological Society (BAMS) pour les aider à mieux communiquer leurs résultats auprès du public. Il est en effet surprenant, qu’en dépit de l’évidence, admise par la presque totalité des scientifiques, qu’il existe bien un réchauffement climatique causé par les activités humaines, une fraction importante du public, des journalistes et des politiques puissent encore faire état de leur scepticisme sur ce phénomène. Plus étonnant encore, il semble que ce scepticisme s’est accru à mesure que le niveau de certitude scientifique s’est élevé. C’est ainsi que Newell et Pitman relèvent qu’en 2010 aux États Unis, seulement 57% des américains croyaient à la réalité d’un réchauffement climatique en cours, alors qu’ils étaient plus de 70 % à le penser deux ans plus tôt.
Pourquoi et comment en est on arrivé à ce divorce entre les scientifiques et le public dans la perception du problème climatique ? Certes le changement climatique est d’une grande complexité, avec de multiples paramètres et des inconnues encore nombreuses. De plus un tel domaine de la connaissance touche les sociétés humaines au plus profond de leurs préoccupations à court et long terme avec des incidences lourdes sur la vie quotidienne, l’économie, la politique, la géopolitique, ce qui rapproche ces questions du champ émotionnel.
Cependant on peut aussi s’interroger sur la façon dont les scientifiques eux-mêmes tentent de transmettre leur message à ce public. Pour eux qui sont généralement peu ou mal préparés à communiquer au-delà de leur cercle scientifique et de leur domaine de compétence, exposer de façon convaincante au grand public leur savoir sur un sujet aussi étendu et complexe est un exercice difficile. C’est pour pallier ces difficultés que NewelletPitman ont fait en 2010 une analyse des études récentes qui font appel aux progrès de la psychologie dans la vulgarisation des sciences.
S’étant penchés plus particulièrement sur la perception de la science du climat par le public, ils la rattachent à quatre questions :
Á partir de quels concepts, ou fractions d’informations, sur le réchauffement climatique, le public se forge-t-il une opinion ? (Sampling issue)
Comment la présentation des données du réchauffement climatique influe-t-elle sur la perception que le public en a ? (Framing issue)
Comment la compréhension de l’exposé du problème du réchauffement climatique s’intègre-t-elle dans le «modèle mental» simplifié que chaque personne, non spécialiste, en a ? (Understanding issue)
Comment la dynamique scientifique interne et la recherche d’un consensus peut affecter la formulation du message sur le réchauffement climatique auprès du public ? (Consensus building issue)
2-1 Á quels concept climatique le public se rattache-t-il ?
Les auteurs précités identifient deux concepts qui font débat et auxquels se rattache préférentiellement une partie du public :
Temps et climat est-ce- la même chose ?
et y a-t-il vraiment un réchauffement du climat ?
Pour le premier point, l’évidente réponse négative des familiers du domaine climatique n’est pas aussi facilement tranchée pour tout le monde, même pour des scientifiques lorsqu’ils sont étrangers au domaine climatique ! A fortiori pour une majorité du public la confusion entre météorologie et climat est fréquente. Le climat est perçu comme une extension dans le temps de la météorologie et sa prévision comme une prévision météorologique à très long terme. D’où l’objection fréquente de sceptiques déclarant que l’on ne peut pas faire sérieusement une prévision climatique à l’échéance de plusieurs décennies voire jusqu’à la fin du siècle alors qu’il est impossible de faire une prévision météorologique au-delà de deux semaines, l’atmosphère étant un système physique chaotique. Pour redresser ces erreurs d’appréciation il est nécessaire de définir précisément ce qu’est le climat et de bien distinguer climat et météorologie.
Le deuxième point relatif à la réalité du réchauffement climatique s’inscrit souvent, dans l’esprit du public, dans le même registre que le précédent. On se réfère mentalement à ses souvenirs personnels : les étés d’autrefois étaient plus chauds que ceux d’aujourd’hui ; l’année dernière il a fait plus froid que d’habitude en hiver, ou encore, depuis dix ans la température semble baisser (ce qui d’ailleurs peut être vrai !). Ainsi, puisqu’on ne le perçoit pas, il n’y a pas de réchauffement du climat ! Cette conclusion erronée peut être corrigée par une représentation de la réalité du réchauffement qui passe par une détermination précise de la température moyenne de la Terre obtenue à partir de stations de mesures inégalement réparties dans l’espace mais traitées par des méthodes statistiques rigoureuses. Cette température moyenne peut osciller dans le temps d’années en années, voire de décennies en décennies sans que la tendance au réchauffement à l’échelle du siècle puisse être contestée.
2-2 L’importance de la présentation des données
C’est ce que les Anglo-saxons désignent par le terme de «Framing» qui décrit la façon de présenter les faits et les données dans l’exposition d’un sujet, d’un résultat, d’une théorie, ici du réchauffement climatique, pour susciter la compréhension et l’adhésion du public.
Plusieurs paramètres psychologiques peuvent entrer en jeu :
L’influence des nombres et des unités utilisées pour exprimer une donnée. Ainsi utiliser l’expression «Il se produit tel ou tel événement tous les 100 ans» sera plus frappant que de dire que cet événement a 1% de chance, ou une probabilité de 0,01 de se produire cette année.
La plus ou moins grande charge émotionnelle du sujet traité influence aussi considérablement sa perception. La question climatique est hautement émotionnelle pour la majorité des individus, aussi l’opinion qu’ils peuvent en avoir est fortement influencée par ce contexte émotionnel chaud qui prévaut sur la «froide» expositions des faits et des chiffres. Il faut tenir compte de ce paramètre émotionnel.
La dissymétrie de perception entre événements proches ou lointains. La tendance à accorder beaucoup plus d’importance à l’occurrence d’événements possibles proches qu’à des événements probables, et même presque certains, mais dans un futur lointain, est une donnée de la psychologie. Cette réaction différenciée tient au fait que les événements lointains et les événements proches relèvent de constructions mentales différentes. Un événement prévu dans un futur lointain, comme l’élévation du niveau de la mer d’un mètre dans 50 ans, appartient au domaine de l’abstraction et/ou de manifestations de la nature qui appartiennent à notre environnement «normal» et auxquelles on est soumis. Au contraire un événement proche possible, comme l’inondation de sa maison par le débordement d’une rivière voisine, fait appel à des représentations mentales concrètes faites de détails désagréables. Dans la présentation de prévisions à l’échelle du siècle, il faudra insister sur les détails, tels qu’on les perçoit aujourd’hui, des désagréments auxquels les générations futures seront presque certainement soumises pour mieux sensibiliser la génération actuelle à ces événements lointains.
L’impact psychologique très différent des pertes et des gains. Le plaisir de recevoir une somme d’argent est moins ressenti psychologiquement que la peine de perdre la même somme. Cette asymétrie de la réaction psychologique à la perte et au gain conduit à privilégier une présentation des prévisions climatiques en mettant l’accent sur ce que l’on perdra, et les dégâts auxquels on sera exposé si ces prévisions se réalisent en ne prenant pas aujourd’hui les mesures conservatives nécessaires, plutôt qu’insister sur le gain des générations futures, en terme de conditions climatiques favorables, imputables à la sagesse de notre génération. Cet accent mis sur les aspects négatifs des choses a cependant des limites à ne pas dépasser. Des études récentes ont montré que l’accumulation de perspectives désastreuses, comme peut être traité parfois le futur de notre environnement par certains écologistes, peut conduire à une forme de saturation qui se traduit par un désengagement des individus qui se disent : «Á quoi bon !» et prennent leur distance vis-à-vis du problème se laissant porter par des sentiments de fatalisme proche de l’apathie.
2-3 Le rôle du «modèle mental» individuel
Un «modèle mental», est une représentation intérieure personnelle que l’on se fait d’un sujet à travers l’ensemble des informations partielles ou des croyances qu’on en a et qui nous aide à comprendre et à prendre des décisions. Le réchauffement climatique est une question complexe qui rend difficile pour chacun la formulation de modèles mentaux appropriés susceptibles de rendre compte correctement de la réalité quel que soit notre niveau de connaissance (un seuil minimal est cependant nécessaire). Si un modèle mental peut faciliter la compréhension de l’exposé plus détaillé du problème climatique, un modèle mental erroné freinera ou interdira cette compréhension et pourra même aller jusqu’à un refus d’entendre les arguments avancés et à une réaction de dénégation hostile comme certains scientifiques en ont fait l’expérience dans des assemblées publiques. La difficulté de construire un modèle mental correct tient à une caractéristique psychologique propre au comportement humain qui fait que les individus privilégient une stratégie tendant à confirmer plutôt qu’à infirmer leur hypothèse initiale. Ainsi toute information présentée de façon à appeler une réponse négative a moins de chance d’être acceptée par notre esprit pour s’intégrer à notre vision schématique de la réalité que si elle est présentée dans un sens appelant une réponse positive.
Á titre d’exemple et pour illustrer la réalité de ce comportement psychologique appliqué à la question climatique, des tests ont été réalisés par des psychologues sur des groupes équivalents extraits du public américains. Ces tests ont montré que l’affirmation : «L’homme est responsable du réchauffement climatique» recueillait plus de réponses positives que l’affirmation contraire : «La responsabilité de l’homme sur le réchauffement climatique est un mythe» n’en recueillait de négatives. Ceci explique la propension des climato-sceptiques à présenter leurs ouvrages, et leur propos, sous la forme d’affirmations qui appellent plus facilement une confirmation et une adhésion de la part d’un public mal informé.
2-4 La formulation du consensus scientifique et son acceptation par le public
La science n’est pas consensuelle. La méthode scientifique procède au contraire d’une remise en cause permanente des résultats acquis par les pairs pour avancer dans la connaissance, la solidifier et la débarrasser de ses erreurs, des concepts et des théories un moment inappropriées ou fausses, pour purifier son contenu. La question scientifique du réchauffement climatique, on l’a vu, nécessite un consensus minimal pour rassurer les politiques et leur permettre de prendre des décisions en s’appuyant sur un socle d’évidences scientifiques incontestables.
Un tel consensus peut apparaître antinomique avec la méthode scientifique dans sa quête de la vérité scientifique. On a vu aussi avec quelle rigueur les experts du GIEC procèdent pour atteindre ce consensus tout en étant eux-mêmes parfaitement au fait de cette contradiction entre la science qui avance en débattant et l’expression d’un consensus sur ses résultats, car ils sont impliqués dans le débat scientifique à la fois comme professionnels de la science et comme experts chargés de l’élaboration de ce consensus. Mais le public est en droit de se poser des questions autour de l’expression de ce consensus. En premier il peut s’interroger sur sa validité. Bien que les experts soient de très haut niveau, ils peuvent avoir une vision partielle et biaisée des sujets qu’ils traitent à travers la littérature scientifique qu’ils ont l’habitude de consulter et qui peut influencer leur expertise. Plus insidieux encore est le risque que l’ensemble du groupe d’experts partage cette vision approchée de la connaissance d’un sujet donné. Le consensus est alors rapidement atteint, mais l’absence de contradicteur laisse dans l’ombre certains points dont la discussion aurait permis avantageusement d’approfondir le sujet traité. C’est pour pallier cette faiblesse possible de l’expertise entre les mains d’un groupe d’experts dédiés (GIEC) qu’au cours de l’élaboration des documents qui en rendent compte, elle est largement ouverte, notamment à tous les scientifiques, y compris ceux professant des opinions contraires, et aux organismes de recherche qui auraient des remarques à faire sur un point scientifique particulier. Au-delà de ces interrogations de la valeur de l’expertise sur le fond et de la solidité du consensus, le public peut aussi être troublé par la façon dont les médias traitent la question du réchauffement climatique. Il n’y a pas de désaccord fondamental au sein de la communauté scientifique internationale sur les bases scientifiques du réchauffement climatique, mais il est toujours possible de trouver une minorité qui défendra des positions contraires ; c’est la règle du jeu du débat scientifique contradictoire.
Fréquemment l’intérêt des médias pour augmenter leur audience est d’organiser des débats bruyants opposant de façon apparemment équilibrée des camps scientifiques favorables et défavorables à la thèse de l’implication humaine dans le réchauffement climatique en cours. Cette présentation à égalité de «pour» et de «contre» favorise les minoritaires et désoriente le public, qui face à ces disputes de scientifiques, soigneusement entretenues, se dit : «Puisque les scientifiques ne sont pas d’accord, j’en pense ce que je veux et pourquoi ferais-je seulement confiance aux opinions officielles - GIEC…- et à la majorité ?» décrédibilisant ainsi la valeur de l’expertise et l’expression du consensus défendu par le GIEC.
3 - Incertitudes, inquiétudes, désarrois
L’avenir du climat de la Terre est encore très imparfaitement dessiné et les prévisions de son évolution demeurent contenues dans une large fourchette de futurs possibles ; des poches d’incertitudes scientifiques demeurent qui parsèment un corpus de connaissances acquis seulement au cours des dernières décennies, et considéré néanmoins comme solide par une majorité de scientifiques, ceux-là même qui œuvrent au sein du GIEC.
Ces scientifiques nous disent que le système climatique constitué de l’atmosphère, des océans, des calottes polaires, des glaciers continentaux, des banquises, des sols, et des êtres vivants, sont des milieux complexes et fragiles qui interagissent en permanence au travers de processus à la fois mécaniques, physiques, chimiques et biologiques pour définir le climat en un lieu donné. Des phénomènes astronomiques faisant varier le flux énergétique solaire reçu par la Terre au sommet de l’atmosphère sont également en jeu faisant alterner aux échelles géologiques des périodes glaciaires et interglaciaires plus chaudes.
Nous sommes actuellement, depuis près de 10 000 ans, dans un interglaciaire prolongé qui a vu l’épanouissement de l’espèce humaine, et qui est caractérisé par sa stabilité, si ce n’est la perturbation anthropique récente. Cette stabilité, marquée par une composition chimique de l’atmosphère variant peu, nous garantit des conditions climatiques au sol relativement clémentes grâce à un effet de serre naturel produit principalement par la vapeur d’eau et le gaz carbonique ainsi que d’autres Gaz à Effet de Serre (GES) contenus dans cette atmosphère. Mais cette stabilité est remise en cause depuis environ deux siècles par l’activité humaine comme en témoigne l’augmentation des températures au sol et dans l’océan, ainsi que les teneurs en CO2 de l’atmosphère qui sont passées d’une enveloppe naturelle d’environ 180 ppm pour les périodes glaciaires et 300 ppm pour les périodes interglaciaires, à plus de 400 ppm aujourd’hui, teneur atteinte en moins de deux siècles et jamais connue auparavant depuis un million d’années !
3 - 1 Un niveau d’incertitudes encore élevé
Les processus physiques, chimiques et biologiques liant la teneur en GES de l’atmosphère à la température moyenne au sol sont maintenant suffisamment bien connus pour être pris en compte dans des modèles numériques susceptibles de simuler l’évolution du climat sous la contrainte des émissions de GES, et autres polluants industriels, associés à l’activité humaine. Ces modèles peuvent être utilisés en mode «diagnostique» pour réaliser des expériences virtuelles et comprendre ainsi des phénomènes géophysiques hors de portée de l’expérimentation pratique, et en mode «prédictif», on dit aussi «prognostique», pour anticiper le futur.
Les modèles de prévision climatiques montrent tous pour la fin du siècle une augmentation de la température moyenne au sol de plus de 2°C et localement, comme dans l’arctique, jusqu’à près de 10°C ! Il existe cependant beaucoup d’incertitudes concernant ces prévisions.
Elles sont de deux ordres:
Incertitudes des niveaux d’émission de GES qui dépendent des politiques énergétiques choisies par les États, des accords internationaux consentis et d’une façon générale de la plus ou moins grande sagesse de l’humanité vis-à-vis de ces modèles de développement en relation avec ses sources d’énergie.
Incertitudes également des modèles eux-mêmes, toujours imparfaits dans la prise en compte des processus physico-bio-géo-chimiques des milieux en cause et de leurs interactions extrêmement complexes.
La somme de ces incertitudes qui affectent dans un rapport de 1 à 3 l’amplitude des prévisions d’évolution des principaux paramètres climatiques, température, précipitations, élévation du niveau moyen des océans, à l’échelle de la fin du XXIème siècle, alimentent les polémiques déclenchées par une frange de climato-sceptiques, mais surtout freinent la perception par l’opinion publique et ses représentants politiques de l’urgence climatique.
Cette question des rapports entre la science et sa perception par le public est cruciale car elle conditionne sa prise en charge par les politiques. On a vu au chapitre précédent le poids de la psychologie dans cette relation, mais il existe aussi des ressorts encore plus complexes inhérents à la nature humaine qui ont récemment fait l’objet d’études approfondies par des philosophes qui s’interrogent sur le comportement humain face aux catastrophes.
3-2 L’incapacité de l’action
Les incertitudes et les intérêts corporatistes de quelques groupes de scientifiques qui alimente le climatoscepticisme ne sont pas les seules explications possibles de l’inaction ou de la confusion actuelles qui frappent gouvernements et citoyens face au péril climatique.
Depuis presque 30 ans les scientifiques savent qu’il y a péril et en ont informé les politiques. Les risques sont connus mais on ne fait rien ou presque, ni au niveau national, ni au niveau international, comme en attestent les échecs successifs des conférences internationales (COP) sur le sujet depuis la mise en pratique du premier et seul traité international destiné à encadrer les émissions de GES anthropiques des pays développés : le «protocole de Kyoto» aux ambitions pourtant limitées et n’impliquant que moins du quart de l’humanité. Ce traité est devenu caduque à la fin de l’année 2012 et il n’a pas été pleinement respecté, mais toutes les discussions pour le prolonger ou le remplacer ont échoué suscitant un certain désarroi de l’opinion publique évoqué plus loin. Pourquoi cette impuissance et ces échecs face à un péril donné comme quasi certain et seulement tempéré par des incertitudes résiduelles sur son ampleur et son calendrier (fin XXIème siècle et après …) ? Des philosophes se sont penchés sur cette question et ont analysé ce qu’ils considèrent comme un paradoxe qui tient de l’irrationnel.
Jean Pierre Dupuy résume cette pensée en une phrase :
«Ce qui bloque l’action ce n’est pas l’incertitude mais l’impossibilité de croire que le pire va arriver … Même lorsqu’ils sont informés, les peuples et leurs gouvernements ne croient pas ce qu’ils savent».
Il faut expliquer cette curieuse contradiction apparente et préciser le sens des mots qui sous-tendent cet argumentaire philosophique. Dupuy nous explique qu’une croyance est un savoir intégré dans une culture, c'est-à-dire dans un amas de croyances préexistantes organisées en un tout cohérent donnant sens à notre existence et à nos actions. La connaissance est une croyance justifiée et considérée comme vraie. Un savoir nouveau peut déranger des croyances antérieures et être rejeté, il ne s’intègre alors plus dans la connaissance.
Ainsi, à titre d’exemple, on sait que le mode de développement actuel épuise les ressources naturelles, nous inonde de déchets et modifie le climat rendant à terme notre planète invivable, mais on a du mal à y croire, en ce sens que nous ne pouvons admettre immédiatement ce savoir qui remet en cause la conception du progrès et du développement perpétuel qui a été notre terreau intellectuel et culturel depuis l’enfance. Ainsi les savoirs acquis de la science climatique n’ont pas encore atteint les profondeurs de la conscience du public, des citoyens et des politiques pour être rangés au niveau d’une croyance et être ainsi totalement intégrés à la connaissance.
Par ailleurs la croyance est indispensable à l’action.
Jean-Pierre Dupuy écrit encore que
«La croyance est définie comme ce qui, avec les désirs, cause l’action. Si je n’agis pas en fonction d’une croyance. c’est que je n’ai pas cette croyance».
Ainsi l’action est paralysée si on ne croit pas à la catastrophe avant qu’elle ne se soit produite, ce qui explique que nos sociétés et nos politiques se montrent incapables de prendre des mesures fortes face au péril climatique. Bien qu’ils aient connaissance de ce péril, ils ne peuvent y croire tant qu’une catastrophe ne l’aura pas rendu crédible ; cet état de fait nous condamne à une catastrophe inévitable puisque presque rien ne sera fait pour l’éviter tout en la sachant quasi certaine.
On touche ici à un paradoxe fondamental de la question climatique ; il rejoint une autre curieuse contradiction apparaissant également fréquemment dans le fonctionnement de nos sociétés : le principe de précaution que les gouvernements invoquent à tous propos pour se protéger d’éventuelles catastrophes n’a plus de raison d’être si on est incapable en amont de prendre des mesures de prévention. Que pourraient être des mesures de précaution concernant le réchauffement climatique qui ne s’appuieraient pas sur des mesures de prévention préalables pour contrecarrer ou limiter ce réchauffement ?
3-3 Un certain désarroi
Cette situation, récemment analysée par une nouvelle couche de chercheurs et de penseurs des sciences sociales : philosophes, psychologues, sociologues, économistes, conduit à une prise de conscience des difficultés dans lesquelles se trouvent nos sociétés face au pouvoir croissant de l’homme sur la nature, aux dangers nouveaux qu’il suscite, particulièrement apparents dans la quasi certitude d’un changement climatique à venir lourd de conséquences sociales, économiques et politiques.
On a vu (voir Chapitre XI ) que les conférences internationales destinées à trouver des accords et élaborer des traités comme le «protocole de Kyoto» signé dans les années 1990 tendant à limiter les émissions de GES pour atténuer le changement climatique ou à prendre des mesures pour s’adapter à ce changement, instillait un clivage parmi les nations développées, émergentes, ou en voie de développement.
Les uns, principalement les européens avec d’autres pays développés, veulent privilégier les mesures d’atténuation par une politique énergique et contraignante de baisse des émissions, applicable à tous les pays du monde, qu’ils possèdent des économies développées ou pas.
Les autres, les pays en développement, soucieux de préserver leurs capacités de développement sans contraintes environnementales excessives, privilégient au contraire les mesures d’adaptation dont ils demandent le financement aux pays riches.
Cette première ligne de fracture au sein de la communauté internationale, mais il y en eu beaucoup d’autres, a donné lieu à de nombreux et houleux débats entre les représentants de ces pays aux intérêts opposés. On a rapporté partiellement ces débats dans les sous-chapitres rendant compte des réunions annuelles des « Conference Of the Parties – COP » (voir Chapitre XI). Ces affrontements ont assombri l’atmosphère de ces grands rassemblements associant, parmi des milliers de participants, des personnalités aussi diverses que des représentants politiques nationaux avec leurs fonctionnaires, des scientifiques, des ONG, des associations diverses aux objectifs parfois obscurs, des journalistes, voire… des organisations religieuses….
Les plus «bruyantes» de ces conférences, qui laissèrent parfois un souvenir peu favorable aux participants et aux médias, contribuèrent à diffuser un certain malaise dans l’opinion internationale et suscitèrent une forme de désarroi de cette opinion. Les conférences les plus significatives à cet égard, mais il y en eu d’autres, furent la COP 12 qui se tint à Nairobi en novembre 2006 et la COP 15 qui se tint à Copenhague en décembre 2009 (voir Chapitre XI).
La conférence de Nairobi, aux résultats très … légers, fut marquée par des communiqués de presse très critiques à l’égard de certains congressistes, qualifiés de «touristes climatiques», plus pressés de visiter le pays que de faire avancer les objectifs de la conférence. Des photographies à la une des journaux locaux montraient des centaines de congressistes, aux indemnités de mission confortables pour un pays pauvre, s’égaillant dans les parcs animaliers du Kenya, ayant déserté leurs salles de réunion.
La conférence de Copenhague qui avait suscité beaucoup d’espoirs pour donner enfin une suite au protocole de Kyoto se solda aussi par un grand désappointement et elle frisa le chaos. Elle devait se clôturer par l’intervention de chefs d’États des principaux pays en présence qui étaient sensés signer des accords instituant un nouveau protocole faisant suite à celui de Kyoto. Á la fin normale de la conférence et avant l’arrivée des chefs d’États aucun texte n’avait réussi à rassembler un accord même seulement majoritaire. La confusion était totale, des délégués quittaient en masse les salles de réunions pour prendre leurs avions. L’échec à la face du monde devant les plus hauts dirigeants de la planète allait devenir criant lorsqu’une prolongation de séance avec les participants encore présents permit d’atteindre in extremis un accord a minima sur un texte qui était une simple déclaration d’intention. On avait sauvé l’essentiel : le rituel des rencontres internationales annuelles pour donner une suite au seul accord existant, le protocole de Kyoto, n’était pas arrêté ni remis en cause. Néanmoins l’échec était patent, on n’avait pas de perspective, ni de calendrier, pour tracer une feuille de route possible conduisant à un nouvel accord, plus contraignant juridiquement, sur les émissions de GES à ne pas dépasser pour maintenir le réchauffement en deçà du seuil de 2°C d’ici la fin du XXIème siècle. Cet échec de la conférence de Copenhague, dont on attendait beaucoup, fut douloureux et eu un retentissement considérable dans les médias et l’opinion publique contribuant à une inquiétude généralisée confinant parfois au désarroi. L’humanité prenait conscience qu’un seuil avait été franchi dans les rapports entre l’homme et la nature et que des modes de développement nouveaux plus respectueux de celle-ci devraient être recherchés rapidement sans attendre qu’une catastrophe climatique ait rendu crédible une détérioration irréversible de notre environnement pour légitimer enfin des actions vigoureuses de prévention.
4- L’avenir de l’humanité est-il en jeu ?
La conquête spatiale et la possibilité d’embrasser d’un seul coup d’œil la rotondité de la planète nous a fait prendre conscience de sa finitude et de sa fragilité, suscitant un certain pessimisme sur la responsabilité de l’homme et l’avenir même de notre espèce.
Un ancien directeur du CNES et de Météo-France, André Lebeau, était bien placé pour être frappé par ce sentiment et percevoir la condition nouvelle de l’homme, «enfermé planétaire» sur une sphère aux ressources limitées et perdue dans l’espace. André Lebeau tente de prévoir rationnellement, à la lumière des connaissances scientifiques actuelles et au-delà de considérations éthiques, philosophiques ou religieuses, les différentes voies que peut prendre l’évolution de notre espèce face au défi de la «finitude» de son environnement terrestre et de ses ressources. Il passe en revue les issues possibles et conclut de façon assez pessimiste que l’explosion démographique prévue pour la fin du siècle, ajoutée au défi du changement climatique, mettra l’humanité dans une situation très difficile. Il ajoute que nous ne devons pas nous laisser aller au rêve optimiste infondé consistant à penser que «la technologie fournira des solutions». Certes, l’espèce humaine s’est construite sur la création des outils et sur la technologie, mais la technologie conduit maintenant à épuiser les ressources naturelles de la planète nous obligeant à changer de mode de développement pour gérer une pénurie à partager entre une multitude croissante. Ces considérations sur l’emprise de plus en plus prégnante de l’humain sur la nature conduisent des penseurs à suggérer que l’avenir de l’humanité est en jeu en ce moment même et que nous assistons à un tournant sans précédent de sa relation avec la nature et l’environnement pouvant conduire prochainement, pour les plus pessimistes, à sa disparition. Certains comme le prix Nobel Paul Crutzen voient dans les changements brutaux que l’homme imprime à la Terre depuis environ deux siècles, tels que la modification de la composition chimique de son atmosphère, l’acidification de ses océans ou encore l’extinction massive d’espèces vivantes, les manifestations d’une nouvelle force géophysique, l’homme, susceptible de modifier à jamais la géologie terrestre.
Nous pensions vivre encore dans l’holocène nous dit Paul Crutzen, cette ère géologique qui a débuté à la fin du dernier épisode glaciaire il y a environ 10 000 ans, et qui est caractérisée par une température stable et clémente propice à la socialisation de l’espèce humaine. Mais nous venons seulement très récemment de prendre conscience que cette espèce très particulière contient en germe des forces susceptibles de modifier les caractéristiques de cet holocène qui a vu son émergence et d’engendrer ainsi une nouvelle ère que Crutzen a appelée l’anthropocène. Ce nouvel étage géologique n’existe pas seulement dans le cerveau inventif du prix Nobel de chimie. Son début et son origine ont été datés très précisément par les experts en histoire des sciences. C’est la construction de la première locomotive à vapeur en 1784 qui marque pour la première fois la capacité d’une espèce vivante, l’homme, d’extraire de l’énergie des entrailles de la Terre, bois, charbon, pétrole pour la transformer en force mécanique se substituant ainsi à la force humaine et animale domestiquée depuis des millénaires. Les géologues en charge de la mise à jour de l’échelle stratigraphique des temps géologiques qui divisent l’histoire de la Terre en ères et en étages, prennent très au sérieux la proposition de Paul Crutzen, relayée maintenant par de nombreux scientifiques des sciences de la Terre. Ils envisagent sérieusement de faire officialiser la création de cette nouvelle ère géologique par l’ «Union Internationale des Sciences Géologiques». Ainsi la question du réchauffement climatique d’origine humaine, induit par une surconsommation d’énergies non renouvelables enfouie depuis des millions d’années au fond des océans et des lagunes terrestres, pourrait conduire l’humanité à repenser ses modes de développement. Ils ne pourraient plus être fondés sur la consommation à outrance qui conduit à l’accumulation de déchets et de nuisances diverses tout en épuisant les ressources naturelles disponibles, mais, si on est optimiste, reposeraient sur de nouveaux concepts encore à inventer mais dont on perçoit les prémices qui émergent du brouillard des utopies pour entrer dans l’économie réelle. L’anthropocène aurait alors trouvé, ou retrouvé, en l’homme son espèce vivante dominante, comme les dinosaures le furent au Jurassique. Mais aucune autre espèce vivante avant la notre n’a eu la perspective de devenir à la fois dépendante et maîtresse de son propre environnement climatique.
Références :
Amy Dahan Dalmedico dans «Les modèles du futur – 2007 – Éditeur La découverte»
Ben R. Newell and Andew J. Pitman. The psychology of global warming. Improving the fit between the science and the message. BAMS August 2010.
Jean-Pierre Dupuy, philosophe, professeur à l’école polytechnique et à l’Université de Standford, dans : «Climat une planète et des hommes» - édition du Cherche Midi - 2011, et «Pour un catastrophisme éclairé» - édition du Seuil - 2004
André Lebeau est l’auteur de « L’engrenage de la technique, essai sur une menace planétaire – Galimard 2005 » et de «l’enfermement planétaire» – Folio, actuel 2011»
Le glaciologue français Claude Lorius, auteur avec Laurent Carpentier de l’ouvrage « voyage dans l’anthropocène » aux éditions Acts Sud – 2011 - est frappé par la corrélation étroite qu’il a observée entre température et teneur en gaz carbonique (et méthane) de l’atmosphère du dernier million d’années enregistrée dans les carottes de glace prélevées dans la calotte glaciaire de l’Antarctique et l’augmentation rapide actuelle de la teneur en gaz carbonique bien au-delà des valeurs observées au cours des périodes interglaciaires chaudes du passé ; il est lui aussi convaincu que l’humanité est entrée dans une nouvelle ère géologique, l’anthropocène.
Détails
Écrit par : Y. Dandonneau, J.Merle, B. Voituriez
Catégorie : Livre climat, histoire et enjeu
Chapitre XI : Le changement climatique : histoire et enjeux
L’implication de nouveaux acteurs : Nations Unies, Public, Média, politiques
Jacques Merle, Bruno Voituriez, Yves Dandonneau, Club des Argonautes - Septembre 2014
Un historien des sciences américain, connu dans le domaine des sciences de l’environnement, Spencer WEART, situe la prise de conscience du changement climatique par le public au début des années 1980, lorsque cette question fut, pour la première fois, soumise à une enquête d’opinion aux États-Unis.
En 1981 un sondage a montré qu’un tiers des américains avaient entendu parler de l’effet de serre et que deux tiers pensaient que l’accroissement des émissions de gaz carbonique dans l’atmosphère était susceptible d’avoir une influence sur le temps et changer le climat ; l’influence de l’homme sur l’environnement devenait ainsi un problème sérieux.
En 1989, moins de dix ans après, ces proportions avaient considérablement augmenté ; une large majorité d’américains (79%) affirmaient qu’ils avaient eu connaissance de l’effet de serre.
Mais avant cette prise de conscience des opinions publiques de la question climatique et bien après l’éveil progressif des scientifiques à ces problèmes à partir des années 1960 comme on l’a vu, se situe une période de mise en place progressive d’organisations mixtes, scientifiques et gouvernementales, de plus en plus proches du monde politique, impliquant des grandes institutions scientifiques internationales, des agences des Nations Unies (OMM, PNUE,…) et aussi des organisations représentant la société civile (ONG diverses…). Ces instances se sont manifestées sous forme de grandes conférences internationales associant des scientifiques, des représentants nationaux, des ONG, des groupements humanitaires et culturels divers, jusqu’à des chefs de gouvernements. C’est ainsi qu’à partir des années 1980, les gouvernements entreprirent de prendre en main eux-mêmes la question au niveau qui était le leur, celui des assemblées ou des sommets intergouvernementaux, des conventions et des traités ….
Ces grandes conférences internationales sur l’environnement et le climat sont donc des marqueurs significatifs de l’histoire qui s’est jouée à cette époque, jalonnant assez précisément l’évolution de la prise de conscience des questions environnementales et du climat par l’humanité.
Il est cependant difficile de catégoriser précisément et d’établir toutes les filiations et les interrelations, lorsqu’elles existent, parmi ces rassemblements et ces conférences, entre les mains d’organisations gouvernementales, intergouvernementales, non-gouvernementales et immergées dans un maquis d’innombrables dispositifs :
comités,
groupes de travail,
assemblées,
sommets,
jusqu’aux conventions internationales et aux traités …etc.
On peut cependant tenter de procéder à une catégorisation de ces instances internationales sur le climat pour en extraire, plus ou moins arbitrairement, trois catégories qui ne sont d’ailleurs pas entièrement indépendantes les unes des autres :
Des conférences relevant de la mouvance écologique et socio-humanitaire qui d’ailleurs quelquefois précédèrent l’alerte climatique des scientifiques et se manifestèrent dès les années 1960. Ces courants de pensée généralistes environnementaux, que l’on peut qualifier d’«environnementalistes», manifestaient une défiance générale vis à vis du pouvoir de l’homme sur la nature et traduisaient une forme de désenchantement face aux progrès de la science qui contrastait avec le scientisme euphorique de la fin du XIXème siècle. Et, lorsque la question climatique vint à l’ordre du jour, ce pessimisme ambiant fut un terreau favorable pour s’inquiéter des impacts possibles d’un dérèglement climatique sur l’humanité, ce qui donna lieu à des manifestations diverses : rassemblements, conférences et organisations qui eurent un impact sur la dimension politique future de la question climatique et pesèrent sur les gouvernements.
Des conférences à caractère fondamentalement scientifique, mais impliquant aussi des représentations nationales, mises en œuvre par des agences des Nations Unies telles que l’OMM, le PNUE, et aussi fréquemment avec le concours de l’ICSU, cette ONG scientifique. En effet l’OMM, qui rassemblait les services météorologiques nationaux dédiés au recueil des données météorologiques et à la prévision du temps, traitait aussi de sujets qui dépassaient les préoccupations purement scientifiques de ses membres. De ce fait cette agence de l’ONU organisait des conférences internationales qui touchaient à la fois un public de scientifiques mais aussi et surtout des responsables nationaux, chargés de la météorologie dans leur pays et de ce fait proches des niveaux gouvernementaux. C’est ainsi que des conférences internationales ayant pour objet principal le climat virent le jour progressivement à partir des années 1970 à l’intérieur même des instances scientifiques spécialisées de l’OMM, tel que le GARP (voir Chapitre IV) souvent avec le soutien de l’ICSU. Ces conférences jouèrent un rôle majeur à la charnière du monde scientifique, du public et des media qui en rendaient compte déjà abondamment.
Des organisations et des conférences intergouvernementales marquant la prise en charge par les politiques des inquiétudes manifestées par les scientifiques, les agences des Nations Unies : OMM, PNUE, etc, et progressivement les mouvements écologiques et environnementalistes les plus divers relayés par les medias et le public. Ces conférences, assemblées, sommets, jusqu’aux traités…. intergouvernementaux font aujourd’hui l’actualité traduisant l’emprise de la sphère politique sur la question climatique après la phase de prise de conscience à l’intérieur de la sphère scientifique et sa diffusion progressive dans la société.
1- Les conférences généralistes sur l’environnement
La préoccupation climatique a eu ses précurseurs et ses pionniers scientifiques présentés Chapitre III, mais la société civile –qui signifie ici non scientifique– sensible aux problèmes touchant à l’environnement et appartenant à une certaine élite intellectuelle a eu aussi ses précurseurs opérant cependant dans un registre de réflexion plus étendu que celui du climat et touchant aux rapports de l’homme avec la nature et son environnement.
Autour des années 1968, un vent de contestation souffla sur le monde développé mettant en cause nos sociétés jugées trop soumises à la technologie et à l’industrialisation. Il fallait se libérer des carcans étatiques et replacer la nature à sa place au centre du monde. On peut rappeler ici James Lovelock et son étonnante hypothèse faisant de la Terre un système complexe d’interactions entre ses composantes physiques et vivantes lui conférant ainsi les caractères d’un être vivant : Gaïa.
Ou encore «le club de Rome», créé en avril 1968 à la suite d’une conférence rassemblant à Rome des universitaires, des chercheurs, des économistes et des industriels, appartenant à plusieurs dizaines de pays. Les réflexions de ce club donnèrent lieu à un fameux rapport, connu sous le nom de «rapport du club de Rome», prédisant la fin inéluctable, tôt ou tard mais avant la fin du XXIème siècle, de la croissance économique par épuisement des ressources de la Terre et proposant que pour enrayer ce pillage imprudent, on envisage maintenant une «croissance zéro».
On voit donc que lorsque la question climatique se posa réellement, les élites des opinions publiques étaient déjà préoccupées par les questions environnementales et prêtes à voir dans l’évolution possible du climat une nouvelle menace à laquelle l’humanité aurait à faire face de façon d’autant plus responsable qu’elle était probablement elle-même à l’origine de cette perturbation.
1-1 La première conférence de Stockholm en juillet 1971 : «Climate effects of man’s activities»
C’est dans ce climat intellectuel de responsabilité, voire de culpabilité, de l’homme face à la nature, qu’une conférence fut organisée en 1971 par des scientifiques connus, soucieux des questions environnementales. Par son retentissement, au-delà même de ses aspects purement scientifiques, elle peut être considérée comme la première manifestation d’une inquiétude de l'homme concernant le climat. Trente scientifiques de haut niveau appartenant à 14 pays se sont retrouvé à Stockholm, en juillet 1971, à l’invitation du MIT américain et de l’académie royale des sciences de Suède, pour se pencher sur les impacts des modifications possibles du climat sous l’effet de l’activité humaine. Connue aussi sous l’appellation de «Study of Man’s Impact on Climate - SMIC», cette conférence s’efforça de dégager un consensus sur l’ampleur de la perturbation générée par les activités humaines actuelles et passées, susceptible de modifier les températures et d’une façon générale l’équilibre thermique de la planète. En corollaire, il fut débattu de l’évaluation du niveau de perturbation engendré par l’activité humaine susceptible de causer un changement climatique à l’échelle globale ou régionale. Une conclusion s’imposa : L’homme, par l’ensemble de ses activités, est effectivement en mesure d’affecter durablement le climat aux échelles locales, régionales ou globales. Mais les connaissances sont encore trop fragmentaires et il convient de mettre au point rapidement un plan d’action précis dans le but de mettre en route des recherches approfondies sur ce sujet. Cette conférence de Stockholm de 1971 est restée dans les esprits comme la première manifestation d’une nouvelle attitude de l’homme vis-à-vis de la nature et fut à l’origine de différents mouvements et courants de pensée qualifiés à l’époque d’«environnementalistes». Peut-être plus important encore, les recommandations de cette conférence, cautionnées par des scientifiques de haut rang, attirèrent l’attention des organisations internationales sur la nécessité de prendre au sérieux les problèmes posés par les atteintes à l’environnement. C’est ce qui conduisit l’Organisation des Nations Unies à proposer, l’année suivante, en 1972, une grande conférence internationale sur l’environnement.
1-2 La conférence de l’ONU sur l’environnement à Stockholm en juin 1972
La «Conférence des Nations Unies sur l’Environnement Humain» (CNUEH), qui s’est tenue à Stockholm en juin 1972, fut la première d’une série du même type qui se succédèrent ultérieurement à une période de 10 ans :
Nairobi en 1982,
Rio en 1992 (la plus célèbre qui fut qualifiée de « sommet de la Terre »),
Johannesburg en 2002
et de nouveau Rio (+20) en 2012.
La conférence de Stockholm de 1972 mérite d’être classée dans la catégorie des conférences marquant l’évolution de la pensée écologique car elle était la première et initiait la liste des «Sommets de la Terre». De plus elle plaçait pour la première fois aussi les questions écologiques au rang des préoccupations internationales majeures. Les participants à la conférence, principalement des représentants gouvernementaux, adoptèrent une déclaration énonçant une liste de principes à respecter dans le domaine de l’environnement et proposèrent un vaste plan d’actions pour lutter contre toutes les pollutions. Mais surtout la conférence décida de la création du «Programme des Nations Unies pour l’Environnement – PNUE» (En anglais UNEP pour «United Nations Environmental Programme») qui devint avec l’OMM, on l’a vu, l’une des agences techniques de l’ONU parmi les plus actives dans le domaine du climat et de l’environnement au sens large.
1-3 La commission mondiale sur l’environnement et le développement : «Le rapport Brundtland»
L’assemblée générale des Nations Unies décida en 1983 de mandater une commission de 22 membres, principalement des chefs d’États, sous la présidence de Madame Gro Harlem Brundtland, premier ministre de Norvège, pour se pencher sur l’apparente et embarrassante incompatibilité entre développement et protection de l’environnement.
La commission, composée de représentants gouvernementaux de pays de l’ouest et de l’est, du nord et du sud, s’est réunie une première fois en octobre 1984 et a publié en 1987 un rapport : «Our common future» (en français «Notre avenir à tous»), sous la signature de Madame Brundtland, d’où l’appellation plus courante de ce document : «Rapport Brundtland». Ce rapport est à l’origine du concept de «développement durable» qui par la suite a envahi le vocabulaire des organisations internationales, des medias et des politiques pour désigner un développement qui n’aliènerait pas les ressources de la planète, nécessairement limitées, mais au contraire les préserverait pour les générations futures. Mais l’élaboration du concept de développement durable n’est pas le seul mérite du rapport Brundtland. Bien qu’il n’apporte pas d’éléments foncièrement nouveaux dans le débat sur l’environnement, ce rapport analyse l’articulation des facteurs qui lient la problématique de l’environnement à celle du développement et, en tire une conclusion forte s’exprimant par la nécessité d’inscrire la préoccupation environnementale dans toutes les politiques sectorielles des gouvernements. Le rapport Brundtland, par la diversité des experts qui l’ont conçu, issus des quatre coins de la planète, par leur qualité et leur indépendance ainsi que par la caution des Nations Unies, a donné de la respectabilité et du poids aux diagnostics et aux actions proposées. C’est ce qui a conduit certains pays à prendre des mesures très fortes ; en particulier la Communauté Européenne est allée jusqu’à modifier le traité de Rome par un «acte unique» entré en vigueur en 1987 pour l’adapter aux recommandations du rapport Brundtland, qui spécifie que l’environnement doit s’inscrire dans toutes les politiques menées par la Communauté Européenne. Á travers la portée de cet exemple européen, on mesure l’étendue du rayonnement du rapport Brundtland et son influence sur les développements politiques ultérieurs. Cette commission Brundtland et son rapport resteront pour l’histoire comme un des piliers fondateurs sur lequel se sont construites des avancées politiques majeures dans les domaines du développement, de l’environnement et du climat, à la charnière des XXème et XXIème siècles.
2- Les conférences scientifiques fondatrices
Ces conférences furent des émanations des agences des Nations Unies telles que l’OMM et le PNUE, souvent associées à des organisations scientifiques non gouvernementales telles que l'ICSU. Elles jetèrent les bases scientifiques indispensables à l’étude des questions touchant au climat en créant et en s’appuyant sur des mécanismes appropriés comme le Programme Mondial sur le Climat (PMC) et le Programme Mondial de Recherche sur le Climat (PRMC), créés notamment par l’OMM. Les progrès dans la connaissance furent évalués par les représentants des gouvernements à l’occasion de conférences rituelles particulières appelées «conférences mondiales sur le climat». Il y en eu trois de 1979 à 2009. D’autres : Stockholm (1974), Villach (1980, 1985), Toronto (1988), de nature plus scientifique et plus spécialisée, s’ajoutèrent à ces conférences mondiales sur le climat.
2-1 La conférence internationale de Stockholm de juillet 1974 : «The physical basis of Climate and climate modelling»
On peut faire débuter l’histoire de ces tentatives de structuration de l’étude de la question climatique par les agences des Nations Unies avec l’implication de responsables gouvernementaux, à la conférence internationale de Stockholm qui s’est tenue en juillet-aout 1974 et fut organisée conjointement par l’OMM, le PNUE et l'ICSU avec comme sujet : «La physique du climat et sa modélisation».
Par ses participants, c’est avant tout une conférence scientifique, mais pour la première fois la question du climat, de sa variabilité et de sa modélisation était posée et débattue à l’initiative d’une agence technique spécialisée des Nations Unies, l’OMM, devant des responsables nationaux. Elle se tenait dans le cadre du GARP et était organisée par le «Joint Organizing Committee - JOC» précurseur du «Joint Scientific Committee – JSC» (Voir Chapitre VI) L’objectif de la conférence, qui rassembla la fine fleur des atmosphériciens de l’époque -70 participants principalement américains et européens- était de jeter les bases de l’étude des fondements physiques de la dynamique du climat et de sa modélisation à l’aide des outils numériques que les ordinateurs, récemment arrivés dans les laboratoires, permettaient maintenant de réaliser. Ces outils numériques ouvraient en effet de nouvelles perspectives aux physiciens pour simuler le comportement des fluides, gazeux et liquides, entourant la Terre (voir Chapitre V ) La conclusion principale de cette conférence, sous forme de recommandation, fut de charger l’OMM et le PNUE, avec l’aide de l’ICSU, de mettre sur pied un «Programme Mondial sur le Climat –PMC». En anglais «World Climate Programme –WCP» qui élaborerait plus tard, en son sein, une composante spécifiquement dédiée à la recherche : le «Programme Mondial de Recherche sur le Climat – PMRC» ou «World Climate Research Programme - WCRP». Le climat venait de prendre sa place dans le concert international des grands problèmes traités par les agences des Nations Unies.
2-2 La première conférence mondiale sur le climat à Genève - 1979
La première conférence mondiale sur le climat se tint à Genève en février 1979. Organisée conjointement par l’OMM et le PNUE toujours avec le soutien scientifique de l'ICSU. Ce fut la première fois que la presque totalité des représentants des nations membres de l’OMM fut alertée par l’urgence de la prise en compte du problème climatique. Les organisateurs appelèrent toutes les nations à coordonner leurs efforts pour comprendre le changement climatique et établir des plans pour son étude. Concrètement, c’est au cours de cette conférence qu’à la suite des propositions de la conférence précédente de Stockholm, il fut officiellement décidé de créer au sein du WCP une composante recherche qui devint le WCRP pour «World Climate Research Programme», en français PMRC.
2-3 Les conférences de Villach en 1980 et 1985
En écho à la prise de conscience scientifique de la gravité des conséquences d’un changement climatique possible, qui prenait de l’ampleur, une grande conférence internationale fut organisée toujours conjointement par l’OMM, le PNUE et l’ICSU à Villach en Autriche en octobre 1985. Elle était centrée sur «l’effet de serre, le changement climatique et les écosystèmes». Cette conférence qui rassembla une centaine de participants, scientifiques et représentants des gouvernements de 29 pays, succédait à une première conférence plus strictement scientifique qui s’était tenue aussi à Villach mais en 1980 dans le prolongement de la première conférence mondiale sur le climat de Genève en 1979. Ce rassemblement de chercheurs spécialistes du climat en 1980 était arrivé à la conclusion que la menace climatique était suffisamment présente pour justifier l’organisation rapide d’un programme international d’étude sur le sujet sans pour autant mettre prématurément sur pied un programme de restriction des émissions de CO2, tant les incertitudes scientifiques étaient encore grandes. Pour ce groupe réuni en 1980 la priorité était la connaissance et la nécessité de faire le diagnostic le plus précis possible de la situation actuelle. Ce premier rassemblement scientifique de Villach en 1980 appela la tenue de la grande conférence de 1985. On attribue à la conférence de Villach de 1985 le mérite d’avoir placé la question du changement climatique sur le devant de la scène et pour la première fois sur les agendas des politiques. En effet les participants conclurent à la nécessité d’actions immédiates par les gouvernements. Pour certains scientifiques la situation apparaissait beaucoup plus urgente qu’ils ne l’avaient perçu précédemment, notamment lors de cette précédente conférence scientifique restreinte de 1980. La conclusion de la conférence est sans appel : «Le résultat de l’accroissement des concentrations de gaz à effet de serre observé conduit à penser qu’au cours de la première moitié du prochain siècle (le XXIème) l’élévation de la température globale moyenne pourrait être plus grande qu’elle ne l’a jamais été au cours de l’histoire de l’humanité». et aussi : «Tandis que le réchauffement climatique apparaît aujourd’hui inévitable du fait des agissements passés, le taux et le niveau du réchauffement futur pourraient être profondément dépendants de politiques gouvernementales appropriées sur la conservation de l’énergie, l’utilisation des énergie fossiles et les émissions de gaz à effet de serre». Il faut noter ici que sur ce point délicat des actions de nature politico-économique à entreprendre immédiatement, la communauté scientifique internationale et ses représentants gouvernementaux commençaient à se diviser. Il y avait en effet ceux qui prônaient des restrictions immédiates d’émissions de gaz à effet de serre et ceux, en particulier les États Unis, qui rejetaient cette perspective dans l’immédiat, arguant que les inconnues étaient encore très importantes et qu’il fallait privilégier la recherche pour réduire les plages d’incertitudes avant toutes actions contraignantes visant les politiques énergétiques.
2-4 La conférence de Toronto – Juin 1988
La dimension politique de la conférence de Villach de 1985, déclencha de nombreuses réunions scientifiques, à caractère plus ou moins intergouvernemental, qui se succédèrent et s’enchaînèrent sur les questions soulevées par le changement climatique et les mesures à prendre pour y faire face.
Il y eut, en particulier, des ateliers de travail notamment à Villach encore, et à Bellagio en Italie, en 1987, qui conduisirent l’OMM et le PNUE à organiser de nouveau une grande conférence mondiale sur le climat à Toronto en juin 1988. Le titre en était : «L’atmosphère en évolution : implication pour la sécurité du globe».
Une nouvelle étape dans la médiatisation et la politisation de l’actualité du sujet climatique fut franchie au cours de cette conférence. Il y avait près de 400 délégués appartenant à une cinquantaine de pays. Parmi eux une centaine de scientifiques, entourés de membres de gouvernements et d’ambassadeurs, de juristes et de conseillers divers, de représentants de l’industrie, de personnalités plus ou moins médiatiques appartenant ou non à des ONG environnementalistes. Tout ce monde était noyé dans une nuée de journalistes pour lesquels il fallut aménager à la hâte de nouveaux bureaux et des équipements leur permettant de rendre compte de l’événement au monde entier. Plusieurs personnalités scientifiques furent les vedettes de cette agitation médiatique. La plus connue de ces «stars» était l’américain Jim Hansen, scientifique rigoureux mais farouche propagandiste du désastre climatique qui eut beau jeu de prédire des vagues de chaleur prochaines fréquentes -si le monde ne prenait pas immédiatement les mesures qui s’imposaient- car l’été de cette même année 1988 fut très chaud, ne démentant pas ces prévisions pessimistes ! Au-delà de son atmosphère surchauffée, cette conférence de Toronto fut cependant marquée par des résultats concrets. Outre son exposition médiatique, son principal acquit fut l’engagement de réduire de 20%, par rapport à 1988, les émissions de CO2, d’ici 2005. C’était un chiffre modeste très inférieur à ceux annoncés antérieurement (66%) mais c’était, pour la première fois, un pas décisif vers un engagement, devant le monde et ses caméras, des principaux responsables gouvernementaux présents, engagement qui restera dans les mémoires sous le nom d’ «Objectif de Toronto». L’autre importante contribution de la conférence de Toronto concerne l’engagement de l’OMM et du PNUE de mettre en place un mécanisme intergouvernemental pour l’étude du changement climatique, ses impacts et les mesures à prendre pour s’y adapter. C’était la concrétisation d’une demande déjà ancienne de la communauté scientifique et de certains décideurs nationaux, principalement américains, qui allait voir le jour officiellement sous le nom de : «Intergovernmental Panel on Climate Change – IPCC». En français : «Groupe d’experts Intergouvernemental sur l’Évolution du Climat – GIEC».
2-5 Création du GIEC en 1988
Le «Groupe Intergouvernemental sur l’Evolution du Climat – GIEC», ou IPCC en anglais, a été crée en 1988, conjointement par l’OMM et le PNUE, à la demande du groupe des sept pays les plus industrialisés de l’époque, le G7, devenu depuis le G8. Le GIEC regroupe tous les états membres de l’une ou de l’autre de ces deux organisations des Nations Unies que sont l’OMM et le PNUE. Sa mission est d’évaluer l’état des connaissances sur le changement du climat, de proposer des adaptations aux perturbations climatiques prévues et des mesures pour atténuer ces changements. Le GIEC réunit plus de 1 000 experts qui valident les travaux de leurs pairs et se répartissent en trois groupes de travail sur les sujets suivants :
Les données scientifiques du changement climatique (Groupe 1)
Les impacts économiques, sanitaires, humains de ce changement (Groupe 2)
Comment s’y adapter et les atténuer ? (Groupe 3)
L’organisation du GIEC tend à établir la parité la plus équitable possible entre pays développés et pays en développement. Chaque groupe de travail est coprésidé par un représentant des pays développés et un représentant des pays en développement. Le GIEC tient une séance plénière annuelle, regroupant plusieurs centaines de représentants des gouvernements et des associations, ainsi que des ateliers sur des questions particulières. Ces experts sont ouverts à l’expression des ONG d’obédience écologique ou au contraire aux lobbies opposés, comme ceux des pétroliers. Les expertises des scientifiques sont soumises aux gouvernements des pays avant d’être publiées et ces rapports font l’objet de « résumé à l’intention des décideurs » dont les termes sont âprement discutés. Ce processus rigoureux et lourd garanti l’expression fidèle d’un consensus minimal de la communauté scientifique et de tous les pays sans exception. Le GIEC publie ses rapports à intervalles réguliers. Depuis sa création cinq rapports ont été publiés, en 1990, 1995, 2001, 2007 et 2014 (Encart). Dans ces rapports on trouve un état des connaissances sur le changement climatique, une estimation des liens de causalité entre ce changement et l’activité humaine, des prévisions des changements à venir en fonction de différents scénarios d’émission de gaz à effet de serre, une estimation des impacts de ces changements ainsi que les actions à envisager pour en tempérer les effets.
Comptes rendus sommaires des rapports du GIEC
En 1990, le premier rapport a essentiellement produit un diagnostic du réchauffement et de ses causes possibles parmi lesquelles l’augmentation de l’effet de serre par l’activité humaine était reconnue comme étant très probablement l’une des principales, sans que la démonstration puisse encore en être faite. C’est ce diagnostic qui a servi de base scientifique à la préparation de la convention-cadre sur le changement climatique qui fut présentée et débattue à la Conférence des Nations Unies sur l’Environnement et le Développement – CNUED- à Rio en juin 1992 ( Voir paragraphes et chapitre suivants.
En 1995, le deuxième rapport présente un faisceau d’éléments suggérant qu’il existe bien une influence perceptible de l’activité humaine sur le climat de la Terre ; et les progrès réalisés dans le diagnostic scientifique permettent maintenant d'identifier la cause humaine parmi les autres causes naturelles possibles.. Cependant cette part anthropique est encore difficile à évaluer précisément. Le deuxième rapport prévoit un réchauffement moyen à l’échelle de la planète de 1 à 3,5°C et une élévation du niveau de la mer de 15 à 95 centimètres d’ici 2100. Ces prévisions sont établies à l’aide de modèles numériques en plein développement grâce à la disponibilité d’ordinateurs de plus en plus puissants. Ces simulations du climat et la prévision de son évolution sont de plus en plus réalistes car elles incluent maintenant l’océan et les glaces dont les comportements dynamiques sont couplés avec ceux de l’atmosphère. En 2001, le troisième rapport insiste sur la fiabilité encore plus grande des prévisions des modèles de climat ainsi que sur les sources de données encore plus nombreuses incluant les données issues des observations depuis l’espace par des instruments placés sur des satellites artificiels de la Terre. Ces progrès permettent de quantifier avec plus de précision les caractéristiques du changement climatique. Le réchauffement moyen est estimé être de 0,6 °C depuis 1881, date des premières observations physiques fiables. Le niveau de la mer s’est élevé de 17 centimètres depuis le début du XXème siècle. L’étendue des couvertures neigeuses et des glaces de mer s’est réduite. Les émissions de gaz à effet de serre et d’aérosols anthropiques continuent de modifier la composition chimique de l’atmosphère et les termes du bilan radiatif de la Terre, perturbant ainsi le climat. Il existe maintenant un faisceau de preuves beaucoup mieux étayées qu’antérieurement confirmant que l’essentiel du réchauffement est bien dû aux activités humaines avec une probabilité estimée à 60%. Les modèles climatiques, encore peu précis, prévoient cependant que la température moyenne de la Terre devrait s’élever de 1,4°C à 5,8°C en fonction des scénarios d’émission retenus et le niveau moyen des océans s’élever de 10 à 90 centimètres entre 1990 et 2100. En 2007, le quatrième rapport a été rendu public et ouvert à la discussion à partir de janvier avant d’être définitivement publié en plusieurs volumes au cours de l’année. Le rapport du groupe 1 confirme, avec encore plus de certitude, estimée maintenant à 90%, que les émissions de gaz à effet de serre anthropiques sont responsables du changement climatique en cours. Celui-ci se manifeste de plus en plus clairement notamment dans les hautes latitudes où un réchauffement de 2°C est constaté depuis une dizaine d’années dans l’arctique, divisant par 2 l’étendue des glaces de mer en été et livrant ainsi cette mer polaire, longtemps inaccessible, à la navigation et à l’exploitation de ses ressources, mais en perturbant dramatiquement la faune et le mode de vie de ses habitants. Les modèles annoncent, pour 2100, en fonction des différents scénarios d’émission, une hausse prévisible des températures moyennes de la planète de 1,1°C à 6,4°C avec une fourchette plus probable de 1,8°C à 4°C ainsi qu’une élévation du niveau moyen des océans comprise encore entre 10 et 90 centimètres. Les modèles prévoient encore, bien que moins sûrs d’eux en ce qui concerne l’évolution du cycle de l’eau, des précipitations accrues dans les hautes latitudes et au contraire un déficit de pluviométrie dans les régions subtropicales ainsi que sur le pourtour méditerranéen. En ce qui concerne les impacts et les conséquences du changement climatique, le rapport du groupe 2 indique que les régions affectées par la sécheresse vont s’étendre et au contraire des précipitations violentes et des inondations frapperont d’autres régions. Les écosystèmes seront aussi très perturbés et subiront des migrations, principalement en latitude ; des extinctions sont aussi à prévoir pour les espèces, plus fragiles, qui ne pourront pas s’adapter au changement. 20 à 30 % des espèces végétales et animales pourraient disparaître. D’autres impacts du changement climatique aux conséquences socio-économiques cruciales pour tous les pays, développés ou non, sont aussi anticipés dans les domaines de la forêt, de la pêche, des zones côtières, de l’habitat et de la santé. Le groupe 3 dont le rapport est principalement destiné aux décideurs préconise d’agir vite, à un coût acceptable pour nos économies en investissant dans les énergies nouvelles créatrices d’emplois et de richesses.
En 2014, bien que le rapport de synthèse (prévu pour octobre) ne soit pas encore disponible, des éléments scientifiques traitant du changement climatique ont été publiés dans le cadre du 5ème rapport du GIEC dès septembre 2013. En mars 2014, publication du rapport sur les impacts, l'adaptation et la vulnérabilité. Enfin, en avril 2014, publication d’un rapport sur l'atténuation du changement climatique. Les apports nouveaux de ce 5ème rapport du GIEC, comparativement aux précédents et vus à travers ces publications, peuvent être résumés ainsi :
Le lien entre les activités humaines et l'accroissement des températures constaté est passé du niveau « très probable » en 2007 dans le 4ème rapport au niveau « extrêmement probable (probabilité de 95 %) » en 2014.
De nouveaux scénarios et une nouvelle méthodologie ont été utilisés dans le 5ème rapport pour réaliser des prévisions avec des modèles d’évolution climatique. Antérieurement les scénarios envisagés étaient basés sur différents niveaux d'émissions de GES. Les nouveaux scénarios au contraire prennent comme base différents niveaux d'équilibre énergétique et en déduisent les niveaux de concentration de GES correspondant à des scénarios socio-économiques qui seraient compatibles.
Alors que les précédents rapports proposaient uniquement des prévisions pour la fin du XXIème siècle, le 5ème rapport fait état de prévisions décennales couvrant la période 2012-2035. Des prévisions à très long terme, à l'horizon 2300, sont également proposées.
Les émissions humaines d'aérosol, qui réduisent le flux solaire incident et atténuent ainsi le réchauffement climatique, sont revues à la baisse.
La hausse du niveau moyen des océans serait plus importante que prévu antérieurement. Elle serait située entre 29 et 82 cm d'ici la fin du 21ème siècle et serait due principalement à la fonte du Groenland qui avait été sous-estimée précédemment.
Les événements climatiques extrêmes seront plus intenses et plus fréquents. Cela se marquera principalement dans les précipitations qui pourraient devenir diluviennes dans les régions normalement humides actuellement. En revanche les régions sèches deviendraient encore plus sèches
Le «hiatus thermique», ou ralentissement apparent du réchauffement, observé ces deux dernières décennies, ne remet pas en cause le réchauffement anthropique qui affecte la Terre depuis environ 1850.
Concrètement, les groupes de travail II et III réaffirment que seul un scénario de réduction des émissions de GES est en mesure de maintenir la hausse des températures sous le seuil de 2°C. Et ce seuil de 2°C ne sera contenu que si les trajectoires des émissions de GES sont parmi les plus favorables envisagées, ce qui nécessiteraient de réduire les émissions de 10 % environ par décennie jusqu'à la fin du siècle.
2-6 La seconde conférence mondiale sur le climat à Genève en octobre 1990
Á la fin des années 1980 et après la création du GIEC, la tenue d’une seconde conférence mondiale sur le climat fut recommandée par le conseil exécutif de l’OMM. En effet l’intérêt du public pour le changement du climat, la prise de conscience politique, la sortie prochaine du premier rapport du GIEC sur l’état des connaissances, appelait une mise au point justifiant la tenue de cette conférence. Elle fut organisée à Genève du 29 octobre au 9 novembre 1990 par l’OMM assistée encore du PNUEet de l'ICSU.
La conférence rassembla les représentants de 137 pays ainsi que la communauté européenne. S’appuyant sur les premières conclusions des rapports des trois groupes de travail du GIEC, la déclaration finale réaffirma que le changement climatique est une préoccupation sérieuse touchant l’humanité toute entière et que devant la menace de dommages irréversibles considérables, le manque de certitudes scientifiques ne doit pas être une excuse à l’absence d’actions immédiates pour prévenir une dégradation majeure de notre environnement. C’est ce qui fit que cette seconde conférence mondiale sur le climat affirma un caractère beaucoup plus politique que la première, 11 ans plus tôt. Ainsi, après une semaine de présentations scientifiques sur tous les aspects du changement climatique, la conférence élabora une «déclaration ministérielle» sur la nécessité de réduire les émissions de gaz à effet de serre. Issue de difficiles négociations entre les représentants des gouvernements des 137 États représentés, cette déclaration ministérielle fut cependant une déception pour la majorité des participants car elle ne donnait pas d’objectifs précis quantitatifs de réduction des émissions de gaz à effet de serre, ni ne désignait le gaz carbonique comme le principal gaz polluant. Cependant la conférence peut être créditée de plusieurs avancées significatives. Parmi celles-ci la proposition d’instaurer une convention cadre sur les changements climatiques. Cette convention appelée : «United Nations Framework Convention on Climate Change – UNFCCC», sera mise sur pied en 1992 par le sommet de Rio (Conférence des Nations Unies sur l’environnement et le développement – CNUED – UNCED en anglais) et engendrera le «protocole de Kyoto» dont on verra plus loin l’importance. Enfin la conférence proposa la création d’un «Système Mondial d’Observation du Climat – SMOC» ; en anglais «Global Climate Observing System - GCOS» qui fut officiellement établi en 1992 conjointement par l’OMM, le PNUE, l’ICSU et la COI dépendant de l’UNESCO. (voir Chapitre IV).
2-7 La troisième conférence mondiale sur le climat à Genève en Septembre 2009
Les décennies 1990 et 2000 furent riches en développements politiques autour de la question climatique. On examinera plus en détail, dans les chapitres suivants, ces développements qui tournent autour de plusieurs événements dont les principaux sont :
les rapports successifs du GIEC,
les conférences décennales appelées quelquefois les «Sommets de la Terre» dont la plus marquante fut la «Conférence des Nations unies sur l’Environnement et le Développement – CNUED» qui s’est tenue à Rio en 1992,
la conférence de Kyoto et son protocole signé avec difficulté en 1997… etc.
L’ampleur de ces événements et leurs impacts sur le public et les gouvernements incita l’OMM à proposer une troisième conférence mondiale sur le climat qui s’est tenue à Genève la première semaine de septembre 2009. Cette troisième conférence n’ambitionnait pas, comme les deux précédentes, une avancée marquante de la cause climatique par la création ou la proposition de dispositifs nouveaux et spectaculaires. Ceux-ci étaient déjà en place avec le GIEC, la convention cadre des Nations Unies sur le changement climatique et ses développements, les engagements politiques découlant du protocole de Kyoto et les sommets qui avaient rassemblé plusieurs chefs d’état et donné un retentissement considérable aux problèmes environnementaux et climatiques. Tous ces événements étaient enveloppés par une très intense agitation médiatique autour de partisans convaincus de l’urgence de mesures à prendre pour limiter l’usage de carbone fossile et de sceptiques – appelés climato-sceptiques - mettant en cause la réalité même de l’origine humaine du changement climatique. Plus modestement l’objectif de cette troisième conférence mondiale sur le climat était de faire progresser le développement des services climatologiques et leurs applications dans l’intérêt des sociétés. Autrement dit créer un cadre général qui lierait, en prise directe, l’avancée des connaissances scientifiques dans la prévision du climat et les besoins des usagers potentiels de ces informations, décideurs et aménageurs divers, services de santé, agriculteurs, bref ! La société dans son ensemble. Aussi cette troisième conférence battit des records de participants tant par leur nombre - plus de 2500 appartenant à 163 pays - que par leur diversité et leur qualité :
huit chefs d’États et 80 ministres,
59 organisations internationales,
des centaines de scientifiques de différentes disciplines,
mais aussi des fournisseurs de services météo et climatiques publics et privés,
des décideurs économiques et politiques de tous niveaux accompagnant les chefs d’États….
La conférence s’est déroulée en deux parties (appelées segments) :
Un segment «experts» durant les trois premières journées réunissait des climatologues et des spécialistes provenant de divers secteurs touchés par le changement climatique.
Un segment dit de «haut niveau» rassemblant pendant deux jours des chefs d’États et de gouvernements pour mettre sur pied un «cadre mondial pour les services climatologiques» Le résultat principal de la conférence fut donc la proposition, examinée par les représentants gouvernementaux, de créer un cadre mondial pour les services climatologiques destiné à faire face au défi climatique sur deux fronts :
l’ «atténuation» des impacts du changement climatique
et l’«adaptation» des sociétés à ce changement.
Les rapports du GIEC, les conférences mondiales sur le climat et les grandes conférences scientifiques des années 1980- 2000 constituent la partie émergée de l’iceberg dont le cœur est constitué de la gigantesque mobilisation des scientifiques qui, après les travaux pionniers de quelques personnalités ayant, avant d’autres, perçu la gravité et l’importance du sujet climatique, s’est organisée autour des agences techniques des Nations Unies, comme l’OMM et le PNUE. Cette mobilisation sans précédent a fait faire un bond considérable à la connaissance du climat, sa variabilité naturelle et son changement sous l’effet des activités humaines. Le travail des scientifiques et les progrès de la connaissance sont difficiles à évaluer et à traduire au public, d’autant que par nature l’activité scientifique est souvent individuelle, compétitive et contradictoire, chaque scientifique voulant montrer à ses pairs l’originalité et la pertinence de ses idées et de ses travaux. Les grands programmes scientifiques internationaux présentés précédemment ont contribué à resserrer les liens entre les acteurs de la recherche et à faire converger des disciplines scientifiques qui à l’origine n’avaient pas, ou peu, de points communs. Mais, compte tenu de l’implication sociétale et humaine sans précédent de la question climatique, il était indispensable d’assurer la visibilité extérieure des résultats de cet énorme effort de recherche, qui a mobilisé des milliers d’acteurs scientifiques et aussi de gestionnaires de la science à des degrés divers. C’est cette tâche que les conférences mondiales sur le climat, les grandes conférences scientifiques généralistes ou spécialisées ainsi que le GIEC ont assurée auprès des représentants gouvernementaux et du public sous l’œil des medias et des militants des multiples associations civiles soucieuses de l’environnement. L’échelon véritablement politique, traité dans ce qui suit, s’est ancré sur cette prise de conscience publique faite de débats, parfois agités, initiés par ces grandes et moins grandes conférences des années 1980-2000, bien relayées par les medias.
3 - Les conférences intergouvernementales et les organisations politiques
On a noté antérieurement que les décennies 1990 et 2000 ont été particulièrement riches en développements politiques dans les domaines de l’environnement et du climat. Mais l’enchaînement et l’entrecroisement des conférences et autres manifestations et institutions autour de la question climatique, depuis le pôle scientifique jusqu’au pôle politique, est très complexe et difficile à décrire. Dans les sous-chapitres précédents on a tenté d’isoler les manifestations qui touchaient à la généralité des problèmes environnementaux ainsi que *+celles qui avaient un caractère plus spécifiquement scientifique mais néanmoins intergouvernemental sous l’égide des agences techniques des Nations Unies telles que l’OMM, le PNUE…. Dans ce sous-chapitre nous allons tenter de montrer comment s’est enraciné, puis construit, le pôle politique jusqu’à l’implication des chefs d’États dans des rassemblements intergouvernementaux de type G8, G20... à partir du consensus scientifique. On peut situer le début de l’implication effective des politiques dans la question climatique à la «convention-cadre sur le changement climatique» proposée à Rio en 1992 et se servir de ses développements, conduisant au protocole de Kyoto et à ses suites, comme fil conducteur pour tracer l’évolution de l’implication de la politique internationale dans le dossier climatique. Mais il est nécessaire de positionner cette convention-cadre dans le contexte plus large des manifestations multiples qui se sont tenues au cours de ces années. Pour cela on peut considérer que deux catégories de conférences, en partie évoquées et décrites précédemment, opérèrent la transition entre le pôle scientifique et le pôle strictement politique du dossier climatique :
Les «conférences mondiales sur le climat», organisées principalement par l’OMM à Genève. Il y en eut trois (exposées dans le chapitre précédent) :
la première en février 1979,
la seconde en novembre 1990
et la troisième en septembre 2009.
C’est au cours de la deuxième conférence mondiale sur le climat de 1990 que l’idée d’une convention internationale sur le changement climatique est née. Elle s’est traduite par une mention particulière dans sa déclaration finale : invitant les pays participants à travailler à l’instauration d’une convention sur le climat, dont les principes directeurs seraient fixés par un «Comité Intergouvernemental de Négociation», et qui devait être prête pour être présentée au «sommet de la Terre» prévu 3 ans plus tard à Rio en 1992.
D’autres conférences des Nations Unies rassemblant des dirigeants mondiaux et visant à démontrer une capacité collective de gestion des problèmes planétaires virent le jour durant cette période. De nature politique et plus communément appelées «sommets de la Terre», ces conférences se réunirent tous les 10 ans ; le premier de ces sommets s’est tenu à Stockholm en 1972 (voir paragraphe précédent) ; les suivantes se sont tenues :
à Nairobi en 1982,
à Rio en 1992, *
à Johannesburg en 2002
et de nouveau en 2012 à Rio (Rio plus 20) pour le vingtième anniversaire de celle de 1992.
C’est la conférence qui s’est tenue à Rio en 1992, appelée «Conférence des Nations Unies sur l’Environnement et le Développement - CNUED» qui a vu la signature de la convention sur le changement climatique qui ultérieurement a conduit au «protocole de Kyoto» et qui peut être considérée comme l’entrée du politique dans la question du changement climatique.
Ces conférences intergouvernementales marquèrent la prise en charge par les politiques des inquiétudes manifestées par différentes catégories de citoyens :
scientifiques,
mouvements écologiques et environnementalistes divers relayés par les media
et le grand public.
Ces conférences, assemblées, sommets, jusqu’aux traités intergouvernementaux font aujourd’hui l’actualité, traduisant l’emprise de la sphère politique sur la question climatique après la phase de prise de conscience intérieure qui s’est faite au sein de la sphère scientifique et sa diffusion progressive dans la société.
3-1 La Conférence des Nations Unies sur l’Environnement et le Développement (CNUED), Rio de Janeiro, 1992
Plus connue sous son vocable anglais : «United Nations Conference on Environnement and Development - UNCED», cette conférence de Rio, dite du «sommet de la Terre», fut une réussite et un événement d’envergure mondiale qui marqua la globalisation des préoccupations environnementales et climatiques par un niveau de médiatisation encore inconnu sur un tel sujet. Plus d’une centaine de chefs d’États et de gouvernements y participèrent -ce qui représentait le plus grand rassemblement de dirigeants mondiaux jamais réuni- ainsi que plus de 1 500 ONG. Le sommet de Rio fut marqué par l’annonce d’un programme ambitieux de lutte mondiale contre les changements climatiques, au moins sur le papier. La conférence de clôture du sommet fut conclue par «La déclaration de Rio» qui fixe des lignes d’actions pour assurer une meilleure gestion de la planète et faire progresser les concepts régissant les droits et les responsabilités des États. Quatre documents furent signés par tous les chefs d’États et de gouvernements présents :
l’«Agenda 21» qui comprenait plus de 2 500 recommandations dont beaucoup n’ont pas été suivies d’effet et ont sombré dans l’oubli ;
Une conventionsur la protection de la biodiversité biologique ;
Une convention sur la lutte contre la désertification, associée à une déclaration sur la gestion, la conservation et le développement durable des forêts ;
Enfin, une convention-cadre sur le changement climatique.
Cette conférence de Rio en 1992, la troisième depuis Stockholm en 1972, à intervalles de 10 ans, appelées après coup les «sommets de la Terre», fut suivie de celle de Johannesburg en 2002 et de nouveau Rio (appelée Rio + 20) en 2012.
La conférence de Johannesburg en 2002 eut un certain poids politique dû à la présence d’une centaine de chefs d’État, dont Jacques Chirac, invités à réitérer leur engagement politique en faveur du développement durable et du partenariat Nord-Sud. Cependant, bien que l’événement avec plus de 40 000 délégués, fut, parait-il, le plus grand rassemblement jamais organisé par les Nations Unies, il est aujourd’hui presque totalement oublié.
La conférence Rio + 20, à l’incitation de l’Organisation des Nations Unies, devait commémorer le vingtième anniversaire de la CNUED de Rio en 1992. Cette «Conférence des Nations Unies sur le Développement Durable - CNUDD» était le cinquième «sommet de la Terre» et se voulait être un approfondissement des engagements des sommets antérieurs. Convoquée par la 64ème Assemblée Générale des Nations Unies, la conférence avait deux objectifs principaux :
Expliciter l’économie verte dans le développement durable ;
Donner un contenu au cadre institutionnel du développement durable.
Annoncée par une série de réunions préparatoire à partir de 2010 (New York en mai 2010 et en mars 2011, Rio en juin 2012) et abondamment médiatisée, la conférence, qui s’est tenue du 20 au 22 juin 2012, s’est terminé par la ratification d’un texte par les chefs d’États des 188 pays représentés. En fait ce texte de 49 pages, intitulé : «L’avenir que nous voulons» a été diversement jugé :
négativement par une majorité de participants, notamment les nombreuses ONG, le trouvant seulement déclaratif et sans aucune contrainte ni rupture avec le monde actuel ;
positivement au contraire, comme un bon point de départ, par le pays organisateur, le Brésil, et sa présidente, Dilma Rousseff, soucieuse de donner une bonne image des capacités d’organisation de son pays.
Les promoteurs de la conférence étaient également soucieux de gommer l’impression générale de confusion et d’irrésolution qui se dégageait des prises de position irréconciliables de groupes de pays aux intérêts divergents. De fait les leaders de nombreux grands pays, notamment États Unis, Allemagne, Royaume Unis, étaient absents. Le président français, François Hollande qui s’était déplacé, se déclara déçu. Au final cette assemblée a fait couler beaucoup d’encre, suscité des espoirs, mais engendré aussi beaucoup de déceptions et de frustrations. Force était de constater que la maîtrise de la croissance verte, objectif affiché de cette manifestation d’échelle planétaire, n’a pas encore réussie à se forger une place solide et durable dans l’espace de la pensée politique mondiale du début du XXIème siècle.
3-2 La convention-cadre des Nations Unies sur le changement climatique
Plus connue sous son vocable anglais : «United Nations Framework Convention on Climate Change - UNFCCC», la «Convention-cadre des Nations Unies sur le Changement Climatique - CCNUCC» en français - fut signée à la fin de la conférence de Rio, et ratifiée plus tard, par plus de 160 pays incluant individuellement la Communauté Européenne.
La Convention-cadre est entrée en vigueur en mars 1994. Elle stipule dans son article 2 que :
«son objectif ultime est de stabiliser les concentrations de gaz à effet- de serre dans l’atmosphère à un niveau qui empêche toute perturbation anthropiques dangereuse du système climatique… dans un délai suffisant pour que l’adaptation aux changements climatiques des écosystèmes et des sociétés humaines soit possible».
D’autres engagements ont été pris notamment sur les taux d’émission des pays développés et sur l’aide à apporter aux pays émergents et aux pays en développement. Ainsi les pays développés, les pays émergents et la Communauté Européenne se sont engagés à adopter des mesures pour, d’ici l’an 2000, stabiliser leurs émissions de gaz à effet de serre à leur niveau de 1990. Par ailleurs, les pays développés et la Communauté Européenne se sont engagés à financer les coûts des aménagements structurels des pays émergents et en développement pour qu’ils puissent aussi respecter leurs engagements. Au final ces objectifs sont apparus assez «volatils» car peu contraignants, le Nord voulant protéger son industrie et le Sud garder sa liberté d’exploiter ses forêts comme bon lui semble tout en ne freinant pas son industrialisation naissante. Pour appliquer concrètement ses résolutions, la convention-cadre s’est dotée d’un organe directeur appelé «la Conférence des Parties» ; en anglais «Conference Of Parties – COP» qui doit se réunir annuellement et rassembler les États signataires pour mettre en pratique les engagements pris. C’est au cours des réunions successives de ces premières Conférences des Parties (COP 1, 2, 3) , à partir de 1995, que des négociations, parfois très difficiles, ont permis de franchir les obstacles conduisant finalement à la mise en œuvre d’un traité international, appelé le «Protocole de Kyoto», du nom de la ville où s’est réunie la COP 3, en 1997, pour signer ce traité visant à réduire les émissions de gaz à effet de serre.
3-3 Le Protocole de Kyoto
On peut distinguer dans le protocole de Kyoto un triple contenu : les objectifs de réduction des gaz à effet de serre, les mécanismes de flexibilité s’appliquant à ces réductions, les conditions d’entrée en vigueur du traité :
Les objectifs de réduction sont individualisés par pays ou par groupe de pays. Pour les pays développés la réduction moyenne imposée est de - 5,2% par rapport au nivaux atteints en 1990, pour une échéance située entre 2008 et 2012. Les pays en développement, y compris les pays émergents (Chine, Brésil,…) sont exemptés de contraintes chiffrées mais invités à limiter leurs émissions. Ces objectifs de réduction prennent en compte six gaz à effet de serre : dioxyde de carbone, méthane, oxyde nitreux et trois composés carbonatés complexes substituts aux CFC interdits par le protocole de Montréal.
Les mécanismes de flexibilité ont également trois objectifs :
Faciliter les efforts des pays développés pour limiter leur usage de systèmes de production parmi les plus polluants et les moins efficaces ; pour cela il leur est proposé un mécanisme de permis négociables sur un marché de permis d’émission.
Promouvoir des mécanismes de développement propres en permettant aux pays développés de réaliser leurs objectifs tout en investissant dans des projets initiés par des pays en développement. C’est, en partie, une réponse à la demande d’aide de ces pays en développement pour qu’ils puissent assurer un développement le plus propre possible.
Mettre en œuvre conjointement des financements de projets visant à développer le stockage de carbone et la réduction des émissions.
Les conditions d’entrée en vigueur du traité sont strictes et assez complexes dans leurs détails. Il faut qu’au moins 55 pays signataires du traité l’aient ratifié (cette condition a été satisfaite en mai 2002) ; il faut aussi que le nombre et l’importance (en terme de quantité d’émission de dioxyde de carbone) des pays ayant ratifié le traité représente au total au moins 55% des émission de dioxyde de carbone du monde entier rapporté à l’année 1990 (cette condition a été satisfaite en novembre 2004 avec la ratification de la Russie). Le traité est validé et son application nationale est possible dans chaque pays signataire 90 jours après la ratification du dernier pays nécessaire au quorum validant le traité. La date d’entrée en vigueur du traité par les pays l’ayant ratifié est intervenue le 16 février 2005. En France il a fait l’objet d’un décret daté du 22 mars 2005.
Le protocole de Kyoto a fait l’objet d’innombrables commentaires négatifs et positifs. Parmi les commentaires négatifs il y a ceux qui soulignent la modestie des objectifs envisagés face aux menaces d’un bouleversement climatique et qui mettent en avant les énormes difficultés rencontrées au cours des négociations, chaque catégorie d’intervenants défendant pied à pied ses intérêts avant celui de la planète.
Mais une autre faiblesse plus fondamentale du traité apparaît en contrepoint dans l’évitement d’un problème de fond, à peine esquissé bien qu’au cœur des débats : celui des rapports entre le Nord et le Sud et l’opposition entre développement et environnement. Le traité n’oblige que les pays développés du Nord à réduire leurs émissions de gaz polluants. Or les émissions des pays émergents et des pays pauvres croissent rapidement et dépasseront bientôt celle des pays du Nord. Face à cette situation grevant lourdement le futur, certains pays développés, principalement les américains, insistent pour que les pays émergents et pauvres contribuent aussi aux réductions des émissions. Ces pays refusent de se soumettre à ces contraintes environnementales qui freineraient leur développement. Ils mettent en avant le fait historique que le Nord a assuré son développement depuis plus de deux siècles en puisant sans restrictions dans les ressources naturelles et en émettant des pollutions de tous ordres sans se soucier de leurs conséquences. Le Nord est responsable de la situation actuelle. Le Sud demande donc au Nord des compensations pour lui permettre un développement propre ; mais ces compensations, principalement financières, lui sont refusées sans des garanties solides, ce qui alimente d’interminables débats sur les conditions d’allocation de ces soutiens financiers à presque toutes les réunions annuelles des COP depuis 1992. Le coté positif du dossier est à trouver dans l’éveil de la communauté internationale, et la prise de conscience au niveau des chefs d’États, d’un problème de dimension planétaire qui pour la première fois dépasse de loin les conflits antérieurs liés à des affrontements d’intérêts nationaux ou à des oppositions, chaudes ou froides, entre blocs relevant de la géopolitique. En dépit de la modestie de ses objectifs, de l’étalage des égoïsmes nationaux, des doutes sur son efficacité, un tel traité représente un tournant politique majeur aux conséquences économiques encore difficilement imaginables. Pour la première fois des pays industrialisés se sont engagés à réduire leurs émissions de gaz à effet de serre, en acceptant de compliquer ainsi sciemment leur approvisionnement énergétique. Les sources d’énergie du monde développé devront se diversifier, obligeant ces pays à reconsidérer les principes sur lesquels est fondé leur développement économique, ouvrant peut-être ainsi la porte à un autre monde.
3-4 Les conférences des parties (COP) de la Convention-Cadre des Nations Unies sur le Changement Climatique (CCNUCC)
La première Conférence des Parties (COP 1) s’est tenue à Berlin en mars 1995, un an après l’entrée en vigueur de la convention-cadre sur le changement climatique. Elle marque un certain désenchantement après l’euphorie qui avait marqué la conférence de Rio trois ans plus tôt. Les participants constatent qu’il est très difficile d’appliquer les engagements pris par la convention-cadre qui par ailleurs est assez floue sur bien des points. Il est alors décidé d’élaborer un instrument nouveau appelé le «Mandat de Berlin» qui reconnaît l’inadéquation des engagements actuels de la convention, notamment ceux concernant l’aide des pays développés aux pays du sud, pour atteindre les objectifs généraux de la conférence de Rio. Le «Mandat de Berlin» étend et contraint plus rigoureusement les engagements des pays développés et initie un cycle de négociations pour mettre au point de nouveaux engagements pour la période au-delà de l’an 2000. Il est également donné mandat aux pays développés de mettre en place des engagements précis destinés à ramener leurs émissions au niveau de 1990 comme ils s’y sont engagés. Ce nouveau cycle de négociation aboutira à des propositions chiffrées de réduction par pays (ou groupes de pays), qui feront l’objet du protocole de Kyoto (voir plus loin).
La COP 2 s’est tenue à Genève en juillet 1996. Elle a été principalement marquée par ce qui a été appelé la «Déclaration de Genève» précisant les orientations des négociations en cours et approuvant le deuxième rapport du GIEC en considérant qu’il apporte une base de connaissance scientifique suffisamment solide pour justifier un renforcement immédiat des actions de lutte contre le réchauffement climatique. La «déclaration de Genève» approfondit aussi le «mandat de Berlin» en invitant les participants à fixer des objectifs de réduction d’émissions chiffrés et contraints juridiquement.
La COP 3 s’est tenue à Kyoto en décembre 1997, surtout connue pour avoir initié et signé le célèbre protocole de Kyoto (voir paragraphe précédent). En fait, les modalités de ce traité étaient discutées depuis plusieurs années et avaient été à l’ordre du jour de toutes les réunions qui s’étaient tenues depuis la conférence de Rio en 1992 pour tenter de donner un contenu à la Convention-cadre sur le changement climatique.
Au cours de cette COP 3, qui aboutit au protocole de Kyoto, quatre groupes de pays se sont opposés :
la Communauté Européenne,
un regroupement de 130 pays en développement,
les pays actuellement les plus directement menacés comme les petits États insulaires se déclarant les «victimes non coupables du réchauffement climatique»,
enfin, des opposants à l’instauration de quotas appelés un peu ironiquement les «membres du carbon Club» regroupant de nombreux pays développés incluant l’Amérique du nord, le Japon, l’Australie et les pays producteurs de pétrole du Moyen Orient.
Néanmoins, un protocole fut signé, rassemblant les représentants des 160 pays présents sur une position commune. Ce fut un événement de portée mondiale, largement médiatisé, qui restera dans l’histoire sous l’appellation de «Protocole de Kyoto».
La COP 4, à Buenos Aires en décembre 1998, était destinée à définir les modalités pratiques des décisions prises à Kyoto concernant la signature du Protocole de Kyoto.
Cette conférence fut un échec, les 180 pays participants se divisèrent en trois groupes irréductibles :
Certains pays du Nord autour des américains réaffirmèrent leur volonté d’obliger les pays en voie de développement à participer eux aussi aux réductions d’émissions arguant que la Chine, par exemple, allait bientôt dépasser l’occident par le taux d’émission de gaz carbonique de ses innombrables centrales à charbon.
Mais les pays en développement refusèrent par principe de céder quoi que ce soit à des pays qui polluent 20 fois plus qu’eux par tête d’habitants.
Les Européens tentant de trouver une issue au conflit demandèrent un geste aux américains en leur proposant de s’engager à réduire leurs permis négociables de droits à émettre, et les poussant ainsi à réduire concrètement leur émissions ; ils refusèrent obstinément tant que les pays en développement n’acceptaient pas le principe de leur participation aux réductions des émissions.
La situation était bloquée et elle le resta durant toute la durée de la conférence qui se termina misérablement par un accord sur un calendrier de travail.
La COP 5 à Bonn en novembre 1999 fut aussi un demi- échec comme la précédente. Les américains restèrent sur leur position refusant de s’engager sur des réductions d’émissions si les pays en développement ne participaient pas eux-mêmes à ces réductions. Les pays pétroliers du Moyen Orient tentèrent de tirer avantage de ces conflits pour faire capoter l’ensemble du processus de mise en pratique du traité. La Communauté Européenne, le Japon et les pays en développement durcirent leur position. Au final aucun consensus majeur sur le contenu pratique du traité, notamment en terme d’engagement sur des taux de réduction d’émission, ne fut atteint. Quelques résultats cependant sur la précision de la mesure des émissions et les moyens de contrainte sur les pays émetteurs qui ne respectent pas leurs engagements. Face à ce nouvel échec, une organisation de petits pays insulaires, premières victimes potentielles de l’élévation du niveau de l’océan et menacées de disparition : «Alliance Of Small Islands States - AOSIS» émit une protestation solennelle qui eu un large écho médiatique.
La COP 6 à La Haye en novembre 2000 est également à oublier ; ce fut un échec total qui nécessita la tenue d’une COP 6 bis six mois plus tard. Devant des exigences américaines nouvelles, les pays européens, mal préparés et divisés, ont refusé le texte de l’accord final. Il fut alors décidé de poursuivre les négociations au cours d’une nouvelle conférence (COP 6 bis) qui se tint à Bonn six mois plus tard en juillet 2001. En l’absence des américains, les 180 pays présents se sont enfin mis d’accord sur un texte explicitant l’application du protocole de Kyoto. Des compromis ont été trouvés sur l’usage du marché des droits à émettre et sur la création d’un fond destiné à aider les pays en voie de développement à faire face aux dérèglements climatiques.
La COP 7 à Marrakech en novembre 2001, marquée par la sortie de crise trouvée in extremis au cours de la COP 6 bis de Bonn, s’est tenue sans les américains. Ils maintinrent leur position de retrait adoptée en 2001 au cours de la COP 6 bis de Bonn, se contentant d’un siège d’observateur et refusant toute participation active dans les négociations en dépit des pressions de certains pays amis du Nord. Les négociateurs des pays représentés s’attachèrent à finaliser les détails opérationnels du protocole de Kyoto ouvrant la voie à sa ratification par le plus grand nombre possible de pays, sachant qu’au moins 55 pays représentant plus de 55% des émissions de gaz à effet de serre devaient le ratifier pour le rendre effectif. Le principal résultat de la conférence se traduisit par un document : «Les accords de Marrakech», qui propose une traduction juridique des règles de mise en œuvre du Protocole de Kyoto.
La COP 8 à New Delhi en octobre 2002 a été principalement marquée par une «Déclaration ministérielle» dite de Delhi appelant les pays développés à intensifier leurs efforts pour le transfert vers les pays pauvres des technologies modernes de façon à atténuer l’impact du changement climatique sur ces pays en voie de développement. Les États Unis, à la suite de l’élection de George W. Bush, et l’annonce de leur refus de signer le protocole de Kyoto, apportèrent paradoxalement leur soutien aux pays du Sud pour privilégier le thème de l’adaptation et de la réduction de la vulnérabilité opposé à celui de la réduction (ou atténuation) des émissions soutenu par les européens et constituant le noyau dur du protocole de Kyoto.
La COP 9 à Milan en décembre 2003 s’est principalement attachée à adapter le «Fond pour l’Environnement Mondial - FED», créé depuis 1991 par la banque mondiale, et deux agences techniques des Nations Unies : le PNUE pour l’environnement et le PNUD pour le développement, pour aider les pays en voie de développement à mieux s’adapter au changement climatique. Le fond sera également utilisé pour le renforcement des capacités de transfert technologique du Nord vers le SUD.
La COP 10 à Buenos Aires en décembre 2004 s’est penchée sur les dimensions éthiques du changement climatique et a analysé les progrès accomplis depuis la première Conférence des Parties près de 10 ans plus tôt à Berlin. La COP 10 s’est aussi intéressée à la double question de l’atténuation et de l’adaptation aux changements climatiques. Un plan d’action, «Buenos Aires Action Plan», pour aider les pays en voie de développement à faire face à ces problèmes d’atténuation et d’adaptation, a été mis en place. Les délégués ont également commencé à discuter des mécanismes de répartition des réductions d’émission de gaz à effet de serre du post-Kyoto, lorsque, après 2012, les engagements du protocole de Kyoto seront devenus caduques.
La COP 11 et la MOP à Montréal en décembre 2005 réunirent une COP et la première «MOP 1 - Meeting Of Parties» du protocole de Kyoto qui venait d’être entré en vigueur le 16 février 2005. C’est cette première réunion des «Parties» du protocole de Kyoto enfin en action qui donne une importance particulière à ce rassemblement de Montréal dont le sigle officiel devient : COP 11/MOP 1. Ce fut une conférence gigantesque qui battit tous les records de participation avec plus de 10 000 délégués et une couverture médiatique considérable. Le principal résultat commun aux deux conférences, ainsi jointes pour l’occasion, est inclus dans un document appelé le «Processus de Montréal». Il indique les pistes possibles de recherche pour de nouveaux accords pour la période post 2012, date de la fin des accords du protocole de Kyoto. A l’époque où le protocole de Kyoto avait été conclu, les négociateurs pensaient que les engagements post Kyoto (après 2012) se placeraient dans le prolongement des engagements de Kyoto. Mais en 2005, lorsque l’on commença à penser à la période post Kyoto, la situation internationale et le monde en général avait changé vis-à-vis de ce qu’ils étaient en 1997 lorsque avait été lancé le protocole de Kyoto. Il était donc essentiel de se remettre au travail dès 2005 pour penser et construire de nouveaux accords, plus ambitieux, tenant compte de l’avancée des connaissances synthétisées dans le troisième rapport du GIEC et en profitant de l’expérience des difficultés, finalement surmontées, de la mise en route du protocole de Kyoto.
La COP 12/MOP 2 à Nairobi en novembre 2006 fut marquée par des communiqués de presse assez désobligeants à l’égard de certains congressistes qualifiés de «touristes climatiques», dont le train de vie lié aux indemnités de mission et aux coûts des déplacements, coûts à la fois financiers et écologiques en terme d’émission de carbone, fut jugé exorbitant par certains au regard des restrictions et des problèmes des pays pauvres dont ces congressistes débattaient. La conférence prit ces remarques en compte et s’engagea à réduire ses frais de fonctionnement. Néanmoins, au-delà de ces polémiques et à l’issue des débats, des progrès furent enregistrés dans les domaines du soutien aux pays en développement et dans les mécanismes favorisant un développement propre. Ces résultats cependant n’effacèrent pas totalement un certain malaise, suscité par les critiques de certains journalistes mentionnées plus haut et les photos publiées dans la presse locale montrant des milliers de congressistes au travail mais aussi s’égaillant dans les parcs animaliers du Kenya.
La COP 13/MOP 3 à Bali en décembre 2007 a eu pour principal résultat un accord des participants sur un calendrier de négociations pour la période post-2012 (fin de la première période d’engagement du protocole de Kyoto). Un nouvel organe subsidiaire a été créé pour mener à bien de toute urgence les négociations destinées à renforcer la mise en œuvre de la Convention-cadre au-delà de 2012. Ces négociations se poursuivront en 2008 et jusqu’à la Conférence des Parties de Copenhague en décembre 2009 qui s’avère être une date clé pour la mise au point d’un accord prolongeant et/ou se substituant au protocole de Kyoto au-delà de 2012.
La COP 14/MOP 4 à Poznan en décembre 2008 a obtenu peu de résultats. La conférence a été dominée par les négociations en cours pour le post-2012. La préparation de la prochaine COP 15/MOP 5 à Copenhague en décembre 2009, accapare les esprits. Cependant les délégués se sont mis d’accord sur les modalités de financement d’un fond spécial destiné au soutien des nations les plus pauvres. Par ailleurs un projet a été approuvé pour incorporer la protection des forêts dans les différents mécanismes déjà en mis œuvre par la communauté internationale pour lutter contre le changement climatique.
La COP 15/MOP 5 à Copenhague en décembre 2009, qui avait suscité tous les espoirs, se solda par un grand désappointement. Son objectif était de renégocier un accord international sur le climat remplaçant ou prolongeant le protocole de Kyoto qui arrivait à son terme en décembre 2012. Les 192 pays ayant ratifié cette convention-cadre sur le changement climatique étaient présents. Depuis plusieurs années et au cours des précédentes réunions des COP la suite du protocole de Kyoto après 2012 était dans tous les esprits. Des groupes de travail avaient été mis sur pied pour préparer cette échéance et élaborer des textes qui seraient soumis aux délégués de la conférence de Copenhague de 2009.
Il y eut plusieurs réunions préparatoires de ces groupes de travail, au cours de l’année 2009 :
En juin le «groupe de travail ad hoc du protocole de Kyoto, AWG-KP» chargé des négociations sur les objectifs de réduction des émissions s’est réuni à Bonn sans résultat tangible ni sur un objectif global de réduction des émissions ni sur des objectifs individuels pour chaque pays. Le groupe de travail s’en est remis à la conférence de Copenhague elle-même pour éventuellement trouver une issue.
En septembre le «groupe de travail ad hoc sur la coopération à long terme, AWG-LCA», chargé de tracer des perspectives pour des accords futurs dans le but de maîtriser le changement climatique en fonction de son évolution et des connaissances scientifiques que l’on en aura (fournies, entre autre, par le GIEC), s’est réuni à Bangkok, puis à Barcelone sans résultats concrets. Pourtant certains pays étaient venus avec des chiffres de réduction d’émission sur lesquels ils étaient prêts à s’engager sous certaines conditions, principalement celle qu’un accord contraignant se dégage de la conférence, ce qui ne fut pas le cas.
L’organisation et le déroulement de la conférence fut «chaotique» aux dires de certains. La tâche était peut-être démesurée pour plusieurs raisons :
Des dizaines de milliers de participants à des titres divers : représentants nationaux, journalistes, ONG, scientifiques et au final, chefs d’États.
L’échec des travaux préparatoires et l'absence d’accord préalable sur les points essentiels a aussi pesé.
Les objectifs étaient peut-être démesurément ambitieux et une certaine naïveté, ou légèreté, de certains responsables et organisateurs - démission en cours de travaux de la présidente danoise de la conférence, par ailleurs ministre de l’environnement de son pays – a aussi compliqué les choses au regard des enjeux du «premier accord réellement mondial» selon le secrétaire général de l’ONU.
La première semaine fut consacrée à la prise de parole des nombreux participants représentant, à des titres divers : leur pays, des organisations gouvernementales, intergouvernementales et non gouvernementales.
Les derniers jours, à partir du 16 décembre, devaient être consacrés à la négociation finale des textes de l’accord devant être soumis aux chefs d’États dont l’arrivée était prévue le 18 décembre. En principe l’intervention des chefs d’États devait se limiter à quelques ajustements de détail sur les accords, la raison de leur rassemblement à Copenhague ce jour là étant la signature de ces accords, assortis de leurs discours de clôture. Mais les choses ne se déroulèrent pas comme prévu, le 18 décembre aucun texte n’avait réussi à obtenir un accord même seulement majoritaire, des groupes de pays poursuivaient leurs affrontements et une certaine nervosité commençait à s’emparer des délégués. On parla de situation «confuse», voire «désespérée» ; un vent de pessimisme et d’échec souffla sur l’assemblée. Cependant, pour beaucoup de participants il fallait tout faire pour sortir de cette impasse et certains délégués s’y employèrent loyalement au-delà de l’heure prévue, 18 heures, pour la fin régulière de la conférence. Les débats se prolongèrent ainsi durant la soirée qui suivit, et au cours de la nuit, un texte se limitant à des intentions peu ambitieuses et très imprécises fut soumis à l’approbation de la trentaine de délégués représentants leur pays, encore présents à cette heure. Une nouvelle difficulté fut surmontée de justesse : pour être valide le texte nécessitait l’unanimité des pays présents lors de son élaboration. Mais quel est le contenu et la portée de ce texte ? L’objectif général souhaité était d’arriver à un accord réduisant les émissions de gaz à effet de serre des pays développés de moitié en 2050 par rapport à ce qu’elles étaient en 1990. Ces chiffres, concernant les mesures à prendre en terme de limitation d’émissions, étaient issus de calculs proposés par les scientifiques, et confirmés par le GIEC, pour satisfaire la demande sociale de ne pas dépasser un seuil de réchauffement moyen de la planète en 2100 de 2°C par rapport à ce qu’il était à l’aube de l’ère industrielle, vers 1850. Ce qui était également souhaité et espéré tenait à des engagements de réductions des émissions par pays, certes négociés mais relevant d’accords juridiquement contraignants. Enfin des engagements de soutien et d’aménagements financiers à l’égard des pays en développement, pour leur permettre de s’engager dans ces accords de restriction d’émissions de carbone, faisaient également partie du catalogue des souhaits des plus optimistes. Presque aucun de ces objectifs n’a été atteint ni n’est inclus dans le texte signé dans la nuit du 18 au 19 décembre. Ce texte est une simple déclaration d’intention qualifiée d’ «accord» dans laquelle aucun objectif quantitatif de réduction des émissions de gaz à effet de serre n’est inscrit. L’«accord» renvoie à une annexe ouverte où les pays peuvent déclarer des chiffres précis d’intentions de réduction d’émission. Sur le plan financier on en reste également au stade des promesses avec, jusqu’en 2012, 10 milliards de dollars par an à verser à un «fond vert pour le climat» en principe destiné à aider les pays en voie de développement. D’ici 2020, l’«accord» vise 70 milliards de dollars d’aide annuelle. Et après 2020 les pays riches devraient contribuer à ces financements à hauteur de 100 milliards de Dollars par an.
La COP 16/MOP 6 appelée maintenant CMP 6, pour «6ème Conférence Meeting of the Parties» s’est tenue à Cancun en décembre 2010. Après l’échec cuisant de la conférence de Copenhague, cette conférence de Cancún avait des ambitions limitées et raisonnables. Plusieurs sessions de préparation des négociations de Cancún s’étaient tenues au cours de l’année 2010 notamment à Bonn en Allemagne et à Tiendjin en Chine. Ces sessions préparatoires furent des échecs partiels notamment la dernière à Tiendjin qui se solda par une rupture entre la Chine et les USA. Cette conférence de Cancún ne s’annonçait donc pas sous les meilleurs auspices bien que le Secrétaire Général des Nations Unies, Ban Ki-moon, ait ouvert la voie à une nouvelle approche des États membres pour parvenir à un accord ; à savoir, plutôt que de rechercher un accord global par le haut, le Secrétaire Général des Nations Unies proposa que l’on commence par ce qui est faisable et rentable individuellement pour chaque pays. En fait la conférence de Cancún fut un demi-succès.
Coté succès, elle donna partiellement corps à des engagements restés jusqu’ici non chiffrés, sans accords signés, ni contraintes, et qui étaient issus de la précédente conférence de Copenhague. Parmi ces avancées notons le «Fond vert mondial» permettant aux pays en développement d’engager des actions d’adaptation au changement climatique à l’aide de contributions financières substantielles obtenues des pays développés. Une autre avancée concerne la mise au point d’un processus destiné à endiguer l’exploitation forestière opérée par les pays en voie de développement en les aidant financièrement à mettre en œuvre des actions d’atténuation dans la gestion de leur secteur forestier.
Le coté négatif de cette conférence a été marqué par l’impuissance des pays à mettre en place la poursuite ou le remplacement du protocole de Kyoto, au-delà de sa fin normale en 2012, par un nouveau protocole plus contraignant pour les pays développés. La perspective de limiter les émissions pour contenir le réchauffement moyen dans une limite de température inférieure à 2°C a été jugée d’ores et déjà comme difficilement accessible. Notons cependant qu’au-delà de l’expression de profonds désaccords entre pays développés et pays en voie de développement, la conférence de Cancún a atteint un accord global a minima qui a été ratifié par tous les pays participants à l’exception de la Bolivie. Cet accord réaffirme que le changement climatique représente une menace urgente et potentiellement irréversible pour l’ensemble de l’espèce humaine et qui doit être prise en considération par l’ensemble des parties en présence. Cet accord marque une avancée incontestable bien que l’avenir du protocole post-Kyoto soit renvoyé au prochain sommet de Durban en décembre 2012.
La COP 17/CMP 7 s’est tenu à Durban en Afrique du Sud du 28 novembre au 9 décembre 2011. La conférence de Durban s’est ouverte dans une atmosphère d’optimisme mitigé. La mise en place d’un accord faisant suite au protocole de Kyoto semble encore lointain bien que des progrès aient été enregistrés au cours de la conférence précédente de Cancun(COP 16/MOP 6) en décembre 2010. Mais Cancun avait été marqué avant tout par l’abandon provisoire d’un accord global au sommet au profit d’accords locaux par secteurs et d’actions à la carte non contraignantes, chaque pays décidant de sa contribution. Cancun fut le basculement d’une approche «top-down» vers une approche «Bottom-up» chaque pays décidant de ce qu’il mettait sur la table. L’Union Européenne, convaincue qu’une telle attitude mettait en péril le protocole de Kyoto et sa suite ainsi que l’objectif de limiter le réchauffement global moyen à seulement 2°C pour la fin du XXIème siècle, a voulu réagir contre cette orientation stratégique nouvelle. D’un commun accord les 27 pays qui composent l’Union Européenne avaient décidé de replacer la question de l’avenir du protocole de Kyoto au centre des débats avec comme objectif d’atteindre un accord a minima pour une majorité des 193 pays présents à Durban susceptible de donner une suite ou de remplacer le protocole de Kyoto qui arrivait à échéance en décembre 2012. Pendant les deux semaines de la conférence les discussions furent très vives et les oppositions blocs à blocs : Europe, États Unis, pays émergents (Chine, Brésil, Afrique du sud), pays pauvres, semblaient irréductibles jusqu’au dernier jour, le vendredi 9 décembre, où la salle plénière de la conférence commença à se vider, les congressistes cherchant à attraper au plus vite leur avion, sans qu’aucun accord ne soit discuté et n’ait été approuvé. Le pire semblait inévitable lorsque la présidente de la conférence, Maite Nkoana-Mashaban, ministre sud-africaine des affaires étrangères, décida de poursuivre les discussions durant le week end avec les délégués encore présents et de tenter de trouver coûte que coûte un accord exprimable par un texte. C’est à la suite d’un marathon de plus de 60 heures de discussions incluant le samedi, la nuit qui suivit et le dimanche qu’un accord engageant une partie des 193 pays participants fut finalement atteint. Cet accord n’est pas aussi précis ni contraignant que ce que les européens avaient proposé. Néanmoins il trace une stratégie et une feuille de route possible pour les années à venir esquissant une suite au protocole de Kyoto. Mais ce qui est capital c’est que pour la première fois et à l’inverse du protocole de Kyoto, qui n’engageait que les pays riches à l’exception des États Unis et de quelques autres non signataires, cet accord engage un ensemble de pays représentant la diversité des niveaux de développement, y compris certains pays riches non signataires du protocole de Kyoto comme les États Unis, le Japon, la Russie, mais aussi des pays émergents comme la Chine et l’Inde. L’accord, dénommé «Plateforme de Durban», stipule que les termes d’un nouveau traité doivent être définis pour 2015 et entrer en vigueur en 2020. L’accord précise également qu’à la fin (décembre 2012) du protocole de Kyoto, celui-ci doit assurer l’ intérim jusqu’au nouveau traité en 2020. Enfin la conférence de Durban a fait avancer le «fond vert pour le climat» destiné à aider les pays en développement à s’adapter au changement climatique par une dotation des pays riches en argent et en transfert de technologies, s’élevant à 100 milliards de dollars par an. Des mécanismes destinés à abonder et gérer ces fonds ont été discutés et mis au point sans que les «payeurs» aient été formellement identifiés, le fond étant prévu pour être effectivement distribué seulement en 2020.
La COP 18/CMP 8 s’est tenu à Doha au Qatar du 26 novembre au 7 décembre 2012. Cette conférence de Doha était très attendue car elle devait, coûte que coûte, donner une suite au protocole de Kyoto dont la première phase allait se terminer officiellement le 31 décembre 2012, une vingtaine de jours seulement après la fin de cette réunion. En fait la conférence de Doha avait deux objectifs principaux :
prolonger le protocole de Kyoto (Kyoto 1) au-delà du 31 décembre pour une deuxième période d’engagement (Kyoto 2)
amorcer les négociations devant donner un contenu à la «Plateforme de Durban» mise en place au cours de la COP 17 en 2011.
Le vide juridique dans lequel on entrait inexorablement après la fin du protocole de Kyoto, appelé maintenant Kyoto 1, le 31 décembre 2012, fut évité de justesse et se traduisit par un engagement a minima sur une prolongation du protocole jusqu’au 31 décembre 2020. Ce texte prolongeant Kyoto 1, appelé Kyoto 2, concerne un groupe de pays industrialisés, incluant les pays de l’Union Européenne, soit seulement 15 % des émissions de GES. Il est dit que chaque pays impliqué réexaminera ses objectifs chiffrés de réduction des GES au plus tard en 2014. Á coté de ce prolongement du protocole de Kyoto il est fait mention d’un «Accord de Doha» qui reprend la «plateforme de Durban» obtenue au dernier moment lors de la COP de Durban, pour limiter les émissions de GES et maintenir le réchauffement sous la barre des 2°C. Contrairement à Kyoto 1 et 2 ce texte concernerait tous les pays y compris les grands émergents et devrait constituer le socle d’une conférence de l’ONU prévue en 2015 où un accord ayant force juridique devrait être signé pour remplacer le prolongement du protocole de Kyoto, à partir de 2020. Par ailleurs la conférence de Doha, s’est prononcée en faveur de la réparation des dommages causés aux pays du Sud par le réchauffement. Les discussions ont été très vives entre les pays pauvres du Sud, s’estimant victimes des actions du Nord ayant déréglé le climat et ces pays développés du Nord, principalement les États-Unis craignant des actions juridiques en cascade dans les années à venir. «L’accord de Doha» invite les pays développés à annoncer de nouvelles aides aux pays du Sud lorsque les circonstances financières (la crise) le permettront. L’objectif est de mobiliser pour le Sud des fonds atteignant 100 milliards de dollars par an d’ici 2020 !
La COP 19/CMP 9 qui s’est tenue à Varsovie en Pologne du 11 au 23 novembre 2013, a été une COP de transition principalement destinée à préparer la COP de Paris qui se tiendra en novembre, décembre 2015 et qui doit accoucher d’un accord, juridiquement contraignant, prenant la suite du protocole de Kyoto à partir de 2020, et spécifiant les engagements individuels chiffrés de chaque pays pour leurs émissions de GES. Au-delà de cet objectif central, cette COP de Varsovie s’est déroulé suivant la dramaturgie habituelle de ce type de réunions qui a vu certaines ONG se retirer de la conférence avant sa fin pour protester contre la tenue parallèle d’un «sommet du charbon» jugée provocatrice ; et aussi de l’absence de résultat dans les discussions sur les «financements publics et le fond vert : GCF (Green Climate Fund )» ! Cependant un résultat positif peut être mis au crédit de cette conférence, c’est la reconnaissance du rôle des villes et des régions pour réduire les émissions de GES. C’est une orientation nouvelle qui devra être confirmée et prolongée à la COP de Paris et qui pourrait représenter une approche concrète plus efficace pour maîtriser les émissions. Un participant à cette conférence, élu municipal de Nantes, Ronan Dantec résume bien l’atmosphère et le contenu de cette conférence de Varsovie :
« ….Si les compromis de Varsovie ouvrent la route de Paris, les difficultés restent très nombreuses. Peu d'engagement sur les financements de la part des pays industrialisés, opposition systématique du nouveau gouvernement australien, repli du Japon, fortes réticences des grands émergents à s'engager sur leurs propres réductions d'émissions, lobbyings des industriels du charbon….. Varsovie a aussi mis en scène les opposants et les obstacles à un décor ambitieux. La route pour Paris 2015 reste donc, plus que jamais, pavée d'embûches, mais l'étape piège de la COP polonaise est désormais derrière nous. En trouvant les moyens de créer des dynamiques nouvelles, en mettant en avant les réalisations positives qui se multiplient, en s'appuyant sur la volonté de la société civile, et en faisant mieux le lien avec l'agenda 2015 du développement, très absent à Varsovie, la France peut réussir à trouver à Paris un accord permettant de s'éloigner d'un climato-fatalisme, qui condamnerait le XXIe siècle à un terrible désastre humain….».
La COP 20/CMP 10 se tiendra à Lima au Pérou du 1 au 12 décembre 2014. Elle fera le point sur l’état d’avancement des projets d’accord qui doivent constituer le nouveau protocole à soumettre à la COP 21 à Paris
La COP 21/CMP 11 se tiendra à Paris enFrance du 30 novembre au 11 décembre 2015. Cette COP est particulièrement importante puisqu’elle doit définir le nouvel accord qui prendra la suite du protocole de Kyoto en 2020. Et il y a urgence car pendant ce temps la vie continue : par rapport à 1990 l’année de référence du protocole de Kyoto et 19 COP plus tard les émissions de CO2, loin de diminuer , augmentent toujours ( 56% par rapport à 1990) et de plus en plus (plus 2.6% en 2012 ,….)
Les informations sur ces réunions des COP sont extraites de plusieurs articles de Wikipédia recoupées avec d’autres sources du WEB. Pour une documentation complète, mais volumineuse et difficilement lisible, voir cite.org
Détails
Écrit par : Y. Dandonneau, J.Merle, B. Voituriez
Catégorie : Livre climat, histoire et enjeu
Chapitre X : Le changement climatique : histoire et enjeux
Des énigmes climatiques rapprochent dynamiciens du climat actuel et paleoclimatologues
Jacques Merle, Bruno Voituriez, Yves Dandonneau, Club des Argonautes - Avril 2014
Les résultats obtenus par les glaciologues en Antarctique sur le site du dôme C, où, dès 1978, ils montrèrent dans une carotte atteignant le cœur de la dernière période glaciaire il y a plus de 40 000 ans, que la température et la teneur en CO2 variaient de concert, eurent un grand retentissement parmi la communauté des paléocéanographes.
Les glaciologues étaient en mesure d’apporter des confirmations aux enregistrements de variations climatiques que ces paléocéanographes avaient déjà mises en évidence dans des sédiments marins et continentaux. Les glaciologues souffraient cependant d’un handicap par rapport aux palocéanographes, celui de la faible longueur des séries temporelle de leurs enregistrements, encore très inférieure à celle des carottes de sédiments. Néanmoins, à la fin des années 1970, les deux communautés scientifiques percevant l’intérêt réciproque qu’elles pouvaient retirer de l’observation de deux milieux différents se rapprochèrent et initièrent une collaboration. La combinaison de séries temporelles de données issues de sédiments marins avec celles extraites des glaces accumulées sur les calottes arctique et antarctique était très prometteuse. C’est ce qui motiva les glaciologues dans leur quête effrénée de la glace la plus ancienne possible relatée précédemment.
Mais ce qui contribua aussi et peut-être surtout à rapprocher les deux communautés fut la mise en évidence de surprenants événements climatiques de grande amplitude mais d’évolution très rapide, qui avaient laissé leurs traces à la fois dans les glaces continentales et dans les sédiments du fond des océans.
1- Des oscillations climatiques rapides
1-1 Des événements climatiques surprenants reconnus avec prudence
Au sud du Groenland sur le site dit de «Dye 3», implanté dans les années 1970 par les américains et les Danois, une carotte de glace obtenue en 1981 révéla d’étranges observations. Elle montrait, près du socle rocheux à plus de 2 000 mètres de profondeur correspondant à la dernière époque glaciaire, des réchauffements de grande amplitude atteignant la dizaine de degrés Celsius en quelques dizaines d'années seulement. C’était la première mise en évidence de ce qui fut appelé des «changements climatiques rapides» traduction de «Abrupts climate changes». Il faut cependant dire que ces «curiosités» climatiques très troublantes avaient déjà été remarquées dans le passé et avaient été discutées sans être prises au sérieux. Des changements climatiques aussi rapides étaient en contradiction avec la conception commune des climatologues qui pensaient que les changements climatiques ne pouvaient être que graduels et lents comme ceux de notre climat actuel, considéré comme stable depuis plus de 5 000 ans.
Cependant les glaciologues se penchèrent sur ces étranges observations car ils étaient préoccupés par la possibilité d’artefacts susceptibles d’affecter la chronologie des enregistrements par des phénomènes de «fluage» de la glace lorsque qu’on approchait du socle rocheux. L’éventualité de ces fluages, mélangeant les couches de glace en perturbant la chronologie, représentait une crainte permanente.
Dans un premier temps ces observations de «Dye 3» ont été effectivement mises sur le compte de ces glissements dans les strates de glace. Les glaciologues durent cependant se rendre à l’évidence et admettre qu’il y avait bien de réelles oscillations climatiques rapides car leurs observations confrontées à celles des américains de «Camp Century» à 1 400 kilomètres de là montraient des oscillations semblables et en cohérence avec celles qu’ils observaient à «Dye 3».
En fait dans un premier temps des variations rapides de température avaient bien été repérées à «Camp Century» mais sans que ces fluctuations insolites n’attirent l’attention car la suspicion du fluage venait immédiatement à l’esprit. Mais une ré-analyse minutieuse des enregistrements de la carotte de «Camp Century» par les américains fut sans appel.
Presque tous les évènements rapides recensés dans «Dye 3» se retrouvaient bien dans le forage de «Camp Century» à plus d’un millier de kilomètres de là. Cette cohérence des observations de température en deux points du Groenland aussi éloignés rendait improbable un artefact dû au fluage et levait définitivement le doute sur la réalité de ces oscillations climatiques.
1-2 Willy Dansgaard et Hans Oescher donnent leurs noms à ces événements climatiques rapides
En fait les évènements climatiques rapides des forages de «Dye 3» et de «Camp century» ne faisaient que confirmer des indices antérieurs de changements climatiques rapides qui étaient apparus dans des observations de débris végétaux et d’animaux divers : pollens, coquilles de foraminifères, restes d’insectes,…etc. conservés dans des tourbières et des lacs de Scandinavie.
Ces débris indiquaient qu’un refroidissement très prononcé s’était produit brusquement à la fin de la dernière époque glaciaire il y a environ 12 000 ans ; Il a duré à peine un millénaire et fut appelé le «Dryas récent» ou «Younger Dryas». Willy Dansgaard qui s’intéressait à cet accident climatique surprenant et tentait d’en retrouver des traces plus lisibles et plus détaillées dans le forage réalisé en 1969 à «Camp Century» avait déjà repéré une succession d’événements chauds qui émaillaient la période glaciaire et le début de la déglaciation jusqu’au refroidissement brutal du Younger Dryas. Ces oscillations l’intriguaient et il les avait signalées sans toutefois les étudier en détail. C’est en référence à ce travail pionnier antérieur à la confirmation de l’existence réelle de ces oscillations rapides à «Dye 3» et à «Camp century» que Wally Broecker, le célèbre géochimiste et océanographe américain, proposa le nom de Dansgaard pour désigner ces oscillations, qui furent ensuite appelées : «événements de Dansgaard-Oeschger».Hans Oeschger mérita le rattachement de son nom à ces évènements en montrant que ces accidents climatiques existaient aussi sur le continent européen. Il mit en évidence une cohérence remarquable d’événements rapides, qu’il avait observés dans les enregistrements sédimentaires d’un lac suisse, avec ceux obtenus dans la glace du site de «Dye 3 » au sud du Groenland. Dès lors il était définitivement démontré que ces oscillations rapides, y comprit la remontée brutale des températures qui marque la fin du «Younger-Dryas», étaient bien réelles et avaient un caractère régional affectant non seulement le Groenland mais aussi l’ensemble de l’Europe du nord-ouest.
Mais quelles pouvaient être les causes de ces si surprenantes oscillations susceptibles de faire varier la température moyenne de l’Atlantique nord, Europe et Amérique inclus, de près de 10°C en quelques décennies ?
1-3 La circulation océanique offre une explication
C’est dans la recherche d’explications à ces oscillations que paradoxalement le couple scientifique Willy Dansgaart et Hans Oeschger divergea.
En effet, une première explication fut formulée par Willy Dansgaard et son équipe dans la ligne de pensée de l’école de météorologie danoise. Les danois attribuèrent ces changements thermiques brutaux à des instabilités météorologiques qui auraient fait osciller la circulation atmosphérique générale entre deux états stables affectant l’ensemble de l’hémisphère nord.
Mais cette hypothèse d’une origine atmosphérique donnée à ces événements fut immédiatement combattue par l’équipe de Hans Oeschger qui s’associa aux idées plus révolutionnaires de Broecker pour privilégier plutôt un mécanisme d’origine océanique plus à même d’expliquer des oscillations thermiques présentes à la fois dans la glace et les sédiments marins plutôt qu’en passant par l’atmosphère. Pour Broecker et ses partisans, dont Oeschger, la circulation océanique devait être la cause première de ces phénomènes bien avant la circulation atmosphérique qui n’en devenait qu’une conséquence ; c’est en privilégiant l’océan que son idée, exprimée dès 1985, était révolutionnaire. Pour lui les mécanismes océaniques devaient primer sur ceux de l’atmosphère dans le domaine climatique, ce qui à l’époque était loin d’être admis par tous. On a déjà évoqué (Chapitre IX) le modèle climatique de Berger qui, en 1988, simula la cellule de circulation méridienne de l’Atlantique nord (MOC – Meridional Overturning Circulation) et son évolution au cours du dernier maximum glaciaire il y a 18 000 ans. Ce modèle reprenait en fait le schéma de Wallace Broecker qui faisait l’hypothèse que le transport méridien de chaleur dans l’Atlantique nord, indispensable pour garantir l’équilibre énergétique de la planète, nécessitait un retour en profondeur des masses d’eaux froides formées dans des zones de convection bien localisées dans l’Atlantique nord, notamment en mer de Norvège et au sud du Groenland. Dans ces régions les eaux relativement chaudes et salées du Gulf Stream et de la dérive nord-Atlantique plongeaient dans les profondeurs après s’être refroidies et densifiées. C’est le fameux «conveyor belt» que Broecker a popularisé auprès des media en montrant le rôle clé que ce phénomène joue dans la circulation océanique.
Wallace Broecker alla plus loin, il suggéra qu’il existait une relation entre le «Conveyor belt» et les oscillations climatiques rapides enregistrées dans les glaces du Groenland et les sédiments marins voisins. Pour Broecker, en période glaciaire, la plongée des eaux de surface et la convection profonde dans l’Atlantique nord étaient stoppés, à la différence de ce que l’on observe dans les interglaciaires chauds tel que celui que nous vivons aujourd’hui. Ainsi la circulation océanique de l’Atlantique nord oscillait aussi entre deux états stables, l’un correspondant aux périodes glaciaires avec absence de plongée d’eaux froides et ralentissement de la circulation méridienne, et l’autre correspondant à des plongées d’eaux froides hivernales importantes et à une circulation méridienne intense, amenant la chaleur des tropiques dans les régions tempérées et polaires comme aujourd’hui. Toujours selon Broecker on pouvait passer brutalement d’un mode à l’autre à la suite d’une excitation mineure qui pouvait être, en période chaude par exemple, l’arrivée massive d’eaux superficielles moins salées, et donc plus légères, conséquence de la fonte rapide de glaciers. Ces eaux, trop légères pour plonger, restaient alors en surface, ce qui désamorcerait la convection profonde stoppant ainsi la circulation méridienne. L’alimentation en eaux chaudes des régions nordiques par le Gulf Stream et son prolongement la dérive nord-Atlantique ne se faisant plus, on initiait ainsi brutalement un épisode froid. Ces hypothèses explicatives de Broecker, associant remarquablement bien plusieurs pièces du puzzle : glaciologie, paléoclimatologie, océanographie, ont jouit d’un fort soutien populaire et médiatique ; un film catastrophe : «Le jour d’après» paru en 2004 sur le thème d’une glaciation subite des grandes métropoles américaines et européennes du Nord eut beaucoup de succès !
2- Vraies et fausses oscillations climatiques rapides
Mais les événements rapides de Dansgaard-Oeschger, bien que majoritairement reconnus comme l’expression de phénomènes réels, ont suscité encore longtemps un scepticisme persistant, difficile à dissiper dans l’esprit de certains climatologues car certaines observations ne collaient pas ou étaient difficiles à interpréter par ces schémas ; de même la question du fluage de la glace près du socle tourmentait encore certains, à juste titre d’ailleurs comme on le verra plus loin. Parmi les observations qui restaient inexpliquées, il y avait des variations de teneurs en CO2 accompagnant ces brusques réchauffements et refroidissements (comme le Dryasrécent) qui ne s’expliquaient pas au regard de la relation température-teneur en CO2. Il s’avéra en fait, en les comparant aux teneurs de l’air très pur de l’Antarctique aux mêmes périodes, que des teneurs élevées en CO2 lors des périodes froides étaient un artefact lié à la présence d’impuretés contenues dans la glace et donc ne remettaient pas en cause la réalité de ces oscillations. Mais pour en avoir le cœur net et pour stopper définitivement les polémiques résiduelles sur la réalité de ces événements de Dansgaard-Oeschger , les Américains et les Européens décidèrent de s’associer en forant la glace du sud du Groenland. Ce furent les projets GRIP et GISP 2, respectivement européen et américain, déjà présentés Chapitre VII , qui avaient l’avantage d’offrir une résolution temporelle élevée car c’était une région de forte accumulation. On pouvait ainsi détecter le cycle annuel dans les mesures de conductivité électrique de la glace (La conductivité dépend du taux d’impuretés déposées par les vents). Un taux d’impuretés élevé, caractéristique de la saison hivernale plus froide avec des vents forts, était marqué par des mesures de résistivité basses. Les enregistrements de résistivité le long de la carotte étaient donc d’excellents marqueurs des événements chauds de Dansgaard-Oeschger.
On a vu que si les américains et les Européens se sont bien entendus sur l’objectif de leur projet commun, ils ont rapidement divergé sur les priorités d’utilisation de la glace pour leurs programmes scientifiques respectifs. C’est ce qui explique qu’ils réalisèrent en fait deux forages, un européen, GRIP, et un américain, GISP 2, distants d’une trentaine de kilomètres. Cette mésentente qui conduisait à ce qui aurait pu apparaître comme un doublon inutile et donner une mauvaise image de la science dominée par des conflits de scientifiques, s’avéra être, au contraire, un facteur positif pour l’entreprise commune. Les forages commencèrent en 1990, se terminèrent en 1992 pour les européens, et un an plus tard, en 1993, pour les américains. Les séquences chaudes de Dansgaard-Oeschger, caractéristiques de la dernière période glaciaire jusqu’au Younger Dryas, étaient bien apparentes dans les deux forages, avec la même résolution et la même chronologie, ce qui confirmait bien leur réalité et répondait à l’objectif principal de cette opération scientifique commune. Mais il en allait différemment pour les glaces plus anciennes. Ces plus vieilles glaces, qui correspondaient à la précédente période chaude de l’Eémien, il y a plus de 110 000 ans, furent atteintes par le forage européen GRIP avant celui des américains. Les enregistrements du forage européen montraient, au cœur de ce précédent interglaciaire chaud, semblable à notre climat actuel, de stupéfiantes oscillations froides, d’amplitudes encore jamais vues jusqu’ici,- voisines de 10°C à 14°C - pendant de très courtes périodes, longues de seulement quelques décennies. Ces observations, très étonnantes, suggéraient que le climat chaud de cet Eémien que l’on croyait stable à l’image de notre climat actuel, était au contraire très agité, et avait pu basculer en quelques années d’un climat chaud à des conditions glaciaires. Une précipitation coupable des européens les conduisit à interpréter faussement ces résultats et à les prendre pour des événements symétriques et inversés des oscillations de Dansgaard-Oeschger qui se dérouleraient au cours des interglaciaires chauds. La publication de ces résultats erronés dans la revue scientifique «Nature» jeta un certain discrédit sur ces deux programmes, GRIP et GISP2, dont l’objectif principal était exactement inverse : crédibiliser définitivement les oscillations de Dansgaard-Oeschger. Mais heureusement la comparaison ultérieure plus détaillée de l’enregistrement européen de GRIP avec celui de son voisin GISP2 des américains permit de déceler rapidement que la chronologie du forage européen était perturbée par des phénomènes de fluage à proximité du socle rocheux, et que les refroidissements détectés à l’Eémien étaient en fait des artefacts de ces fluages. Ces erreurs d’interprétation purent être corrigées rapidement. En fait ces erreurs ainsi que leurs explications et leurs corrections immédiates, furent plutôt bénéfique pour renforcer la crédibilité accordée à ces oscillations rapides, car, tout en étant absentes dans l’Éemien, elles étaient bien présentes à la fin des périodes glaciaires et cohérentes dans leurs détails.
3- D’autres oscillations climatiques de plus basses fréquences
3-1 Les oscillations de Heinrich
La dernière période glaciaire du quaternaire qui a duré une cinquantaine de millénaires n’a pas toujours été affectée par un froid permanent aussi intense que son dernier paroxysme il y a 18 000 ans. Au delà des oscillations de hautes fréquences- quelques décennies -et de grande amplitude- une dizaine de °C – (d’après Lorius, Jouzel et Raynaud dans «Planète blanche» elle pourrait atteindre 16°C !) de «Dansgaard-Oeschger», cette période glaciaire n’a pas été parfaitement stable et des variations climatiques de plus basses fréquences -quelques millénaires- ont été observées.
Un sédimentologue allemand, Hartmut Heinrich, a analysé une carotte de sédiments couvrant la dernière période glaciaire depuis environ 70 000 ans, prélevée au large des Açores. Il a mis en évidence dans ces sédiments six couches bien individualisées se distinguant nettement des argiles environnantes. Ces strates contenaient des débris de roches riches en quartz, alors que les coquilles de foraminifères présentes dans les argiles y étaient presque inexistantes. D’autres carottes sédimentaires furent prélevées plus au nord, entre 40° N et 50° N, de Terre Neuve au Golfe de Gascogne, par des sédimentologues américains. Ils confirmèrent l’existence de ces couches qui avaient donc un caractère régional à l’échelle de l’ensemble de l’Atlantique nord. Heinrich émit l’hypothèse que ces couches de débris résultaient de la fonte massive d’icebergs. On appela dès lors ces événements climatiques «événements de Heinrich». Ultérieurement des analyses stratigraphiques approfondies montrèrent que ces six couches avaient une durée semblable, comprise entre 1 000 et 2 000 ans, et une fréquence d’apparition régulière d’environ 7 000 ans ne correspondant à aucune des fréquences connues de processus physiques externes susceptibles d’exciter une variation climatique à cette période, notamment ceux d’origine astronomique.
Quelle pouvait être l’origine de ces oscillations ?
Des analyses du rapport isotopique 18O/16O de ces fines strates sédimentaires montrèrent qu’elles correspondaient à la fonte de 2% de la totalité de la glace recouvrant l’Europe et l’Amérique du nord, ce qui devait s’accompagner d’une remontée du niveau moyen de l’océan d’environ 2 à 3 mètres, dont on a effectivement observé les traces. De telles variations du volume de glace devaient avoir aussi des conséquences importantes sur la circulation océanique et sur le fonctionnement de la MOC, le «tapis roulant» méridien et donc influencer globalement le climat.
Mais comment expliquer ces débâcles soudaines d’icebergs et leur régularité puisqu’il n’y avait pas de causes externes identifiées ?
Il fallut chercher une explication dans les mécanismes propres de la dynamique de la glace. Un scénario avancé par les glaciologues familiers de la dynamique des glaciers a rapidement suscité l’adhésion d’une majorité de climatologues. Les glaciers continentaux, comme ceux du Groenland ou de l’Antarctique, croissent surtout à leurs extrémités car c’est près des régions côtières que les précipitations de neige sont les plus abondantes. Il en résulte alors un épaississement de ces calottes à leur périphérie gagnant sur la mer et formant ainsi une structure instable. Des glissements peuvent se produire brusquement lorsque des valeurs critiques d’instabilité sont atteintes, libérant des icebergs en masse. La débâcle se propage alors de proche en proche tout le long de la périphérie du dôme glaciaire, ce qui explique le caractère régional et global du phénomène affectant presque en même temps l’ensemble de l’Atlantique nord (De tels phénomènes sont observés aujourd’hui à la périphérie du glacier Antarctique) . Il restait encore une question à laquelle les paléoclimatologues, les paléocéanographes et les glaciologues devaient répondre.
Ces oscillations de «Heinrich» ont-elles des conséquences climatiques sur l’Atlantique nord et quelles sont- elles ?
Chaque événement de «Heinrich», du fait de la fonte de nombreux icebergs, s’accompagne d’une injection massive d’eau douce à la surface de l’océan Atlantique nord. Ces eaux dessalées, bien que froides puisqu’elles proviennent de la fonte des glaciers, sont plus légères que les eaux immédiatement sous-jacentes ordinairement présentes dans la région. Il en résulte, comme on l’a vu précédemment, une stratification accrue et un ralentissement, voire un arrêt complet, de la convection, ce mécanisme qui normalement fait plonger les eaux de surface dans les abysses, amorçant ainsi la circulation méridienne du «tapis roulant». L’affaiblissement et le ralentissement du «tapis roulant» amène moins de chaleur tropicale dans l’atlantique nord, ce qui explique le refroidissement caractéristique de ces épisodes de «Heinrich», avec une avancée de 500 kilomètres vers le sud des eaux polaires et des glaces de mer hivernales. Ce refroidissement est tel qu’il affecte l’ensemble de l’hémisphère nord, y compris l’océan Pacifique et la côte ouest américaine jusqu’en Californie. Mais tout a une fin ; lorsque les icebergs ont fondu, la limite des eaux froides polaires remonte. Les eaux plus chaudes qui les remplacent favorisent l’évaporation, ce qui a pour effet de les saler et de les densifier, facilitant leur plongée dans les profondeurs et réactivant ainsi le «tapis roulant» qui conduit au retour vers une période plus chaude marquant ainsi la fin d’un cycle de Heinrich».
3-2 Glaciologues et paléocéanographes convergent sur l’Atlantique
Les oscillations de «Heinrich» observées dans les sédiments marins et revenant tous les 7 000 ans en moyenne, ne sont pas totalement indépendantes des oscillations, plus rapides et plus nombreuses, observées dans les glaces du Groenland par Dansgaard et Oechger. Ainsi les disciplines scientifiques des géologues/sédimentologues (encore appelés souvent ici paléocéanographes) et les glaciologues se rejoignent. En dépit des incertitudes sur les datations, il existe une remarquable concordance entre les informations fournies par les enregistrements sédimentaires marins et les glaces polaires. Les scientifiques des deux communautés reconnaissaient que les événements de «Heinrich» correspondaient bien aux périodes les plus froides enregistrées dans les glaces du Groenland. Et les événements de «Dansgaard-Oeshger coïncidaient aussi avec les épisodes terminaux chauds des oscillations de Heinrich». Cependant les glaciologues, bénéficiant au début d’une meilleure résolution temporelle, avaient dénombré plus d’oscillations climatiques dans la glace que les sédimentologues n’en avaient trouvé sur le fond de l’océan. Il fallut que ceux-ci analysent plus en détail leurs enregistrements sédimentaires pour retrouver effectivement des réchauffements rapides qui leur avaient préalablement échappé et qui correspondaient bien aux événements rapides de «Dansgaard-Oeshger» trouvés dans la glace du Groenland.
4- Paléoclimatologues, et dynamiciens du climat actuel se rejoignent
Ainsi deux communautés scientifiques distinctes : glaciologues et sédimentologues, trouvaient une cohérence presque parfaite entre les deux sources d’informations dont elles disposaient sur les climats passés : la glace et les sédiments marins.
Ces informations concernaient presque exclusivement la dernière glaciation et la déglaciation qui a suivi, mais elles étaient très détaillées et ainsi apportaient une connaissance approfondie des mécanismes fondamentaux responsables des variations climatiques des derniers 70 000 ans. Au cours de la dernière période glaciaire les immenses calottes de glace qui recouvraient les continents de l’Europe du nord et de l’Amérique du nord étaient mécaniquement instables et ne pouvaient grossir que jusqu’à une certaine limite au-delà de laquelle une émission massive d’icebergs déchargeait leur trop plein de glace à leur périphérie. Cette débâcle d’eaux douce ralentissait le circuit méridien de transport de chaleur du «tapis roulant», entraînant un refroidissement généralisé de l’hémisphère nord. Ce refroidissement, qui bouleversait la circulation océanique, se terminait par des poussées de chaleur de hautes fréquences qui hachaient encore plus finement la période de réchauffement. Les paléocéanographes et les glaciologues en ont conclu que, au-delà des lentes variations climatiques liées à l’insolation et à la position de la Terre par rapport au Soleil, la dynamique des calottes glaciaires avait provoqué des fluctuations rapides des circulations océanique et atmosphérique rendant l’hémisphère nord, et en particulier son fuseau Atlantique, climatiquement instable car soumis aux avancées et reculs, de la frontière entre les glaces et la mer libre. Les glaciologues et les paleocéanographes, principalement ceux qui étudient l’état des océans anciens dans les sédiments accumulés sur leur plancher, étaient maintenant réunis sous la bannière commune des paleocéanographes. Restait à rapprocher aussi ces paleoclimatologues des dynamiciens du climat actuel et répondre à des questions générales et immédiates :
Comment, à l’aide de la modélisation, prendre en compte la physique du système climatique actuel dans les données parcellaires et incomplètes des climats passés pour en comprendre leur dynamique ?
Que nous apprennent les climats du passé sur notre climat actuel et son évolution ?
Au cours des années 1990 deux grands programmes internationaux ont été mis sur pied pour tenter de répondre à ces questions.
4-1 Les paléoclimatologues s’organisent : le programme international PAGES
Les avancées impressionnantes réalisées dans la connaissance des climats passés de la Terre au cours des dernières décennies du XXème siècle ont poussé les paléoclimatologues à s’organiser au plan international. Dans le cadre du PIGB (Voir Chapitre VII) dont il est un des volets phares, le programme PAGES «Past Global Change» a le statut d’un grand programme international depuis 1991. Il est le résultat d’une initiative individuelle conjointe des américains, avec les soutiens de la NSF «National Science Foundation» et de la NOAA «National Oceanic and Atmospheric Administration», et du Gouvernement Confédéral Suisse avec l’université de Berne. Par la suite, d’autres pays se joignirent à ce groupe et s’intégrèrent au programme.
Le but de cette coordination internationale des paléoclimatologues est de faire émerger, à travers les débats d’une communauté scientifique étendue, les questions les plus pertinentes pour comprendre l’évolution des climats passés et appréhender plus sûrement l’évolution future de notre climat actuel.
Ces questions s’organisaient autour de plusieurs thèmes :
Quels sont les forçages climatiques dominants et comment ont-ils évolué au cours du temps ?
Comment évoluait régionalement le climat au cours des périodes géologiques passées ?
Comment a évolué au cours du temps l’ensemble du système climatique terrestre composé de l’atmosphère, l’hydrosphère, la cryosphère et la biosphère ?
Enfin comment l’espèce humaine a-t- elle interagi avec l’environnement et le climat au cours de l’holocène ?
Ce faisceau de questions fondamentales est croisé avec les approches propres aux paléo-sciences, à savoir le problème crucial de la chronologie des observations, les possibilités de reconstitutions de paramètres physiques et de leur validation à partir d’observations déduites (proxy data et fonctions de transfert), enfin l’incontournable modélisation ainsi que la gestion des observations dans des banques de données appropriées.
On a vu, que dans le domaine de la glaciologie, avant le programme international PAGES, plusieurs pays, entre autres les USA, le Danemark, la Suisse, et la France, avaient déjà joint leurs efforts depuis plusieurs décennies pour recueillir, échanger et traiter les observations nécessaires à la reconstitution des climats passés. L’une des premières valeurs ajoutées d’un programme international tel que PAGES, bien identifié dans le concert des organisations intergouvernementales, est d’assurer une visibilité plus grande des organismes de recherche et des chercheurs eux-mêmes vis-à-vis de leur gouvernement, facilitant ainsi l’accession aux ressources nécessaires. Mais l’autre bénéfice, plus grand encore, d’un programme international est de faciliter la communication et l’échange entre les communautés scientifiques ; échanges à la fois des idées mais aussi de données, susceptibles de démultiplier la connaissance.
Enfin cette capacité d’échange de résultats émanant d’une communauté scientifique organisée peut aussi permettre de toucher et d’alerter les disciplines scientifiques connexes et ainsi de croiser ses résultats avec ceux de ses «voisins scientifiques». C’est ce qui s’est produit pour les disciplines de la paléoclimatologie, formalisée par un groupe mixte commun entre les paléoclimatologues et les paléocéanographes du programme PAGES associés aux dynamiciens de l’atmosphère et de l’océan du programme CLIVAR. Des pièces essentielles du puzzle climatique se sont ainsi rejointes.
4-2 Un programme dédié à la variabilité du climat : CLIVAR
Le programme international CLIVAR (Climate Variability) a été mis en place en 1995 par le Programme Mondial de Recherche sur le Climat (PMRC/WCRP). CLIVAR est toujours en fonction en 2014 et prolonge les programmes initiaux du PRMC : TOGA, WOCE et GEWEX présentés antérieurement (Voir chapitre VI) et étend leurs objectifs à la variabilité et à la prévisibilité du climat, avec une attention particulière portée sur le rôle du système couplé océan-atmosphère. CLIVAR rassemble toutes les disciplines des sciences de l’environnement terrestre et pas seulement celles de l’atmosphère et de l’océan, qui cependant restent au cœur de la problématique climatique. Des dimensions de recherche nouvelles ont été ajoutées à celles des programmes précédents. Elles concernent principalement la dimension temporelle prise en compte à travers les résultats de la paléoclimatologie terrestre et océanique, et la dimension du monde vivant, principalement océanique, mais aussi continental. Tous les milieux constituant le système climatique : atmosphère, hydrosphère, cryosphère, lithosphère et biosphère, incluant l’action de l’homme, sont pris en compte dans le programme. L’objectif central de CLIVAR est d’étendre la compréhension de la variabilité du climat et sa prédictibilité aux échelles de temps s’étendant de quelques décennies à quelques siècles. Pour cela le programme ambitionne de relier les variations des climats passés au climat actuel en appliquant les connaissances acquises dans la dynamique couplée océan-atmosphère pour comprendre l’évolution des climats passés. Inversement, à travers l’observation des paléoclimats, l’objectif est aussi de mieux comprendre notre climat présent et mieux anticiper son évolution future. Une telle ambition nécessite en premier de rassembler et de ré-analyser l’ensemble des observations passées et, plus particulièrement, les données issues de la paléoclimatologie. Ensuite l’accent doit être mis sur le développement de modèles couplés, non seulement entre l’atmosphère et l’océan comme dans les programmes précédents, mais en y incluant aussi les surfaces englacées, les sols et leur couverture végétale, la vie et plus particulièrement le premier étage de la chaîne du vivant océanique : le phytoplancton. Enfin, CLIVAR doit contribuer à promouvoir des systèmes d’observation, de grande échelle, in situ et depuis l’espace, qui soient durables, c’est-à-dire dont la longévité dépasse les quelques années que durent habituellement les programmes de recherche pour devenir permanents, en un mot «opérationnels». De tels systèmes d’observations sont indispensables pour acquérir des séries temporelles d’observations suffisamment longues permettant d’aborder la variabilité naturelle du climat aux échelles temporelles souhaitées - de la décennie au siècle - et de les distinguer du changement climatique anthropique en cours. CLIVAR se déploie sur un ensemble de chantiers d’étude recouvrant les principales régions océaniques et continentales affectées par des phénomènes marquants :
les moussons asiatique et africaine dans les océans tropicaux Indien et Atlantique ;
le phénomène ENSO dans l’océan Pacifique équatorial prolongeant ainsi TOGA ;
le NAO «North Atlantic Oscillation», phénomène météo-océanique qui touche l’Océan Atlantique nord et conditionne la variabilité climatique affectant principalement l’Europe et l’Amérique du nord.
Les brillants résultats obtenus par les paléoclimatologues et les paléocéanographes ont permis aux climatologues et aux océanographes, qui étudient la période actuelle, d’approfondir significativement leurs connaissances des mécanismes générateurs des variations climatiques. Amorcé au cours des années 1990, le rapprochement des disciplines «paléo» avec celles des dynamiciens de l’océan et de l’atmosphère s’est poursuivi au bénéfice réciproque des deux communautés scientifiques, qui, en utilisant des approches, des outils et des langages différents, s’étaient peu rencontrées jusque-là. C’est encore la force de l’objectif climatique que d’avoir conduit à ce rapprochement, comme s’étaient déjà rassemblés, une décennie plus tôt, océanographes et atmosphériciens . Pour comprendre les relations entre l’océan et le climat, il faut impérativement regarder au-delà de leurs manifestations du moment et intégrer leur dimension temporelle. Les modélisateurs du climat ont besoin de caler leurs simulations sur les scénarios du passé, et de tester la qualité de leurs simulations en les comparant aux reconstructions paléo-climatiques. Inversement, les paléo-climatologues tirent un grand bénéfice des modèles pour les aider à reconstituer le film de leurs observations passées, souvent disparates et parcellaires. Et surtout, ils ont besoin de ces simulations, qui reposent sur des concepts physiques, pour les aider à valider, ou non, les hypothèses qu’ils peuvent faire sur les scénarios d’évolutions des climats passés que leurs observations leurs suggèrent.
Détails
Écrit par : Y. Dandonneau, J.Merle, B. Voituriez
Catégorie : Livre climat, histoire et enjeu
Chapitre VIII : Le changement climatique : histoire et enjeux
Les archives glaciaires du climat
Jacques Merle, Bruno Voituriez, Yves Dandonneau, Club des Argonautes - Février 2014
Remonter le temps pour avoir accès aux climats qu'a pu connaître notre planète au cours des derniers millénaires, voire des millions d'années passés, est de la plus haute importance car c'est la seule façon que nous ayons de tester le réalisme et de réduire les incertitudes des modèles de prévision de l'évolution du changement climatique actuel.
En effet les observations instrumentales dont nous disposons s'étendent sur une période ridiculement courte pour être significatives à l'échelle des changements qui s'annoncent et qui n'ont eu d'équivalent que lors des derniers millions d'années. Dès lors les théoriciens et les modélisateurs de la dynamique du climat sont contraints de se tourner vers les enregistrements paléoclimatiques pour tester leurs théories et tenter de confronter leurs simulations à des faits d'observation.
C'est ainsi que l'on connaissait déjà, dès la première moitié du XXème siècle, beaucoup de choses sur l’alternance des périodes glaciaires et interglaciaires et que l'on avait des idées sur leur origine - les variations des paramètres orbitaux de la Terre et donc de l'ensoleillement, grâce à un précurseur intuitif et génial, Milutin Milankovitsch.
Mais on n’avait toujours pas identifié tous les enchaînements d’actions et de rétroactions qui faisaient qu’à partir d’un forçage modeste - quelque % d’ensoleillement -, on obtenait une réponse climatique de grande amplitude.
C’est pour ces raisons qu’à partir des années 1980, les glaciologues, les paléoclimatologues et les dynamiciens de l'atmosphère et de l'océan se sont rapprochés, aux frontières de leur discipline d'origine, pour tenter d’imaginer ce qu’avaient pu être les climats du passé, passé récent du dernier épisode glaciaire et passés plus lointains des temps géologiques.
Les mécanismes générateurs de ces climats anciens étaient évidemment au centre des préoccupations de ces communautés scientifiques et parmi celles-ci la glaciologie s’est progressivement fait une place de choix. Une coopération internationale exemplaire s’est mise en place parmi les glaciologues de plusieurs pays, opérant dans des conditions extrêmement difficiles, dans des régions totalement isolées cumulant des records de froid et de vent comme le sont le Groenland et l’Antarctique.
Ces efforts ont permis de reconstituer certains paramètres météorologiques et océanographiques comme :
la température de l’air,
la composition chimique de l’atmosphère
ou encore le niveau de l’océan et sa circulation générale.
Les descriptions, issues de ces paléo-observations ont permis de proposer aux théoriciens, dynamiciens de l’atmosphère et de l’océan, des signatures de l’évolution des climats passés d'une grande précision, notamment pour la période récente du dernier million d’années correspondant à l'émergence de l'espèce humaine. À l'inverse, les dynamiciens du climat actuel ont pu proposer des théories et des modèles susceptibles d’expliquer les observations, quelquefois très surprenantes, que les glaciologues et les paléoclimatologues avaient pu recueillir. Ainsi les études des climats passés par les glaciologues et autres paléoclimatologues ont apporté de nouvelles pièces au puzzle climatique. Assez éloignées les unes des autres à l’origine, tant sur le plan des objectifs que sur celui des méthodes et du vocabulaire, ces disciplines scientifiques se sont rapprochées et rassemblées sur le canevas climatique à partir des années 1980.
1- Les glaciologues français initient une première coopération internationale exemplaire
On a vu (chapitre IV) que tout commença par l’appétit de découverte d’explorateurs intrépides fascinés par les dernières régions inconnues de la planète, parmi les plus inhospitalières, qui se donnèrent un rendez-vous scientifique à l’occasion de l’Année Géophysique Internationale en 1957-58.
Ce rassemblement de géophysiciens coïncidait d’ailleurs avec la seconde «Année polaire internationale». Rappelons qu’à la suite de ces explorations trois groupes de pays s’étaient lancés dans l’étude de la glace des régions polaires.
Les Américains, associés aux Danois et aux Suisses, s’installèrent au début des années 1960 à la station militaire de «Camp Century» près de Thulé au Groenland, puis ouvrirent en 1967 un site de forage, «Byrd», dans l’Antarctique.
En 1957, les Soviétiques s’étaient déjà installés à la station «Vostok», une région très inhospitalière de l’est Antarctique à plus de 3 800 mètres d’altitude.
Enfin les Français occupèrent en 1957 également une station, appelée «Dumont D’Urville» située à la côte du secteur français de Terre Adélie.
Dans les années 1970, ils joignirent leurs efforts, entre géochimistes et glaciologues, pour établir une base - appelée le «Dôme C» - à plus de 2 000 mètres d’altitude et à plus de 1 000 kilomètres de leur base côtière de «Dumont d’Urville». L’objectif était de forer la glace en un lieu où on pouvait espérer atteindre des profondeurs permettant de suivre la déglaciation après le dernier maximum glaciaire qui culmina il y a 18 000 ans.
C’est alors qu’une coopération internationale étroite des glaciologues s’établit spontanément autour des équipes françaises du «Dôme C». Elle se concrétisa notamment par la prise en charge par les américains installés à la station «Byrd», associés aux Suisses de Hans Oeschger, du transport aérien d’équipements lourds (carottiers thermiques) à l’aide de leurs avions C 130.
En 1978 grâce à ce soutien un forage de 1024 mètres a offert 40 000 ans d’archives glaciaires permettant d’accéder au cœur de la dernière glaciation. L’extraction des bulles d’air contenues dans la glace et leur analyse chimique, notamment leur teneur en gaz carbonique, offrit aux Français, associés aux Américains et aux Suisses, une découverte retentissante. La teneur en gaz carbonique de la dernière période glaciaire, entre 20 000 et 40 000 ans au moins, était inférieure d’environ 30% à celle de la période actuelle et cette teneur était corrélée avec la température. Ce succès marqua l’entrée des glaciologues dans le club encore restreint des climatologues et surtout scella leur union au-delà des contingences nationales, sans toutefois éteindre évidement complètement leur compétition scientifique.
Mais les glaciologues étaient avant tout en compétition avec les paléocéanographes qui scrutaient les sédiments continentaux et marins et possédaient une avance importante pour mettre à jour et décrire les climats passés. L’atout le plus décisif des paléocéanographes était leur capacité de remonter le temps beaucoup plus loin que ne pouvaient le faire les glaciologues des années 1970 pour couvrir ainsi plusieurs cycles glaciaires-interglaciaires. Pour être compétitifs en validant les données des sédimentologues, les glaciologues devaient donc, en premier, allonger considérablement leurs séquences temporelles en réalisant les carottages les plus profonds possibles. La région la plus prometteuse pour remonter le temps le plus loin possible était incontestablement l’Antarctique où l’épaisseur de glace atteint plus de 3 000 mètres, avec une accumulation annuelle très faible, moins de 3,5 cm d’eau, et donc de glace, ce qui garantissait une séquence temporelle théorique de l’ordre de la centaine de milliers d’années. Mais l’Antarctique est aussi la région la plus inhospitalière du globe où l’on observe les températures et les vents les plus extrêmes ; le record du monde du froid de – 89,2 degrés Celsius a été enregistré en 1983 à la station soviétique Vostok. De telles conditions météorologiques extrêmes n’étaient cependant pas suffisantes pour effrayer les soviétiques habitués à des températures peu clémentes sur une grande partie de leur territoire. Et c’est eux justement qui écriront une nouvelle page héroïque dans la conquête scientifique des régions polaires à la station Vostok en Antarctique.
2 - L’épopée scientifique des forages antarctiques de «Vostok»
C’est à partir de l’expédition de l’Année Géophysique Internationale en 1957, que l’Institut soviétique des mines, bientôt renforcé par l’Institut Arctique et Antarctique de Leningrad et l’Institut de géographie de Moscou, ont établi un camp permanent sur un plateau culminant à 3 488 mètres d’altitude, appelé «Vostok», au cœur du continent Antarctique à plus de 77° de latitude Sud, et à la longitude de 105°E, correspondant à la partie orientale de l’océan Indien. Les soviétiques, sous la direction de l’Institut des mines, étaient avant tout des foreurs dont l’ambition était d’obtenir la plus longue carotte de glace possible et donc d’atteindre la plus ancienne glace. Ils utilisaient des carottiers thermiques et électromécaniques.
Pendant plus de 30 ans les soviétiques vont forer inlassablement surmontant toutes les difficultés dans des conditions météorologiques épouvantables, les températures descendant fréquemment au-dessous –70°C. De nombreux accidents, dont un incendie de la station en avril 1982, heureusement sans conséquence humaine, émailleront cette véritable épopée qui fera l’admiration des glaciologues français, danois, suisses et américains, et cristallisera une coopération étroite des équipes scientifiques appartenant à ces nations pourtant politiquement divisées par la guerre froide.
2-1 La coopération internationale prend forme à Vostok
Au site de Vostok les Soviétiques réalisèrent un premier forage de 500 mètres en 1970, puis un second de 950 mètres en 1972. Enfin ils atteignirent 1400 mètres en 1980 et 2083 mètres en avril 1982, à la veille de l’incendie qui détruisit leur station.
Ces succès dans l’art du forage n’étaient cependant pas accompagnés d’avancées scientifiques à la hauteur de leur habileté technique et de leur persévérance et, en fait, ces carottes de glace étaient peu exploitées par les scientifiques soviétiques qui ne disposaient pas d’équipements de laboratoire modernes. C’est le danois Willy Dansgaard qui, le premier en 1975, tenta une collaboration avec les équipes russes en proposant d’analyser la teneur en oxygène de 18 d’échantillons de glace prélevés sur le forage le plus profond du moment. Cette offre n’eut pas de succès, car les soviétiques possédaient un spectromètre de masse, certes ancien et peu performant, mais qui permettait de réaliser ces analyses ; et de ce fait, pour eux, cette coopération avec les danois ne se justifiait pas, d’autant qu’ils étaient soucieux de garder pour eux leurs données d’observation.
Il fallut attendre 1982, grâce aux relations amicales et personnelles que Claude Lorius tissa avec le directeur de l’Institut de géographie de Moscou, pour qu’une ébauche de coopération s’établisse entre les Soviétiques et les Français. Ceux-ci possédaient des compétences pour l’analyse du dioxyde de carbone, du béryllium 10 et du deutérium, nécessaire pour retrouver la température et l’âge de l’air inclus dans la glace. Des flacons contenant les échantillons d’une carotte de 1 400 mètres furent confiés aux laboratoires français, hélas ils avaient été pollués malencontreusement et la délicate analyse isotopique fut impossible. Ce ne fut que partie remise. Fin 1984, Claude Lorius et deux collaborateurs atterrirent à Vostok à bord d’un C 130 américain et purent échantillonner 2 kilomètres de carotte couvrant une période de l’ordre de 150 000 ans accédant ainsi à un cycle climatique complet. Après celle du Dôme C des années 1970 autour des Français, la coopération franco-soviétique et, au second ordre, internationale avec les Américains, les Suisses et les Danois était lancée. Elle fut incroyablement fructueuse.
2-2 Vostok : la «corne d’abondance»
Dans leur ouvrage, Jouzel, Lorius et Raynaud se plaisent à rappeler le qualificatif de «corne d’abondance» dont fut gratifié ce premier forage Vostok par la célèbre revue scientifique Nature, rapportant leurs travaux sur sa couverture en 1987. En effet, au milieu des années 1980, ni les forages de «Camp Century» et de «Byrd» des Américains, ni les forages du «Dôme C» des Français ou ceux de «Dye» des Américains et des Danois au Groenland n’atteignaient des profondeurs suffisantes pour couvrir la totalité du dernier cycle glaciaire qui commença il y a environ 110 000 ans. Et, de ce fait, il était difficile de tirer des conclusions définitives sur des corrélations possibles entre l’ensoleillement, lié aux paramètres astronomiques de la théorie de Milankovitch, et ces cycles glaciaires. Mais le forage de Vostok, analysé principalement par les Français, permettait d’accéder à la précédente période glaciaire avec environ 150 000 ans d’enregistrement.
Cette carotte de glace apportait un luxe d’informations et de corrélations entre différents paramètres jamais obtenues antérieurement et faisait faire un saut spectaculaire dans la connaissance des alternances climatiques glaciaires et interglaciaires ainsi que sur leurs causes. La maîtrise de l’analyse de la teneur en méthane (CH4) des atmosphères passées, sa corrélation avec la teneur en gaz carbonique (CO2) et la température, reconstituée à partir des analyses isotopiques, attirèrent l’attention de la communauté scientifique internationale et des medias. Au cours de ces 150 000 ans, plus il faisait chaud plus la concentration en CO2 et CH4 de l’atmosphère était élevée et inversement pour les périodes froides. Or le CO2 et le CH4 sont les principaux gaz à effet de serre produits par l’activité humaine. Dès lors, en transposant ces résultats à l’époque actuelle, l’hypothèse d’une relation entre les émissions humaines de gaz à effet de serre et le réchauffement climatique devenait la plus plausible. Trois publications dans un même numéro de Nature en 1987 apportèrent la célébrité à ces glaciologues français et à leurs collègues étrangers associés. Les medias et les politiques perçurent rapidement l’importance de ces résultats qui accréditaient l’hypothèse de l’origine humaine du changement climatique en cours et confortait des résultats antérieurs des sédimentologues et des paléocéanographes qui foraient et analysaient les sédiments du fond des océans.
2-3 Plus de 400 000 ans d’archives glaciaires à Vostok confirment la théorie de Milankovitch
Mais l’aventure des forages de Vostok n’était pas terminée. L’obsession des glaciologues était de collecter de la glace recouvrant plusieurs cycles glaciaires et donc vieille de 200, 300, 500 000 ans…. Après bien des péripéties, plus ou moins malheureuses, comme des blocages ou des ruptures de câbles de carottiers et grâce à l’incroyable persévérance des Russes, certes maintenant aidés logistiquement par les Américains avec leur avions gros-porteurs C 130 et l’appui financier de la NSF et par des français de l’IFRTP «Institut Français de Recherche et de Technologies Polaires» (qui prit la suite en 1992 des EPF «Expéditions Polaires Françaises»), les forages reprirent à la fin de l’année 1990. Durant huit ans et en dépit des difficultés innombrables endurées par les Russes, suite notamment à la fin du régime communiste de l’URSS, les records s’accumulèrent :
2 755 mètres sont atteint en janvier 1994 représentant deux cycles glaciaires,
puis 3 350 mètres en janvier 1996 représentant 420 000 ans soit presque quatre cycles complets.
Mais à partir de 3 500 mètres, la découverte d’un immense lac sous-glaciaire oblige à stopper les opérations de forage fin 1998. L’intrusion mécanique du carottier dans ce monde préservé et la crainte de polluer à jamais une eau vieille d’au moins un million d’années et certainement très riche d’informations extrêmement précieuses pour les glaciologues, les géochimistes, les hydrologues, les microbiologistes et d’autres spécialistes des sciences de la Terre et de la vie, l’emporta sur la curiosité, même si elle était scientifiquement justifiée (en 2012 cependant un forage atteignit ce lac sous-glaciaire).
Néanmoins, en 1999, on disposait de quatre cycles climatiques, couvrant 420 000 ans, qui, en 2001 étaient offerts à la sagacité des climatologues.
Non seulement les résultats scientifiques annoncés en 1987 à partir d’un seul cycle glaciaire qui présentait pour la première fois des corrélations étroites entre teneur en gaz carbonique (et méthane) et température, sont confirmés cycles après cycles, mais les évolutions de ces paramètres sont affinées et détaillées notamment en ce qui concerne les transitions entre les périodes glaciaires et interglaciaires chaudes et apportent des idées et des hypothèses nouvelles pour expliquer l’origine de ces oscillations climatiques. Il semble maintenant ne faire aucun doute qu’il existe bien un lien entre cycle climatique et insolation comme l’avait prévu Milankovitch.
Ce n’est pas tout, ces enregistrements simultanés des variations
de température et de concentration de l’atmosphère en gaz carbonique et en méthane montrèrent que celles de l’effet de serre qui en découlent jouaient un rôle essentiel et apportaient des réponses aux insuffisances de cette théorie astronomique. En effet celle-ci explique bien le cycle principal de 100 000 ans qui correspond au forçage astronomique attribué aux variations de l’excentricité de l’orbite terrestre autour du Soleil, mais à lui seul, ce forçage est trop faible pour induire une oscillation climatique d’amplitude aussi marquée que celle observée. C’est l’effet de serre par ses interactions dans des boucles de rétroactions complexes avec la biosphère et l’océan, dont la capacité d’absorber les gaz à effet de serre dépend de la température, qui peut expliquer l’amplitude de ces cycles glaciaires.
Jouzel, Lorius et Raynaud expriment clairement cette idée :
«C’est en fait vers l’idée d’un climat dont les paramètres astronomiques seraient le métronome et où les gaz à effet de serre joueraient le rôle d’amplificateur vis-à-vis des changements d’insolation que nous ont conduit les enregistrements de l’Antarctique».
Ultérieurement d’autres processus impliquant la mécanique des calottes glaciaires sur un socle continental, comme le Groenland, furent évoqués pour expliquer la prépondérance de la fréquence 100 000 ans.
2-4 Vostok et le dôme C font des émules
Les succès obtenu en Antarctique sur les sites de Vostok et du Dôme C à partir des années 1980, suscitèrent des vocations de glaciologues et attirèrent d’autres nations dans ce concert scientifique international, notamment des Japonais et des Australiens.
Les Japonais s’étaient initiés aux méthodes de forage sur le site de GRIP au Groenland au contact des européens. Ils décidèrent de s’installer sur un dôme de l’Antarctique oriental diamétralement opposé au Dôme C et ils l’appelèrent le «Dôme Fuji».
En deux ans, 1995 et 1996, ils réalisèrent un forage atteignant la profondeur de 2 500 mètres avant que le carottier ne se bloque. Ils eurent cependant accès à une glace vieille de 330 000 ans représentant trois cycles glaciaires. Mais ce succès ne les satisfaisait pas car l’extraction des 500 derniers mètres leur aurait permis de battre le record de Vostok qui, à ce moment là, était de 420 000 ans. En 2006 cependant, fidèle à l’esprit de compétition qui anime généralement les citoyens de leur pays, ils lancèrent une nouvelle opération avec succès cette fois. Les Australiens eurent une approche plus modeste compte tenu de leurs moyens limités. Ils concentrèrent leurs efforts sur des carottages peu profonds situés dans des régions côtières de l'Antarctique où l’accumulation est importante et permettait d’atteindre une résolution annuelle. Ils obtinrent ainsi des enregistrements très détaillés couvrants les derniers 20 000 ans correspondant à la déglaciation du dernier cycle qui conduit à notre climat actuel.
3- Retour au Groenland
La nécessité de confirmer les résultats obtenus dans l’Antarctique et de confronter les climats passés reconstitués sur la calotte glaciaire de l’hémisphère sud avec ceux qui avaient pu affecter l’hémisphère nord aux mêmes périodes germa rapidement à la fois dans l’esprit de la communauté des glaciologues et dans celle des paléocéanographes.
L’idée d’un forage au centre du Groenland, seule région susceptible de couvrir une période similaire à celle couverte par le forage de Vostok en dépassant la durée d’un cycle glaciaire, s’imposa aux deux communautés. Mais il fallait convaincre les agences de financements, au début réticentes, principalement la NASA pour les américains, mais aussi les agences européennes, d’ouvrir un second chantier dans l’hémisphère nord cette fois.
C’est le géochimiste américain Wally Broecker, qui prit l’initiative de l’élaboration de ce projet au cours d’une réunion qui se tint à Boston en 1987 et rassembla les Américains (Broecker), les Français (Jouzel), les Danois (Dansgaard) et les Suisses (Hoeschger).
Broecker, par souci d’économie et pour mieux convaincre ses bailleurs de fonds, proposait un forage commun, mais Dansgaard avança des arguments pour une proposition opposée faite de deux forages parallèles, situés à courte distance l’un de l’autre.
Un de ces forages serait américain : GISP2 «Greenland Ice Sheet Project 2», et l’autre serait européen : GRIP«GReenland Ice Core Project».
L’argument principal avancé par Dansgaard pour justifier ce dédoublement s’appuyait sur l’intérêt qu’il voyait de confirmer et de certifier réciproquement les résultats de ces observations auprès de la communauté scientifique, des medias et des politiques compte tenu de leur importance dans la question climatique. Celle-ci prenait déjà en effet une dimension politique réelle. Ce choix du dédoublement des observations fut par la suite pleinement justifié par les perturbations enregistrées à l’extrémité des deux carottes lorsqu’elles approchèrent du socle rocheux, ce qui permit d’appliquer certaines corrections dont il aurait été impossible de tenir compte autrement.
Les stations américaine et européenne, furent installées à trente kilomètres de distance, sur le plateau le plus élevé du Groenland, à plus de 3 000 mètres d’altitude, et la station commune fut appelée «Summit». Il fut convenu que les résultats seraient exploités en commun entre Américains et Européens.
Cependant les équipes européennes : françaises, danoises, suisses, se tournèrent plutôt vers la Communauté européenne qui commençait à s’intéresser et à soutenir la recherche sur l’environnement et le climat. La fondation européenne de la science, convaincue de l’intérêt du projet GRIP, le coordonna en y associant cinq autres pays européens : Allemagne, Angleterre, Belgique, Islande et Italie.
De ce fait les scientifiques américains et européens prirent quelques distances dans leur coopération. Le forage européen GRIP démarra en juin 1990 et atteignit la profondeur de 3028 mètres en 1992. De leur coté à GRISP2 les américains atteignirent la profondeur de 3054 mètres en 1993 et battirent ainsi le record du forage de glace le plus profond au Groenland.
La coopération internationale entre ces différents pays, américains et européens, fut cependant exemplaire. Les résultats scientifiques furent également remarquables et confirmèrent les corrélations entre température et teneur de l’atmosphère en gaz carbonique, (ainsi qu’en méthane), mises en évidence dans l’hémisphère sud à Vostok et au Dôme C. Ces corrélations avaient bien un caractère universel en affectant la totalité de la planète et confirmaient l’implication de la biosphère dans ces oscillations climatiques que les seules variation du flux solaire liées aux paramètres astronomiques de Milankovitch, ne pouvaient complètement expliquer. L’idée d’un climat seulement excité au départ par des facteurs astronomiques mais amplifiés ensuite par des rétroactions couplées avec le milieu vivant, était confirmée, bien que les enregistrements de GRIP et GRISP2 soient restés limités aux 100 000 dernières années et ne permettaient pas encore d’observer la succession de plusieurs cycles glaciaires-interglaciaires.
Cependant les Danois, incontestables maîtres, parmi les Européens, des forages profonds et très déçus du fait que les carottes de GRISP2 et GRIP ne permettaient pas d’aller au-delà de 100 000 ans, prirent l’initiative, en 1994, de rechercher un nouveau site plus stable au nord du Groenland. Ce sera le projet «North GRIP» auquel participèrent les Français, associés avec les Allemands, les Américains, les Belges, les Japonais, les Scandinaves et les Suisses. Mais le premier forage se bloqua à 1 400 mètres de profondeur. Ils repartirent de la surface en 1999 et trois saisons plus tard en 2003 ils furent stoppés cette fois par une rivière sous-glaciaire à 3 085 mètres obtenant une carotte qui atteignait seulement 123 000 ans. Il apparaissait ainsi qu’il était difficile d’obtenir au Groenland de la glace dépassant le dernier cycle glaciaire. Néanmoins une tentative récente d’accéder au précédent interglaciaire chaud (appelé l’Eémien) dans l’hémisphère nord a été lancée par les Danois de l’Université de Copenhague auxquels se sont associés 14 nations dont la France. Ce projet, appelé NEEM « North greenland EEMian ice drilling», a pour objectif de recueillir des échantillons de glace dans la calotte groenlandaise datant de plus de 140 000 ans, et ainsi de décrire les conditions climatiques à la fois de la dernière période glaciaire et aussi celles recouvrant la totalité de l’Eemien, incluant donc le précédent interglaciaire chaud.
Le projet à été lancé en 2007 et s’est terminé en 2011. Le site de forage est le plus au nord -à plus de 78°N- de tous ceux qui ont déjà été réalisés au Groenland, à 650 kilomètres du plus proche lieu de vie, à 2 500 mètres d’altitude sur un plateau recouvert d’une épaisseur de glace de 2 542 mètres. Le socle rocheux a été atteint à une profondeur de 2537 mètres rendant accessible en détail la totalité de la période de l’Eémien, l’interglaciaire précédent celui que nous vivons actuellement.Les premières analyses indiquent que au cœur de l’Eémien (entre 130 000 et 115 000 ans) la température au nord du Groenland était plus chaude qu’actuellement de 8 degrés Celsius et que l’altitude de la calotte glaciaire était plus basse que l’actuelle de seulement 130 mètres. Ces résultats indiqueraient que la fonte du Groenland participerait à égalité avec celle de l’Antarctique à l’élévation du niveau moyen de l’océan qui était plus élevé de 8 m par rapport à l’actuel.
4- L’Europe revient en Antarctique avec le programme EPICA
Les difficultés des années 1990 pour obtenir dans l’hémisphère nord des échantillons de glace recouvrant plus d’un cycle glaciaire, incitèrent les européens à revenir dans l’Antarctique avec un nouveau carottier appelé EPICA, tirant son nom du projet : «European Project for Ice Coring in Antarctica – EPICA» qu’ils proposèrent en 1994. Le but était de trouver un point de la calotte Antarctique où on pouvait espérer trouver de la glace plus vieille que celle du site de Vostok. Il était également nécessaire de se placer au sommet d’un dôme pour éviter les problèmes de fluage et de perturbation des couches lorsque l’on approche du socle rocheux. L’objectif était d’atteindre de la glace vieille d’au moins 500 000 ans. La région du «DômeC» paraissait la plus favorable et le premier forage fut lancé en 1997. C’était la première tentative d’utilisation du carottier EPICA, ce fut un échec. Cependant en 2000 le projet fut relancé et en 2002 un forage atteignit 2 870 mètres, ce qui correspondait à un âge supérieur aux 520 000 ans de Vostok dont le record était ainsi battu.
En janvier 2005 le forage EPICA Dôme C» atteignit 3 260 mètres de profondeur correspondant à une accumulation de glace exploitable recouvrant une période longue d’environ 800 000 ans, soit 8 cycles glaciaires. Les analyses de ces échantillons sur ces 8 cycles ont montré les mêmes corrélations, notamment entre température et teneur en méthane et en gaz carbonique, que celles mises en évidence sur la carotte de 400 000 ans à Vostok.
Mais d’autres informations, notamment sur les périodes interglaciaires chaudes, plus précieuses encore pour la compréhension de l’évolution des climats anciens, et de notre avenir climatique, ont pu être extraites de cette carotte EPICA/ Dôme C. Selon Valérie Masson-Delmotte : «Les températures glaciaires semblent relativement stables d’une période à l’autre. A l’inverse, on observe de fortes différences d’une période interglaciaire à l’autre. Avant 400 000 ans, des périodes interglaciaires «tièdes» apparaissent systématiquement 1 à 3°C plus fraiches que la période chaude actuelle de l’Holocène…. La période la plus chaude atteignait jusqu’à 5°C au dessus du niveau actuel il y a 130 000 ans», c'est-à-dire durant l’Eémien.
Enfin, comme on disposait dès lors d’enregistrements suffisamment longs, North Grip et NEEM au Groenland et EPICA/Dôme C dans l’Antarctique, on a pu comparer en détail les évolutions climatiques de l’hémisphère nord et de l’hémisphère sud : les résultats s’avérèrent étonnants.
5- Une bascule climatique Nord-Sud dans l’Atlantique ?
Il existe des oscillations climatiques de courtes périodes, au Groenland, dites de Dansgaard-Oechger, que l’on décrira plus en détail au chapitre X, faisant alterner de courts épisodes chauds (quelques siècles) au cours de la dernière glaciation. On en a dénombré 25 sur les 123 000 ans d’enregistrements disponibles. Les signatures en méthane de l’atmosphère contenues dans ces enregistrements ont permis de synchroniser les forages de l’Antarctique et du Groenland pour la période recouvrant le dernier cycle glaciaire. C’est ce qui a permis de mettre en évidence une bascule climatique entre l’Antarctique et le Groenland. Lorsqu’un événement chaud Dansgaard-Oechger se produisait au Groenland, on observe un refroidissement en Antarctique. Au contraire un réchauffement, plus lent, en Antarctique correspond à un Groenland froid.
Les 800 000 ans d’enregistrement d’EPICA/Dôme C dans l’Antarctique ont montré que cette bascule saisonnière n’était pas limitée à la dernière période glaciaire : il a été possible de répertorier 74 événements de type Dansgaard-Oechger au cours de ces 800 000 ans. Malheureusement les forages du Groenland ne permettent pas de remonter aussi loin dans le temps pour le confirmer. Ces instabilités rapides semblent jouer un rôle clé dans les transitions glaciaires-interglaciaires. En effet à ces alternances chaud/froid correspondent aussi de variations importantes de précipitations. Au moment des entrées en glaciation suivant le schéma de Milankovitch l’occurrence d’épisodes chauds provoque dans le nord des chutes de neige abondantes qui accélèrent la formation des calottes de glace. Les explications de ces corrélations liant des événements climatiques de relativement haute fréquence et affectant des régions aussi éloignées que les deux extrémités de l’océan Atlantique, passent évidement par la circulation océanique atlantique et plus particulièrement par la circulation thermo-haline méridienne profonde ou MOC - Meridional Overturning Circulation. On sait que l’océan Atlantique fonctionne comme un «tube de chaleur» méridien qui «aspire» la chaleur dans les deux autres océans, Pacifique et Indien, à hauteur de plusieurs péta watts à son extrémité sud pour alimenter en chaleur l’Atlantique nord où celle-ci est en partie restituée à l’atmosphère et en partie utilisée pour faire fondre la glace accumulée à certaines époques. Des boucles d’interactions complexes relient donc les étendues glaciaires des pôles nord et sud par l’intermédiaire de la circulation océanique et du cycle de l’eau pour générer ces oscillations climatiques brutales mais cohérentes sur l’ensemble du bassin Atlantique.
On voit ainsi que la glace qui entoure actuellement les deux pôles de la planète joue un rôle fondamental dans le climat que nous observons, dans ceux qui ont affecté le passé et dans celui que connaîtra l’avenir. Cette glace n’a pas toujours existé (voir chapitre suivant), elle est apparue en premier au pôle sud il y a environ 13 millions d’années à la fin de l’ère tertiaire modifiant la circulation océanique périantarctique et la circulation thermohaline méridienne. Puis, la surrection des Montagnes Rocheuses a modifié la circulation atmosphérique, et océanique de l’Atlantique nord, conduisant, il y a environ 2,5 millions d’années, aux premiers glaciers continentaux de l’hémisphère nord qui sont apparus en Alaska, au nord du Groenland, au nord du Canada et de l’Europe. Bientôt ces glaciers se sont rejoints pour édifier la première calotte glaciaire de l’hémisphère nord (la calotte glaciaire boréale). Le climat de la Terre venait d’entrer dans un nouveau régime avec deux calottes de glace à ses deux extrémités générant des systèmes oscillants complexes excités par de faibles variations de l’ensoleillement, mais cependant suffisantes pour générer des fréquences d’oscillations caractéristiques de : 40 000 ans et 100 000 ans, qui dominent le spectre de la variabilité naturelle du climat. Mais des changements sont aussi observés dans ce régime climatique nouveau, comme celui qu’indiquent des prélèvements de carottes sédimentaires (voir chapitre suivant) montrant, qu’il y a environ 1,2 millions d’années, une réorganisation climatique majeure s’est produite entre un monde marqué par des glaciations fréquentes (tous les 40 000 ans) mais peu intenses et un nouveau régime, dans lequel nous sommes actuellement, marqué par des oscillations d’amplitude très prononcée mais à une fréquence plus longue : environ 100 000 ans. Ainsi la glaciologie, seulement considérée comme une curiosité il y a encore une cinquantaine d’années, est maintenant devenue une pièce maîtresse du puzzle climatique.
Publications :
«Planète blanche» - Édition Odile Jacob 2008. De Jean Jouzel, Claude Lorius et Dominique Raynaud. (Ce chapitre est largement inspiré de ce remarquable ouvrage).
«Climats du passé : l’apport des forages profonds dans les glaces polaires» - Publication : Rayonnement du CNRS N° 54; juin 2010. De Valérie Masson-Delmotte.
Détails
Écrit par : Y. Dandonneau, J.Merle, B. Voituriez
Catégorie : Livre climat, histoire et enjeu
Chapitre XII : Une nouvelle couche de science : La socio-économie du climat
Jacques Merle, Bruno Voituriez, Yves Dandonneau, Club des Argonautes - 0ctobre 2014
Il ne se passe pas de semaines sans que les medias ne se fassent l’écho, de par le monde, de canicules, d’inondations, de sécheresses, de famines... Il peut sembler que ces événements météorologiques extrêmes battent des records par leurs nombres et leur intensité. Ce n’est peut-être qu’une illusion car les météorologues ont encore du mal à déceler une tendance nette à l’accroissement de ces événements et surtout la relation avec le changement climatique n’est pas toujours établie. Néanmoins une évidence s’impose, le climat et ses sautes d’humeurs sont une donnée essentielle de la vie humaine. Nombre d’événements, malheureux, mais quelquefois heureux, frappant les sociétés et relevant peu ou prou de l’histoire sont directement liés à des événements météorologiques ou climatiques. Emmanuel Le Roy Ladurie nous en donne des exemples en reliant le refroidissement des XVIIème et XVIIIème siècles du nord de l’Europe à des successions de famines ayant pu avoir un effet sur l’agitation révolutionnaire que l’on sait. On peut trouver d’autres exemples, sous d’autres latitudes et sur d’autres continents, de cette relation entre événements météorologiques ou climatiques et sociétés humaines, comme ceux des cultures préhispaniques de la façade occidentale de l’Amérique du sud qui connaissaient les manifestations du phénomène climatique périodique, que l’on appela par la suite au 19ème siècle El Niño.
Ce phénomène provoquait d’intenses précipitations, détruisant fréquemment les infrastructures et engendrait des perturbations dans la vie quotidienne de ces populations, pouvant aller jusqu’à des troubles politiques. On mesure ainsi l’importance des impacts socio-économiques que peuvent avoir les variations plus ou moins brutales du temps et du climat. Pour beaucoup de pays, le climat est un élément essentiel de l’économie. Dès lors l’étude du changement climatique en cours appelle aussi des considérations socio-économiques et l’implication des sciences humaines. Celles-ci se sont installées progressivement dans le paysage scientifique de la question climatique à partir des années 1960.
Le GIEC a, en quelque sorte, institutionnalisé cette nouvelle dimension scientifique dans le faisceau des recherches menées sur le changement climatique en l’inscrivant dans deux groupes de travail identifiés :
le groupe II, dédié à l’étude des impacts et de la vulnérabilité des sociétés humaines aux changements climatiques, ainsi qu’aux moyens de s’y adapter ;
le groupe III qui étudie les solutions envisageables pour limiter les émissions de gaz à effet de serre (GES) et ainsi atténuer le changement climatique.
Cependant, avant la création du GIEC, des économistes avaient perçu l’émergence des questions environnementales et l’importance que les sociétés allaient leurs accorder. C’est ainsi que naquit le concept de l’«économie de l’environnement» qui préfigurait l’implication, qui allait ensuite devenir massive, des sciences sociales et de l’économie dans la question climatique.
1- L’émergence d’une économie de l’environnement
C’est seulement au milieu des années 1960 que la pensée économique s’est progressivement impliquée dans l’étude de l’environnement à travers une sous-discipline appelée «l’économie de l’environnement» qui s’est construite progressivement. Certes l’intérêt des économistes pour l’environnement n’était pas totalement nouveau. L’environnement considéré comme une ressource naturelle durable ou éphémère, publique ou privée, faisait déjà partie des concepts utilisés en économie. Un exemple en est donné par l’économie de la pêche qui, depuis les années 1950, manipulait des modèles de dynamique des populations dans lesquels intervenait la prédation, encore appelée «effort de pêche», d’une ressource naturelle : «le stock» de poissons, à l’origine supposé illimité, puis progressivement évalué en fonction de cette prédation. Des facteurs environnementaux étaient également pris en compte, notamment les conditions de survie des larves, le recrutement, susceptible de permettre, ou non, au stock de se renouveler. Ces informations étaient sensés donner des assurances sur le niveau de prédation au-delà duquel le stock initial se réduisait inexorablement mettant à mal le rendement de la pêche et à terme sa survie même par extinction de la ressource. En d’autres termes le but de cette approche était d’évaluer comment pêcher seulement les intérêts du capital sans mettre en danger le capital lui-même. On touchait ainsi, avant sa généralisation ultérieure, au concept d’exploitation durable, rattaché plus tard au «développement durable». Il existe certainement d’autres domaines que celui de la pêche où l’économie d’une ressource environnementale naturelle a été mise en équation pour gérer au mieux son exploitation. Mais, jusqu’aux années 1960, ces études économiques s’appliquant à des domaines très limités et sectorisés ne prenaient pas en compte l’environnement dans sa globalité tel qu’on l’entend actuellement pour le climat. L’environnement et le climat posent maintenant aux sociétés des problèmes d’une toute autre envergure.
Une approche dite : «Néoclassique» qui considère l’économique comme un univers en soi indépendamment des objets traités et du contexte des institutions sociales. L’environnement est considéré comme un bien collectif qui obéit cependant toujours à des logiques individuelles de préférence, de choix et à terme de marché, comme n’importe quel bien. L’idée centrale est celle de la recherche d’un équilibre et d’une priorité accordée à la coordination par les prix et par les contrats. Cette approche néoclassique s’est imposée à une majorité d’économistes pour qui elle constitue un cadre naturel d’analyse des problèmes environnementaux et pour lesquels elle possède déjà des outils qu’elle maîtrise. Cette vision des choses s’est aussi imposée aux institutions internationales comme l’OCDE et aux administrations nationales françaises. Le fameux principe «pollueur-payeur» est l’exemple type le plus connu de cette logique issue de la pensée néoclassique. Olivier Godard conclut sur ce point que : «De nombreux décideurs ont vu dans cet outillage néoclassique la base la plus solide, parmi les contributions possibles des sciences sociales à la rationalisation des processus publics de décision et de choix des instruments de politique…» en matière d’environnement.
La deuxième approche est plus fondamentale. Elle a pour ambition non seulement de se saisir de l’environnement comme d’un objet nouveau porteur de ses propres enjeux et de ses exigences particulières, mais, compte tenu de sa singularité et de son caractère universel et collectif, de repenser à la fois les fondements et les outils d’une nouvelle économie. Celle-ci a pu prendre les noms, au gré des auteurs engagés dans cette voie, de «bio-économie», «économie écologique», ou encore «physico-économie». Citons encore Olivier Godard : «… la question de l’environnement était si décisive pour le devenir humain qu’il fallait constituer une nouvelle science. L’objet qui lui était assigné était l’étude des interactions complexes entre l’économie humaine et le fonctionnement physique et biologique de la planète Terre dont cette économie dépend ….». Cette approche encore relativement minoritaire et hétérogène par les personnalités scientifiques qui s’en réclament, a pour référant général la «théorie des systèmes» qui s’inspire de la thermodynamique, de la théorie de l’information, de la biologie des systèmes, de la biologie intégrative….etc. Mais cet usage trop exclusif de ce qui est désigné d’un terme plus général par l’«écologie systémique» semble avoir enfermé les tenants de cette approche dans une forme de réductionnisme qui leur est reproché : «La visée d’une meilleure adéquation aux conceptions des sciences de la nature s’est révélée si prenante qu’une partie des chercheurs en question en sont venus à délaisser ce qui fait qu’une société humaine n’est pas un système naturel» nous dit encore Olivier Godard.
La troisième approche est centrée sur le caractère «collectif» du ou des biens qui constituent l’environnement. Ce n’est plus l’expression de préférences individuelles, ni les marchés, ni les contrats qui fournissent les repères conceptuels de cette vision socio-économique, mais au contraire c’est sa nature collective qui doit dominer et conduire à privatiser les profits et socialiser les coûts par des instances de planification décentralisée et participative permettant d’engager le dialogue citoyens-producteurs. C’est ce renversement des valeurs qui s’est opéré dans les théories normatives du développement lorsque l’approche de l’écodéveloppement a été formulée en 1973. En clair et en simplifiant outrageusement, sans pouvoir éviter cependant l’usage d’un vocabulaire un peu usé et qui peut encore fâcher, c’est d’une «économie collectiviste» dont il s’agit ici pour gérer l’usage d’un environnement par nature collectif et, lorsqu’il s’agit du climat, «offert» à l’ensemble de l’espèce humaine sans distinction de frontières ou de niveaux de développement. Le collectivisme aurait-il une nouvelle chance avec la prise en considération de «biens et services naturels» environnementaux comme le climat ? L’espèce humaine doit maintenant gérer collectivement non seulement son propre usage actuel de son environnement, mais son futur même, dont elle est devenue, à son insu, partiellement maître, et responsable de son emballement.
Quoi qu’il en soit des approches méthodologiques de la science économique pour prendre en compte les inquiétudes environnementales et climatiques, les questionnements socio-économiques issus de la quasi certitude du changement du climat en cours s’organisent autour de trois thèmes :
Impacts,
adaptation
atténuation,
inspirant en cela l’organisation même du GIEC qui en fait état à travers les travaux de ses groupes II et III. Cependant avant de développer ces thèmes appliqués au changement climatique, on peut illustrer la question des impacts par une étude pionnière des années 1980 sur les impacts de l'oscillation climatique naturelle : El Niño, qui fit prendre conscience de la vulnérabilité des sociétés humaines soumises à un environnement climatique variable.
2- Première étude d’impacts économiques d’un phénomène climatique : Le cas El Niño
El Niño est une oscillation climatique naturelle de fréquence pluriannuelle plusieurs fois évoquée antérieurement. Rappelons que ce phénomène, qui prend sa source dans le vaste océan Pacifique, se manifeste par une variabilité, parfois dramatique, des conditions météorologiques affectant les continents qui le bordent. La vie des plus anciens habitants de la côte ouest de l’Amérique du sud, les Incas, a été épisodiquement bouleversée par ce phénomène depuis des siècles au point qu’il a pu, pour certains auteurs, être considéré comme responsable de leur disparition. En fait El Niño a surtout été remarqué depuis le XIXème siècle par les pêcheurs de ces régions car il perturbait considérablement leurs activités. Mais qu’est-ce qu’El Niño (encart ci-dessous) ? Et quels sont ses impacts sur l’économie et la vie des pays riverains du Pacifique ?
El Niño et l’Oscillation Australe (ENSO)
Bien que la zone côtière du Pérou soit un désert brûlant, l'océan qui la borde est froid et très productif biologiquement, car enrichi en sels nutritifs du fait de remontées d'eaux profondes et froides : c'est l’upwelling. Cependant, tous les ans, en décembre janvier, un courant côtier chaud venant du nord recouvre et tempère ces eaux froides. Ce courant fut appelé El Niño (l'enfant Jésus), parce qu'il apparaît à l'époque de Noël et qu’il avait des effets plutôt bénéfique pour la pêche.
Certaines années, ce courant est plus intense, plus chaud, et s’étend beaucoup plus au sud et au large, et persiste pendant plusieurs mois, voire une année. Il est alors accompagné de pluies diluviennes et d'un effondrement de la productivité marine et donc de la pêche. Cette catastrophe économique locale aux effets souvent dramatiques, a marqué les esprits, et le terme El Niño n'a bientôt plus désigné que cet événement malheureux qui se manifeste en moyenne de 2 à 3 fois par décennie. Mais ceci n’est que l’aspect océanique d’un phénomène qui implique aussi l’atmosphère et qui fut découvert dans les années 1920, par un officier britannique en poste aux Indes, Gilbert Walker, qui découvrit une corrélation liant la pression atmosphérique superficielle entre les régions situées aux deux extrémités de l'océan Pacifique tropical. Lorsque la pression baisse à l'extrémité orientale du Pacifique, au large des côtes d'Amérique du Sud et vers les îles orientales de la Polynésie française, elle s'élève à son extrémité occidentale, au nord de l'Australie et au voisinage de la Nouvelle-Guinée, à plus de 10 000 km de distance, et inversement. C'est ce que les météorologues appelleront plus tard une « téléconnexion ». Walker l’appela «Southern Oscillation» ou «Oscillation Australe» en français. Plus tard, c'est un météorologue norvégien, Jacob Bjerknes, qui, le premier, en 1969, associa le réchauffement océanique anormal au large du Pérou, El Niño, à l'oscillation australe des pressions atmosphériques, découverte 40 ans plus tôt par Gilbert Walker. Bjerknes montra que lorsque l'index de l'oscillation australe est faible et donc que le gradient de pression Est-Ouest et les vents alizés sont également faibles, alors des eaux anormalement chaudes venant de l’ouest envahissent le Pacifique central et apparaissent quelques semaines plus tard au large de l'Équateur et du Pérou : c'est le début d'un épisode El Niño. L’association des deux phénomènes, océanique et atmosphérique, a été appelée ENSO pour «El Niño and Southern Oscillation». Par la suite, on identifia un phénomène inverse d’El Niño, que l’on appela «La Niña» et qui se manifeste par une situation opposée, avec des eaux anormalement froides dans le Pacifique oriental, accompagnée d'un index de l'oscillation australe élevé générant des vents alizés forts, poussant ainsi vers le bord ouest de l’océan Pacifique (Nord Australie, Indonésie…) les eaux réchauffées après leur parcours à travers le Pacifique. ENSO devint ainsi à partir des années 1970 le plus célèbre des signaux climatiques naturels, se présentant sous la forme d’une oscillation entre un pôle chaud : El Niño et un pôle froid : La Niña et couplant ainsi l’océan et l’atmosphère. Il passionna les chercheurs, qui avaient sous les yeux un exemple spectaculaire et illustratif de phénomènes d’interaction entre l’océan et l’atmosphère, mais aussi les media qui eurent la tentation de mettre tous les phénomènes météorologiques malheureux apparaissant sur la planète sur le compte de cette oscillation ENSO. Ils n’avaient cependant pas toujours tort car ENSO est bien à l’origine de perturbations météorologiques affectant une grande partie de la planète.
2-1 Le déplacement d’eaux chaudes le long de l’équateur de l’est à l’ouest et inversement en fonction des oscillations El Niño – La Niña au rythme de deux à trois événements par décennies, s’accompagne d’un déplacement associé des perturbations atmosphériques, appelées «zones de convection», qui se caractérisent par des basses pressions au niveau du sol, des ascendances d’air chaud et humide générant des pluies fréquentes et intenses.
C’est la phase chaude de l’oscillation, historiquement appelée El Niño, la plus dévastatrice pour les pays de la bordure orientale de l’océan Pacifique : Equateur, Pérou, Nord Chili qui sont soumis à des inondations catastrophiques bouleversant leur agriculture et détruisant leurs infrastructures : habitations, routes, ponts, … etc.
Á l’inverse, la phase froide du phénomène, La Niña, au large de l’équateur et du Pérou, est caractérisée par un refoulement de ces eaux chaudes dans le Pacifique central jusqu’à sa frontière ouest où une convection atmosphérique intense provoque des précipitations et des inondations catastrophiques (Nouvelle Guinée, nord Australie, Indonésie…). Au contraire elle s’accompagne, sur les côtes équatoriennes et péruviennes, d’un temps sec et plus froid, avec très peu de précipitations et même une sécheresse absolue sur le fameux désert de l’Atacama, à cheval sur la frontière du Pérou et du Chili, où il ne pleut que lorsqu’il y a un El Niño, 2 ou 3 fois par décennies.
Un tel phénomène de balancement climatique est-ouest, s’étendant sur les 15 000 kilomètres de l’océan Pacifique, a évidemment des conséquences très importantes pour l’économie et la vie des populations occupant les pourtours continentaux de cette région, y compris les très nombreux archipels qui parsèment l’intérieur de cet univers liquide.
La violence de cette oscillation climatique naturelle et l’étendue de ses conséquences économiques et humaines sur les populations qui y sont exposées, a conduit des scientifiques, répondant aux demandes des gouvernements concernés, à tenter d’évaluer les impacts d’un tel phénomène et à chiffrer les coûts de ses nuisances. Ce fut la première étude impliquant les sciences sociales et l’économie, appliquées à un phénomène climatique. On la doit à un océanographe de formation, Michael Glantz du NCAR (National Center for Atmospheric Research), qui alerta des économistes et se transforma lui-même en économiste pour faire le bilan des coûts d’un événement El Niño particulier, celui des années 1982 - 1983, le plus intense et le plus désastreux des événements climatiques connus à l’époque dont les media nord-américains, européens et sud-américains se firent l’écho pendant plusieurs mois.
2-2 Impacts, nuisances et bilan économique de l’El Niño 1982 - 1983
Pour faire le bilan économique des impacts du phénomène, il faut prendre en compte leur localisation, les domaines auxquels ils s’appliquent (santé, agriculture, infrastructures …etc.) et leurs incidences économiques. Glantz, reprenant des travaux de Kevin Trenberth et les estimations de la NOAA, a identifié plusieurs régions sévèrement touchées par l’El Niño 1982-1983 :
Les régions du Pacifique directement affectées par le phénomène ; à l’est l’Équateur, le Pérou et le nord du Chili ; à l’ouest l’Australie (principalement sa partie nord), l’Indonésie, les philippines ; au centre les petits archipels immergés dans le vaste océan.
Des régions de la ceinture tropicale au-delà de l’océan Pacifique : l’Amazonie, le Sahel africain, l’Angola, le Mozambique, l’Afrique du sud, la côte sud-ouest des États Unis.
Des régions extratropicales, tempérées, voire appartenant aux hautes latitudes : Le centre des États Unis, le Canada, la Chine, le Japon.
Les différentes catégories d’impacts correspondant aux paramètres météorologiques affectés par El Niño : précipitations (inondations, sécheresses, incendies), température, vent et ouragans, touchent les domaines de la santé, l’agriculture, la pêche, l’habitat ainsi que les infrastructures, la navigation, le tourisme, ….
Sur ces bases, Glantz analysa alors les dégâts ayant affecté les principales régions touchées par les impacts de l’El Niño 1982-1983 :
L’Équateur et le nord du Pérou ont été frappés par des précipitations diluviennes qui ne pouvant être évacuées par le réseau hydrographique se sont répandues en inondations gigantesques qui ont détruit une partie des infrastructures : habitations (90 000 familles ont vu leurs habitations détruites), routes, chemins de fer, digues et ponts, ainsi que 50% des récoltes.
Mais dans le sud du Pérou, au nord du Chili et en Bolivie, au contraire, une grande sécheresse a accentué les migrations humaines vers les côtes.
Une autre nuisance importante a été causée par les températures élevées de la surface de l’océan au large du Pérou et de l’Équateur. Ces eaux chaudes, recouvrant soudainement les eaux plus froides venant des profondeurs et riches en sels nutritifs, ont inhibé la photosynthèse phytoplanctonique et bouleversé l’écosystème et la chaîne alimentaire jusqu’aux poissons. Les bancs d’anchois et de sardines, principales espèces pêchées dans ces deux pays et représentant l’essentiel de leurs revenus, disparurent fuyant les eaux chaudes. Au total, les dommages, pour l’Équateur et le Pérou les deux pays principalement touchés par le phénomène El Niño, ont été estimés à près d’un milliard de dollars.
Á l’autre extrémité du Pacifique, l’Indonésie et les Philippines, privés des précipitations associées à la convection atmosphériques qui a suivi les eaux chaudes vers le centre et l’est du bassin Pacifique, ont été affectées par des incendies de forêt dévastateurs, conséquence d’un déficit hydrique prononcé. Une sécheresse sévère s’est ainsi installée limitant considérablement les récoltes de riz et entraînant des malnutritions et des famines responsables de plusieurs centaines de morts pour cette région, ainsi que des incendies de forêt gigantesques pendant plusieurs mois, se propageant dans l’humus des sols. L’estimation financière des dommages causés dans ces régions dépasse le demi milliard de dollars.
Par ailleurs, cette sécheresse, coïncidant avec une période de récession économique, a entraîné un énorme déficit de la balance commerciale extérieure de l’Indonésie et poussé le pays dans une spirale de dettes dont il n’est sorti que plusieurs années plus tard. L’Australie, dans sa partie tropicale nord, a été également affectée par la sécheresse, la pire qu’elle ait connue depuis un siècle, chiffrant ses dommages à plus de 100 millions de dollars, tandis, qu’au contraire, les atolls du Pacifique central (îles Marshall, Gilbert, Christmas), où avaient migré les eaux chaudes et la convection atmosphérique, ont été frappées par des pluies diluviennes et des cyclones.
Au-delà de la zone du Pacifique équatorial directement affectée par le phénomène El Niño, le sud-est des États Unis a bénéficié d’un hiver 1982-83 particulièrement doux et chaud et a pu économiser ainsi près de 500 millions de dollars, mais de violentes tempêtes le long des côtes du sud de la Californie ont causé des dégâts considérables aux habitations proches de la mer avec des glissements de terrains spectaculaires qui firent la une des journaux américains pendant des mois. Les États du centre et du nord des États-unis furent affectés par des sécheresses intenses mettant à mal les cultures de maïs et de soja, tandis que les États du Sud, au contraire, furent soumis à des inondations catastrophiques. Au total les États Unis estiment que les dégâts de cet épisode El Niño 1982-1983 se chiffrent pour leur pays à plus de deux milliards de dollars et plusieurs centaines de victimes.
Le Nordeste brésilien a aussi été affecté par une grande sécheresse qui a causé une réduction des récoltes amenant les habitants de cette région au bord de la famine avec comme conséquences des mouvements importants de populations des campagnes vers les grandes villes de la côte est. En Afrique c’est surtout le Sahel, et particulièrement sa façade occidentale, qui a été affecté par une sécheresse amplifiant celle du précédent épisode El Niño de 1972-1973 et renforçant en le prolongeant un épisode de déficit hydrique à long terme le plus marqué de puis près d’un siècle. L’Afrique du sud fut aussi touchée par une grande sécheresse qui frappa tous les pays de la région : Zimbaoué, Mozambique, Angola, Zambie et République Sud Africaine ; ces pays habituellement producteurs de céréales durent la survie d’une partie de leurs populations à des importations massives. Enfin des régions comme la Chine ou le nord du Canada, ainsi que l’Europe occidentale ont été aussi inclus dans la liste des zones affectés par El Niño, peut-être abusivement selon certains car les tentatives de corrélations statistiques ont montré des niveaux de signification assez bas. Au total l’estimation immédiate des dommages de cet El Niño 1982 – 1983 réalisée par la NOAA et Glantz a été de 13 milliard de dollars de dégâts et plus de 2 000 décès. Mais avec un recul de quelques années, l’impact économique est jugé beaucoup plus important à long terme et a conduit à doubler, voire tripler, le bilan de ces dommages, car des secteurs comme la santé et certaines ressources comme la pêche peuvent réagir avec un temps de réponse bien au-delà de la durée de l’événement climatique lui-même.
Cependant, tous les effets de ces accidents climatiques ne sont pas négatifs. On a vu que certaines régions, comme la côte sud-ouest des États Unis, pouvaient jouir d’un hiver clément pendant un El Niño, conduisant à des économies d’énergie, notamment de chauffage. De même, la phase froide de l’oscillation, La Niña, est considérée comme moins pénalisante, voire même bénéfique pour certains de ses impacts. Ainsi durant un épisode La Niña des eaux froides et riches en sels nutritifs remontent des profondeurs au large du Pérou et de l’Équateur et repoussent les eaux chaudes vers le Pacifique central. Ces eaux de surface très productives biologiquement, contribuent à régénérer les stocks de poissons pélagiques et donc les capacités de pêche de ces pays.
3- Impacts, adaptation et atténuation du changement climatique
ENSO et ses impacts en coûts économiques et humains, est resté l’exemple historique illustrant les rapports étroits et complexes entre un phénomène climatique et la vie des sociétés humaines soumises à cet aléa. Mais au-delà des études d’impacts, les scientifiques, à la demande des politiques et de leurs gouvernements, se sont rapidement penchés sur les questions soulevées par les nécessités de l’adaptation à cette variabilité climatique. Et l’adaptation passait évidement en premier par la prévision. C’est encore ENSO qui fut à l’origine des premières tentatives d’adaptation à ces phénomènes climatiques brutaux.
3- 1 Un premier exemple d’adaptation : Le cas ENSO
On a vu (Chapitre VI) que les premiers modèles océaniques des années 1970 ont vu le jour dans le Pacifique intertropical justement pour mieux comprendre et prévoir ENSO. Au début on réalisa des modèles très simples, schématisant l’océan tropical par seulement 2 couches, appelés pour cela «shallow-water» ; puis vinrent les premiers modèles couplés entre l’océan et l’atmosphère avec l’ambition affirmée de prévoir l’oscillation climatique ENSO pour permettre aux responsables gouvernementaux des pays les premiers touchés, principalement le Pérou et l’Équateur, de prendre des dispositions en conséquence. C’est en 1991 que le premier modèle couplé mis en œuvre par deux chercheurs américains : Mark Cane et Stephen Zebiak, réalisa une prévision à 12 mois d’échéance.
Le modèle prédit un El Niño de forte intensité pour janvier 1992. La prévision s'avéra exacte, mais le succès de ce modèle fut peut-être en partie dû au hasard car malheureusement il ne fut pas confirmé et il fallut attendre des modèles plus sophistiqués, à haute résolution, pour obtenir une meilleure fiabilité de la prévision. Les autorités du Pérou en furent cependant informées et elles prirent des mesures de protection de leurs populations et de leurs infrastructures et prodiguèrent des conseils à leurs agriculteurs sur les cultures à privilégier (riz plutôt que coton en périodes arrosées) ainsi qu’à leurs pêcheurs. La prévision permit au gouvernement du Pérou d’atténuer considérablement le choc de l’arrivée d’un des plus puissants El Niño du XXème siècle, au moins par sa durée (deux années d’anomalies thermiques positives en 1992-1993).
Plus tard le problème de la prévisibilité théorique de cette oscillation météo-océanique se posa dans le contexte de la théorie du chaos. Est-il possible de prévoir longtemps à l’avance vers quel pôle, chaud ou froid, l’oscillation va converger ? La réponse à cette question est restée longtemps incertaine et il semble que la prévision du système ne soit possible que s’il est déjà engagé vers un des pôles, chaud (El Niño) ou froid (La Niña) ; ce qui raccourcit considérablement l’échéance de la prévision.
Les économistes estimèrent que l’exactitude de cette prévision avait permis au pays d’économiser 50% du coût total des dégâts constatés en pareille circonstance lorsque cet événement n’est pas prévu comme ce fut le cas pour l’événement de 1982-1983.. En 1992, pour la première fois, on croyait donc avoir réussi à lier avec succès science et décisions gouvernementales, voire politiques, en passant par des évaluations économiques autour d’un événement climatique dont on connaissait certes les caractéristiques générales mais dont l’imprévisibilité avait toujours eu des conséquences malheureuses sur les populations dans le passé. Il devenait ainsi possible en théorie d’atténuer les impacts de cet événement climatique. Force est toutefois de reconnaître que les tentatives de prévisions qui ont suivi ont toutes échoué, la dernière récemment en 2014. Ce succès fut cependant salué par les medias et amena les pays les plus impliqués dans l’étude du phénomène ENSO, sous l’impulsion de l’OMM et des États Unis, à proposer la création en 1996 d’un institut international de prévision du climat : «International Research Institut for Climate Prediction - IRI». Cet institut avait pour objectif de développer une prévision de la variabilité interannuelle du climat, principalement dans les basses latitudes, en analysant et en synthétisant les prévisions établies par une dizaine de centres de recherche à l’aide de modèles couplés ou de modèles statistiques utilisés dans un mode pré-opérationnel. Au-delà de ces prévisions, l’objectif principal de ce centre international était tourné vers les applications des prévisions dans les différents domaines (santé, agriculture, protection des infrastructures….) affectant la vie et l’économie des pays soumis à ces aléas. Le slogan de l’IRI : «Linking science to society» était de ce point de vue significatif d’un pas important accompli vers l’adaptation. Mais, si on est maintenant en mesure de s’adapter partiellement aux caprices d’El Niño, ce n’est pas encore le cas pour le changement climatique global, qui pose un problème d’une toute autre dimension. Les politiques d’adaptation et d’atténuation du réchauffement climatique global, sont encore au stade de leur énoncé et font l’objet de débats passionnés, notamment au sein des COP, comme on en a rendu compte au chapitre précédent. Cependant les impacts de ces changements commencent à se faire sentir et les derniers rapports du GIEC en rendent compte.
3-2 Les premiers impacts perceptibles du changement climatique
Les rapports 3 (2001) , 4 ( 2007) et 5 (2014) du GIEC sont sans équivoque.
Il y a bien, à l’échelle du globe :
une hausse des températures moyennes de l’atmosphère et de l’océan qui s’accélère,
une fonte massive de la neige et de la glace des régions arctiques
et une élévation du niveau moyen de la mer.
Á l’exception de 1998 les dix années les plus chaudes depuis 134 ans ont eu lieu depuis 2000. Alors que dans le troisième rapport de 2001 on estimait le réchauffement à 0,6°C entre 1901 et 2000, un glissement de cinq années, sur la période s’étendant de 1906 à 2005, fait apparaître, dans le quatrième rapport de 2007, un réchauffement de 0,74°C.
Les températures ont augmenté presque partout dans le monde avec un maximum de près de 2° C dans les latitudes élevées de l’hémisphère nord.
L’élévation du niveau moyen des océans est parallèle à la tendance au réchauffement ; il s’est élevé de 1,8 mm/an jusqu’en 1962, de 3,1 mm/an jusqu’en1993 et de 3,26 mm/an de 1993 à 2013, marquant ainsi une accélération impressionnante dû à une double cause : la dilatation de la masse liquide sous l’effet de son réchauffement et l’augmentation de sa masse par la fonte des glaciers continentaux, Groenland et Antarctique principalement.
La diminution des surfaces englacées est également corrélée avec le réchauffement ; plus marquée dans l’arctique que dans l’Antarctique où la tendance serait plutôt inverse, cette déglaciation est spectaculaire et ouvre de nouvelles routes de navigation au nord du Canada et de la Sibérie. Ainsi l’année 2012 fut marquée par un record d’extension minimum de la banquise qui ne fut que de 3,4 millions de km2 en septembre, ce qui représentait une réduction de près de 30% par rapport à l’extension moyenne des années 1981-2010.
Les rapports du GIEC mentionnent également que le régime des précipitations s’est modifié entre 11024 et 2005 ; elles ont fortement augmenté dans l’Est de l’Amérique du Nord et du Sud, dans le Nord de l’Europe et de l’Asie ainsi que dans le centre de l’Asie ; par contre elles ont diminué au Sahel, sur le pourtour méditerranéen, en Afrique Australe et partiellement en Asie du Sud-Est.
Les observations semblent mettre en évidence une augmentation de l'activité des cyclones dans l'Atlantique nord depuis 1970, mais elles ne permettent pas de conclure à une influence directe possible du changement climatique anthropique sur l'activité cyclonique.
Des évolutions diurnes du temps ont aussi été constatées dans les régions tempérées. Les nuits froides accompagnées de gel sont moins fréquentes, tandis qu’au contraire des nuits chaudes sont plus fréquentes.
La fréquence de phénomènes météorologiques extrêmes comme des précipitations orageuses intenses générant des inondations brutales ou des périodes de canicule prolongées s’est également accrue. Des évolutions saisonnières sont aussi constatées telles que celles affectant les systèmes hydrologiques perturbés par l’intensité du ruissellement et la précocité des crues de printemps conséquence de la fonte prématurée de la neige et des glaciers. De même les écosystèmes terrestres présentent des évolutions saisonnières telles que le caractère hâtif du débourrage des arbres et de leur floraison printanière ainsi que les dates des migrations animales, les plus spectaculaires étant celles des oiseaux. Des évolutions interannuelles apparaissent aussi dans le milieu vivant en réponse au réchauffement : des écosystèmes végétaux et animaux migrent en direction des pôles ou en altitude pour trouver des conditions environnementales plus favorables correspondantes à celles qu’ils connaissaient antérieurement. Des migrations semblables affectent aussi le milieu marin où les aires de répartition des espèces de poissons se modifient, bien que d’autres causes expliquant ces mouvements de populations marines puissent être invoques comme la pollution et la surpêche mettant en péril certaines espèces.
3-3 Les politiques d’adaptation
Une adaptation au changement climatique est en cours dans certains pays mais elle est encore très limitée. De tous temps les sociétés ont appris à s’adapter aux aléas météorologiques et climatiques. Mais le changement climatique actuel, du fait notamment de sa rapidité et de son caractère global, fait peser des risques nouveaux qui vont bien au-delà des expériences d’adaptations acquises antérieurement dans les domaines de l’agriculture, de la gestion de l’eau, des événements météorologiques extrêmes : inondations, sécheresses, notamment ceux d’ENSO décrits précédemment. Il est par ailleurs difficile d’isoler des adaptations liées spécifiquement aux changements climatiques de certains ajustements répondant à des politiques locales d’adaptation à des risques variés. C’est ainsi que les économistes sont encore incapables de faire des estimations exhaustives des coûts et des bénéfices des mesures d’adaptation au changement climatique, même les plus immédiates et les moins coûteuses. Ceci tient en partie au fait que les capacités d’adaptation sont très inégalement réparties entre les sociétés et à l’intérieur même de ces sociétés et qu’un long travail serait nécessaire pour aboutir à des estimations complètes et multisectorielles de ces coûts. Mais en prenant un peu de hauteur dans l’examen de ces questions on peut constater qu’il existe des liens étroits entre adaptation au changement climatique et développement durable. D’un coté la vulnérabilité au changement climatique est très liée au niveau de développement d’un pays et aux politiques adoptées pour tel ou tel schéma de développement. Mais, d’un autre coté, les politiques d’adaptation (et d’atténuation) peuvent avoir un impact positif sur le développement et le rendre plus durable.
Ceci conduit, en termes d’orientations politiques, à deux choix stratégiques possibles :
Le choix de politiques privilégiant «Le climat d’abord» en intégrant le développement dans ce cadre. C’est ce que préconisent pour le futur les mouvements écologiques d'une majorité de pays développés.
Le choix de politiques privilégiant au contraire « Le développement d’abord », ce que préconisent une majorité de pays en développement ; les facteurs conduisant à l’adaptation et à l’atténuation du changement climatique s’intègrent alors dans le développement durable.
Lier la question du changement climatique, avec ses réponses en terme d’adaptation et d’atténuation, au développement plutôt qu’à l’environnement seul, peut permettre à certains pays, notamment ceux qui sont en développement, de mieux faire face aux défis qui leurs sont imposés.
3-4 Les politiques d’atténuation
La question de l’atténuation du changement climatique, c'est-à-dire des mesures qui permettraient de limiter ce changement, est encore plus intimement liée au développement que ne l’est celle de l’adaptation. Bien que l’opposition première entre environnement et développement soit en partie dépassée, il est clair que les politiques visant à une atténuation du changement climatique sont en prise directe, sinon en opposition, avec celle du développement. L’ajout fréquent du qualificatif de «durable» au mot «développement» ne fait que tenter de masquer l’opposition sous jacente toujours existante entre développement et environnement. Néanmoins ces questions se posent pour tous les pays, autant ceux qui sont en développement que ceux déjà développés. Cette relation entre développement et capacité d’atténuation du changement climatique peut être appréhendée dans deux sens opposés :
Dans un sens on accorde une attention prioritaire à la vulnérabilité aux changements climatique vis-à-vis du développement. On considère alors que cette vulnérabilité est en partie dépendante du type de développement, de son niveau, de ses revenus par habitant. Ainsi plus un pays serait développé plus il serait vulnérable au changement climatique.
Dans l’autre sens, on privilégie le développement ; un haut niveau de développement offre des possibilités techniques pour trouver des sources d’énergies non dépendantes du carbone fossile (pétrole, charbon…) et donc susceptibles à long terme d’atténuer l’impact des activités humaines sur le changement climatique en stoppant, ou réduisant fortement, ses émissions de gaz à effet de serre.
Sous cet angle de vue, plus un pays est développé plus il possède de moyens de trouver de nouvelles ressources énergétiques non polluantes et ainsi de contribuer, très en amont, à maîtriser le changement du climat. A contrario, un bas niveau de développement rend plus difficile, voire impossible sans aides spécifiques, cette substitution de ressources énergétiques pour des pays dont le développement est impératif et le besoin d’énergie très pressant, quel que soit son origine. Une abondante littérature économique a tenté d’identifier des approches méthodologiques permettant d’analyser en profondeur les interactions entre le développement durable et les réponses au changement climatique dans les deux sens opposés explicités plus haut. Pour certains auteurs le concept de développement durable est à prendre en compte en premier pour encadrer et traiter de façon conjointe toutes les questions possédant des dimensions humaines, sociales, environnementales, ou économiques. Il est alors possible de ramener ces dimensions à un certain nombre d’indicateurs, ou d’index, économiques, environnementaux, humains et sociaux qui permettent d’évaluer les effets, ou les impacts, de telles ou telles politiques publiques liées au développement durable. Mais de tels modèles d’aide à la décision n’ont de valeur que si les incertitudes qui affectent certains paramètres en cause ont été évaluées et traitées. Ces incertitudes relèvent de situations particulières où les données pertinentes sont fragmentaires ou absentes, ce qui peut être le cas lorsque les facteurs humains sont déterminants. Le GIEC a abondamment illustré la question de l’atténuation, pour les paramètres physiques définissant le climat ; comment atténuer ou réduire l’élévation de la température, le niveau de la mer, le régime des précipitations, que les modèles nous prédisent pour la fin du siècle et dans lesquels les incertitudes humaines, en termes d’émissions de gaz à effet de serre, ont été introduites. Ces incertitudes sur les émissions s’étagent sur un large éventail allant d’une division par 4 (humanité sage) à une multiplication par 4 (humanité irresponsable) des émissions par rapport à ce qu’elles étaient en 1990. Les prévisions de la température moyenne qui en résultent varient de 1,4°C à 5,8°C.
On voit donc qu’il est possible pour l’humanité d’avoir une action sur l’atténuation du changement climatique. Mais cette atténuation ne sera perceptible qu’à une échéance assez lointaine, distante d’une trentaine d’années, après qu’une baisse notable des émissions ait été réalisée. C’est au titre d’une tentative de baisse des émissions à partir de 2020, pour amorcer une décroissance des températures à l’échéance intermédiaire du milieu du siècle (2050), que de vives discussions sont en cours (Voir les réunions des COP … chapitre XI) pour tenter de parvenir à un accord qui prolongerait les accords de Kyoto arrivant à échéance en 2012. Ce protocole de Kyoto n’ayant pas été suivi, bien au contraire, d’une réduction des émissions, ses objectifs n’ont pas été atteints. L’enjeu officiel actuel est de limiter le réchauffement moyen de la planète à 2°C en 2050 avant d’amorcer la décroissance ; pour cela les émissions doivent être progressivement réduites très substantiellement par rapport à ce qu’elles étaient en 1990. Mais en 2014 on est encore très loin d’un accord tant les oppositions entre les différents groupes de pays sont fortes ; le pessimisme reste (en 2014) le sentiment dominant après la réunion désastreuse de la COP 15 à Copenhague en décembre 2009 (chapitre XI). Néanmoins la COP 21 de Paris en novembre-décembre 2015 pourrait être le départ d’une prise de conscience de la gravité de la situation et d’actions concrètes enfin acceptées par une majorité de pays.
3-5 Les scénarios socio-économiques du GIEC
Mais comment en est on arrivé à ces chiffres permettant de définir l’effort à fournir en terme de réduction des émissions de gaz à effet de serre (GES) pour un plafond de réchauffement limité à une température moyenne du globe de 2°C ?
On a vu qu’il existait une panoplie de modèles physiques complexes capables de simuler l’évolution du climat à partir de données sur les émissions de carbone. Les prévisions de ces modèles font état d’une large incertitude ; pour la température moyenne, par exemple, à l’échéance de la fin du XXème siècle cela va de 1,4°C à 5,8°C (4ème et 5ème rapport du GIEC).
La grande diversité de ces prévisions tient à deux facteurs:
La diversité des processus physiques pris en compte dans chaque modèle inhérente aux insuffisances de connaissance des mécanismes physiques régissant le climat ;
et surtout les différents scénarios d’émission qui reflètent les comportements futurs de l’humanité.
Ce qui importe surtout et qui constitue la donnée initiale d’entrée dans les modèles de prévision c’est la concentration en GES de l’atmosphère. Elle peut être calculée à partir de l’histoire, ou l’intégrale en terme mathématique, des émissions depuis une date de référence donnée (1990) en supposant connus les temps de résidence de ces gaz dans l’atmosphère. Le problème se ramène donc à prévoir les taux d’émission en fonction du temps. C’est à ce niveau qu’entrent en jeux des modèles socio-économiques qui pourraient permettre d’élaborer un ensemble de scénarios possibles d’émission en fonction des nombreux facteurs jalonnant l’évolution des sociétés : la démographie, les modes de développement, les avancées technologiques … etc. Tous ces facteurs sont importants et conditionnent en partie les émissions de GES. Beaucoup sont difficilement prévisibles et des ruptures brutales dans les tendances socio-économiques, énergétiques et technologiques pourront se produire rendant ces projections sur l’avenir très incertaines. Néanmoins des modèles économiques sont construits pour pouvoir estimer les émissions de GES dans les différentes situations socio-économiques correspondant à ces scénarios. Ces constructions de scénarios d’émissions possibles ont débuté en 1990 et ont attiré l’attention du GIEC qui a produit un rapport spécial sur le sujet : le SRES, pour «Special Report on Emission Scenario». Ce rapport spécial a rassemblé dans le rapport IV du GIEC de 2007 ces scénarios en 4 grandes catégories se diversifiant en une quarantaine de variantes au total. Ce sont ces quarante scénarios socio-économiques sur lesquels se sont appuyés la vingtaine de modèles climatiques qui ont tenté de cerner avec le plus de précision possible l’évolution du climat pour la fin du siècle. Le cinquième rapport du GIEC de 2014, dans un nouveau rapport spécial sur les «Representative Concentration Pathways – RCP» a élaboré de nouveaux scénarios qui fixent a priori différents niveaux de déséquilibres énergétiques et leurs niveaux de concentration en GES compatibles. C’est seulement à partir de ces concentrations en GES qu’ont été déterminés des scénarios d’émission de GES qui en retour permettent maintenant de calculer des scénarios socio-économiques compatibles. Cette double diversité, à la fois des scénarios d’émission et des modèles physiques, explique le large éventail des prévisions.
3-6 Entre science et politique les relations se compliquent
Avec les concepts d’adaptation et d’atténuation on est à la charnière de la science et de la politique. On a vu précédemment que le fonctionnement du GIEC fait intervenir des représentants nationaux pour la mise au point définitive des rapports qu’il produit lors de ses assemblées plénières annuelles. Celles-ci associent des centaines de participants : scientifiques, représentants gouvernementaux, associations…etc. Au-delà de la pure expertise scientifique, ces rapports incluent donc un certain point de vue des politiques, notamment dans les rapports II et III traitant respectivement de l’adaptation aux impacts du changement climatique et de l’atténuation par des mesures appropriées. Par ailleurs le GIEC délivre et commente ses expertises aux réunions annuelles des COP « Conference Of Parties », organe directeur de la « Convention-Cadre des Nations Unies sur le Changement Climatique – CCNUCC – UNFCCC en anglais» qui a été signée lors de la conférence de RIO en 1992 et ratifiée plus tard par plus de 160 pays. Les réunions des COP, dont on a rendu compte au chapitre précédent, sont des forums de négociations internationales sur le changement climatique, souvent agités et parfois confus, destinées à suivre et promouvoir les applications de la convention-cadre. C’est ainsi que le protocole de Kyoto est issu de la COP 3 qui s’est tenue à Kyoto en décembre 1997. Les débats qui se tiennent aux rassemblements des COP sont avant tout politiques. Les acteurs de ces réunions annuelles sont nombreux et divers comprenant des scientifiques et des représentants gouvernementaux délégués par leur pays, mais aussi des représentants de nombreuses ONG, parmi les plus connues : Greenpeace, WWF, les amis de la Terre,… etc. Sont également présents des représentants des institutions scientifiques nationales et internationales, de l’industrie et de lobbies divers. Au total ces réunions annuelles peuvent rassembler plusieurs milliers de participants dans ce qui peut être qualifié d’une «foire au climat» entre science, intérêts catégoriels multiples, groupements de pays motivés principalement par la défense de leurs intérêts, et gouvernance globale. Dans ces assemblées, les «savants» côtoient des politiques, des négociateurs et aussi des membres de la société civile, sur un théâtre de plus en plus hétérogène où se jouent simultanément plusieurs pièces sur la même scène.
Le GIEC a dû faire face, dès son origine, en 1988, à des problèmes, que l’on peut qualifier de croissance, lorsque certains pays du Sud, loin de voir le changement climatique comme un problème global s’adressant à tous les pays de la planète, le perçurent comme étant avant tout celui des pays du Nord, et de leurs scientifiques, inquiets de leur surconsommation énergétique. Prenant conscience de la dimension politique du problème, les pays du Sud décidèrent alors en 1991 de créer un organisme séparé du GIEC pour prendre en charge les négociations politiques sur le sujet : ce fut le «Comité Intergouvernemental de Négociation – CIN» ; en anglais : «Intergovernmental Negociating Committee – INC». Ainsi la distance entre science et politique s’élargissait. Le GIEC, pour atténuer ces tensions, tenta alors de réorganiser sa structure pour se donner l’image d’un organisme purement scientifique excluant toutes prises de positions politiques. Mais ceci ne désarma pas la méfiance des gouvernements des pays du Sud à son égard, de telle sorte que lors de la signature de la Convention-Cadre des Nations Unies sur le Changement Climatique (CCNUCC) à Rio en 1992, ils proposèrent qu’un organe subsidiaire, le : «conseil scientifique et technique auxiliaire et d’évaluation» ; en anglais : «Subsidiary Body for Scientific and Technical Advice - SBSTA» soit créé ; ce qui fut fait en 1995 et, après beaucoup de discussions, rassembla 192 pays.
Les pays du Sud avaient ainsi réussi à isoler et extraire du champ des compétences du GIEC, les questions politiques liées au changement climatique. Par la suite l’INC et le SBSTA vont servir de tampon entre les scientifiques, représentés au GIEC, et les négociateurs politiques. Les missions du SBSTA recoupent celles du GIEC , mais son objectif principal est de fournir directement des avis aux gouvernements en s’appuyant sur le socle des connaissances scientifiques apportées par le GIEC.
Ainsi l’article 9 de la Convention-Cadre qui porte sur le SBSTA stipule entre autre que : «L’organe, agissant sous l’autorité de la Conférence des Parties (COP) et s’appuyant sur les travaux des organes internationaux compétents, a pour fonction : a) de faire le point des connaissances scientifiques sur les changements climatiques et leurs effets ; b) de faire le point, sur le plan scientifique, des effets des mesures prises en application de la Convention
Ainsi le SBSTA s’inscrit entre le GIEC et les gouvernements assumant les clivages proprement politiques découlant de l’expertise scientifique et se positionne comme un médiateur entre science et politique. Ce rôle du SBSTA a inévitablement créé des tensions au sein des différentes « instances climatiques » notamment avec le GIEC, mais en revanche il a ouvert l’étendue du dispositif institutionnel et offert un chaînon manquant entre science et politique. Comme le dit l’historienne des sciences Amy Dahan Dalmedico : «Le SBSTA, organisme qui fait le lien entre les gouvernements et le GIEC, assume l’expression politique des controverses apparues au sein des et des forums qui les accompagnent».
Ainsi les inévitables tensions surgissant au fil des jours entre la science qui faisait progresser la connaissance des mécanismes intimes du changement climatique, particulièrement les sciences physiques (pour ne pas dire dures), les plus difficilement contestables, et la politique, eurent tendance à se distancer à la fois au niveau des Etats et au plan international. C’est cette distanciation progressive des deux pôles encadrant la question climatique, connaissance et action politique, qui fut à l’origine d’une complexification des mécanismes de coordination et de débat et suscita la création d’instruments tels que le SBSTA qui s’ajoutait aux COP et autres MOP,… Ces nouveaux instruments s’intercalèrent entre les instances scientifique et politiques qui jalonnent la question climatique avec d’autant plus de facilité que les sciences socio-économiques avaient déjà ouvert la voie et trouvé leur place en apportant un maillon scientifique intermédiaire entre sciences physiques « dures » et négociations politiques.
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.