Pour autant, ces décisions du monde politique répondent-elles fidèlement à l’ampleur du risque climatique ? Dans ma thèse, j’ai étudié les travaux du GIEC et leur utilisation par le monde politique.
J’en ai tiré une conclusion : les politiques climatiques reposent sur une simplification extrême du savoir scientifique, réduite à quelques chiffres. Et c’est dangereux, car cela va de pair avec une sous-estimation des risques.
Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ». Abonnez-vous dès aujourd’hui.
La difficile traduction des évaluations scientifiques en objectifs chiffrés
La COP26, tenue en 2021, s’est conclue par le Pacte de Glasgow où, pour la première fois, un accord politique international s’appuyait sur de tels chiffres. Cet accord portait sur :
-
l’objectif d’une réduction des émissions de dioxyde de carbone de 45 % en 2030 par rapport à 2010,
-
et sur l’objectif de neutralité carbone en 2050 (c’est-à-dire, des émissions nettes de CO2 nulles, autrement dit la compensation des émissions anthropiques de CO2 par une captation d’un montant équivalent).
Ces deux objectifs devenaient, dès lors, la référence adoptée par les politiques au plan international en vue de ne pas dépasser un réchauffement de 1,5 °C en 2100 par rapport à l’époque préindustrielle. Le pacte de Glasgow complétait ainsi l’accord de Paris qui avait introduit l’objectif de 1,5 °C, aux côtés de celui de 2 °C, déjà introduit en 2009 lors de la COP15 tenue à Copenhague.
Deux ans plus tard, la COP28, tenue à Dubaï, reprenait dans sa conclusion l’accent mis à Glasgow sur l’objectif 1,5 °C, et en faisait la mise à jour sous la forme de trois objectifs chiffrés :
-
« réduire les émissions de gaz à effet de serre de 43 % entre 2019 et 2030 […] »
-
« […] de 60 % entre 2019 et 2035 […] »
-
« […] et parvenir à des émissions nettes de dioxyde de carbone nulles d’ici à 2050 ».
Les deux objectifs politiques de réduction d’émission de CO2 de Glasgow trouvent leur source dans le rapport spécial sur un réchauffement de 1,5 °C publié en octobre 2018 par le GIEC. Les trois objectifs de Dubaï, quant à eux, trouvent leur source dans le 6ᵉ rapport d’évaluation du GIEC, dont les différentes parties ont été publiées entre 2021 et 2023.
Toutefois, une lecture de ces rapports du GIEC permet de constater que ces objectifs ne sont qu’une libre traduction politique de scénarios climatiques de ces rapports. Comprendre : ils n’en sont nullement une traduction scientifique.
Le problème de cette traduction politique, c’est qu’elle omet de prendre en considération que les modélisations climatiques utilisées pour établir ces scénarios laissent de côté des phénomènes potentiellement amplificateurs du réchauffement climatique.
[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Des « bombes climatiques » qui ajoutent à l’imprévisibilité
Parmi ces phénomènes, trois ont particulièrement attiré mon attention, car ils présentent le risque d’aggraver le changement climatique. Ce sont :
-
la désagrégation d’hydrates de méthane des fonds marins (un hydrate de méthane est constitué d’une molécule de méthane et d’une cage de glace où cette molécule est piégée)
Chacun de ces trois phénomènes est susceptible d’émettre massivement du méthane et du CO2 dans l’atmosphère. Chacun d’entre eux pourrait ainsi devenir la cause d’une accélération du réchauffement climatique, laquelle viendrait en retour intensifier ces phénomènes et leurs émissions de gaz à effet de serre, d’où une accélération supplémentaire du réchauffement. Il existe ici un risque réel de boucles de rétroactions positives – autrement dit, de cercles vicieux.
Dans ma thèse, j’ai montré pourquoi dès le XXIe siècle ces trois phénomènes pris dans leur ensemble, qui plus est combinés avec d’autres phénomènes non pris en compte par les scénarios, présentent le risque d’enclencher un emballement climatique. Pourtant, ces trois phénomènes sont totalement ignorés lors de l’élaboration des scénarios du GIEC. Cela en raison de leur haut niveau d’imprévisibilité et de la difficile quantification de leurs futures émissions de gaz à effet de serre (GES).
Le bouleversement en cours de la vie dans les mers et océans est particulièrement éclairant. Il pourrait avoir des conséquences importantes sur le climat, car le rôle du vivant marin est majeur sur la composition de l’atmosphère et en particulier pour réguler la composition en CO₂ de l’air. Les mers et océans subissent en effet de plein fouet le réchauffement climatique ainsi qu’un ensemble d’autres perturbations anthropiques, comme l’acidification. La combinaison de ces perturbations crée un environnement du vivant marin inédit, si bien que ce dernier entre en zone inconnue. Son évolution d’ici à la fin du XXIe siècle est largement incertaine et présente le risque d’occasionner un surplus important de GES dans l’atmosphère.
La quantophrénie, ou les limites de la quantification
Pourquoi le politique néglige-t-il ces éléments ? D’abord en raison de la méthode de décision par consensus entre les États. Mais aussi, d’après moi, en raison d’un biais quantophrénique. La quantophrénie est un biais de la pensée aujourd’hui très présent au sein des sociétés humaines, en particulier chez les décideurs politiques et économiques, mais aussi chez de nombreux scientifiques.
Ce terme trouve son origine dans « Fads And Foibles In Modern Sociology And Related Sciences ». Cet ouvrage, publié en 1956, a pour auteur le sociologue Pitrim Sorokin, fondateur du département de sociologie de l’Université de Harvard.
J’ai opéré un élargissement de son usage hors des Sciences humaines et sociales (SHS), et l’ai définie comme :
« la tendance à limiter les représentations des phénomènes ou objets aux seules représentations quantifiées, à nourrir les processus de décision politique de ces seules représentations quantifiées, et à largement utiliser des critères quantitatifs comme outils de la mise en œuvre et de l’évaluation des politiques publiques et du travail ».
Cette tendance, qui se déploie au détriment des formes de savoir non quantifié, a été documentée par de nombreux spécialistes. Quelques exemples, de façon non exhaustive :
-
Ida Hoos démontrait en 1979 que les modèles quantifiés utilisés pour évaluer des technologies ne prenaient pas en considération les implications institutionnelles, sociales et sociétales, et n’étaient pas fiables pour évaluer l’avenir incertain.
-
En 1993, Alain Desrosières exposait le développement de l’usage des outils statistiques et probabilistes au cours de l’histoire moderne.
-
En 2008, Wendy Nelson Espeland et Mitchell Nelson observaient les conséquences politiques, sociales et culturelles de la quantification des phénomènes sociaux.
-
En 2011, j’ai publié un ouvrage (2011) qui s’intéressait aux conséquences de la quantophrénie en termes de déshumanisation des rapports sociaux, de rapports de domination et d’absence de prise en compte de l’imprévisible.
-
En 2015, Alain Supiot explorait l’usage des nombres dans la gouvernance des populations, laquelle se substitue au gouvernement et fait surgir des liens d’allégeance oligarchique.
-
Plus récemment en 2019 et 2020, David Demortain explorait la quantification de l’action publique et Olivier Martin dressait une histoire de la quantification, de ses usages et de ses implications sur les sociétés humaines, de la préhistoire à nos jours, du comptage du bétail à l’algorithmique.
Le « reste causal » pour penser l’imprévisible
En effet, toute quantification repose sur un ou plusieurs aspects d’un phénomène ou objet étudié. Elle laisse donc sur le côté les aspects non pris en compte. C’est pourquoi j’ai introduit dès ma thèse la notion de reste associé à une quantification. Puis je l’ai déclinée en une notion de « reste causal », que j’ai appliquée aux scénarios du GIEC. Ce « reste causal », associé à un scénario chiffré d’évolution future d’un phénomène donné, regroupe l’ensemble des phénomènes qui influenceront ou pourraient influencer cette évolution, mais qui ne sont pas pris en compte par le scénario.
Il est à noter que la mission du GIEC est d’évaluer la littérature scientifique disponible. Ainsi, les scénarios dits « du GIEC » ne sont pas élaborés par le GIEC, mais par des institutions de recherche. Le reste causal associé résulte de contraintes méthodologiques.
Dans le cas de ces scénarios, le reste causal contient un certain nombre de phénomènes identifiés scientifiquement, imprévisibles dans leur ampleur et leur temporalité, porteurs du risque d’une amplification du réchauffement dont les dommages pourraient être graves et irréversibles. Parmi ces phénomènes se trouvent les trois sources naturelles de gaz à effet de serre présentées plus haut.
Ce que cela signifie pour les politiques climatiques
Les objectifs politiques des COP26 et 28 constituent des avancées notables du consensus de l’ensemble des nations. Ces objectifs sont chiffrés, ce qui n’est guère surprenant dans le contexte de quantophrénie particulièrement prégnant dans le champ politique. Toutefois, ils reposent sur une quantification qui ne prend pas en considération un reste causal chargé d’imprévisibilité, non quantifiable et porteur d’une menace majeure.
Une politique d’atténuation du changement climatique au plus proche de l’ensemble des connaissances scientifiques disponibles doit prendre en considération les phénomènes du reste causal associé aux scénarios du GIEC. Par conséquent, une telle politique doit viser des objectifs de réduction des émissions de GES plus ambitieux que ceux de la COP28. De plus, elle doit assurer une protection des mers et océans et, au plus vite, réduire les perturbations anthropiques de ces derniers.
Prioriser l’action sur les points les plus imprévisibles, tout en prenant en compte les scénarios climatiques publiés par le GIEC, ce sont les conditions nécessaires pour réduire au maximum le risque d’un emballement climatique, dont les dommages pour l’humanité seraient irréversibles et d’une extrême gravité.
Marc Delepouve, Chercheur associé au CNAM, Docteur en épistémologie, histoire des sciences et des techniques, Conservatoire national des arts et métiers (CNAM)
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.