• Climat

Dans une vidéo virale, le youtubeur “Le Raptor” enchaîne les erreurs pour nier l’influence des activités humaines sur le climat

Posté le : 4 Oct 2024

À RETENIR

Aucun facteur naturel ne peut expliquer les variations mesurées de la température globale ces dernières décennies. Les modèles climatiques comportent des incertitudes, mais les ordres de grandeur sont suffisamment robustes pour attribuer le changement climatique aux activités humaines sans aucune ambiguïté. Rétrospectivement, les premiers modèles climatiques ont prouvé leur robustesse. Si la planète a déjà subi des changements climatiques par le passé, provoquant une hausse du niveau de la mer plus rapide qu’aujourd’hui, ces changements s’expliquent uniquement par des facteurs naturels. Au XXème siècle, le niveau de la mer s’est élevé à une vitesse inédite depuis au moins 3000 ans, et cette hausse s’accélère ces dernières décennies.

ÉLÉMENT ANALYSÉ

Trompeur

Le changement climatique s’explique par des facteurs naturels, les modèles de climat sont trop incertains, le niveau des mers varie naturellement de façon cyclique.

Source : YouTube, Ismaïl Ouslimani (Le Raptor), 8 Sep 2024

DÉTAIL DU VERDICT

Trompeur :

De nombreux arguments avancés pour nier l’influence humaine sur le climat sont trompeurs. Par exemple, aucun facteur naturel ne peut expliquer les variations mesurées de la température globale ces dernières décennies. Les flux d’énergie naturels varient très peu, et il n’est pas nécessaire de connaître précisément les facteurs naturels pour estimer l’amplitude de la perturbation anthropique.

Déforme une réalité complexe :

La complexité des modèles de climat est ici déformée pour décrédibiliser leur robustesse, pourtant rétrospectivement avérée.

Factuellement faux :

AFFIRMATION COMPLÈTE

Alors qu’on cherche à quantifier une activité humaine qui représente 1 % de l’énergie qui circule dans le système climatique, il nous faut absolument comprendre et observer les 99 % liés aux variations naturelles avec une précision extrême. […] CMIP6 […] continue de mal décrire la période de 1910 à 1940 mais aussi le réchauffement observé depuis 1950. Cette incapacité à reproduire un passé aussi proche […] rend perplexe quant à la fiabilité des modèles. […] La vitesse de montée des eaux semble être cyclique au moins depuis […] 1900.

Vérification

En septembre 2024, une vidéo publiée sur la chaîne Youtube Le Raptor est massivement partagée sur les réseaux sociaux. Intitulée “Réchauffement climatique : décryptage d’une arnaque mondiale”, elle a déjà été visionnée près de 750 000 fois trois semaines après sa publication. Sur X, un post publié le même jour par l’auteur de la vidéo affiche 5600 partages et 7,8 millions de vues. De son vrai nom Ismaïl Ouslimani, Le Raptor est un youtubeur et coach sportif, sans expertise dans les sciences du climat. Ce champ disciplinaire peut être complexe et difficile à comprendre : dans cet article, nous demandons à des scientifiques de commenter les affirmations d’Ismaïl Ouslimani.

Dans cette vidéo d’une durée de 1h12, l’auteur énumère une longue série d’arguments visant à nier l’influence humaine sur le réchauffement climatique. Il s’appuie – sans le citer – en grande partie sur le livre “Climat, la part d’incertitude” de Steven Koonin, auquel Science Feedback avait déjà consacré un article de vérification en 2021. Dans cet article, nous vérifions les principaux arguments sur lesquels le Raptor appuie sa négation de l’influence humaine sur le climat. Cet argumentaire est en contradiction avec les conclusions de la science, telles que résumées dans les rapports du Groupe intergouvernemental d’experts pour le climat (GIEC).

LE RÔLE DES ACTIVITÉS HUMAINES DANS LE CHANGEMENT CLIMATIQUE ACTUEL EST CLAIREMENT AVÉRÉ

Le Raptor commente l’impact de la quantité de CO2 atmosphérique sur le bilan radiatif terrestre : “Avec une telle [50%] marge d’erreur, et alors qu’on cherche à quantifier une activité humaine qui représente 1 % de l’énergie qui circule dans le système climatique, il nous faut absolument comprendre et observer les 99 % liés aux variations naturelles avec une précision extrême.” Avec cet argumentaire, il sous-entend que les connaissances scientifiques actuelles ne nous permettent pas de distinguer le rôle des facteurs anthropiques et naturels dans le bilan radiatif terrestre, ce qui est faux comme nous l’expliquons ci-dessous.

Le bilan radiatif terrestre correspond à la somme de l’énergie reçue qui réchauffe la Terre (le rayonnement solaire) moins l’énergie perdue (ré-émise ou réfléchie vers l’espace par le sol, la glace, les nuages, les aérosols, etc.) qui refroidit la planète. La température à la surface de notre planète est directement proportionnelle à ce bilan radiatif. L’énergie reçue est évaluée à 340 W/m2, dont 100 W/m2 sont réfléchis[1]. L’énergie infrarouge ré-émise est de l’ordre de 240 W/m2.

Cet équilibre peut être modifié, comme le montre la figure 1 : on parle de forçage naturel (variation de l’énergie solaire liée à l’orbite terrestre, éruptions volcaniques, etc.) ou anthropique (gaz à effet de serre, aérosols, etc.). “Le forçage radiatif lié aux activités humaines est évalué à 2,7 W/m2 : la perturbation humaine est de l’ordre de 1% des flux d’énergie”, commente François-Marie Bréon, climatologue au Laboratoire des sciences du climat, à Science Feedback. Mais la suite de l’argumentaire du Raptor est fausse. François-Marie Bréon poursuit :

Il est faux de dire que nous avons besoin de connaître très précisément les 99% restants. Ces flux d’énergie ne varient pratiquement pas, comme démontré par la relative stabilité du climat sur les derniers 10 000 ans. Il n’est pas nécessaire de connaître précisément les facteurs naturels pour estimer l’amplitude de la perturbation anthropique. Cette dernière est évaluée en mesurant, par exemple, la hausse de la concentration en CO2 dans l’atmosphère et en calculant la perturbation induite sur les flux d’énergie.

Figure 1 – Le climat terrestre dépend des flux d’énergie entrants et sortants. Lorsque l’un ou l’autre est modifié, le climat change (schéma de droite). En raison de la hausse des gaz à effet de serre émis par les activités humaines, depuis au moins les années 1970, les flux d’énergie sortants sont inférieurs aux flux d’énergie sortants. Cet excès d’énergie est absorbé par les terres, les océans, les glaces et l’atmosphère. Source : dernier rapport du GIEC[1].

Ces perturbations induites par le forçage anthropique sont aujourd’hui bien connues, et en particulier celle du CO2, un gaz à effet de serre. “Le rôle du CO2 dans le réchauffement de la Terre a été découvert au milieu du XIXème siècle”, expliquait le climatologue James Renwick à Science Feedback lors d’une précédente vérification. Depuis l’ère préindustrielle, le CO2 est celui qui a le plus impacté le bilan radiatif terrestre comme le rapporte le GIEC dans son dernier rapport[1] (voir figure 2). Son forçage est égal à 2,16 W/m2. Lorsque les incertitudes sont prises en compte, le forçage du CO2 est compris entre 1,9 et 2,4 W/m2, soit une marge d’erreur de 12% et non 50% comme l’affirme le Raptor. L’ensemble des forçages d’origine humaine est égal à 2,7 W/m2. En comparaison, les forçages naturels depuis l’ère préindustrielle sont estimés à -0,02 W/m2.

Figure 2 – Entre 1750 et 2019, la majorité des changements du bilan radiatif terrestre sont expliqués par la hausse du CO2 atmosphérique (carbon dioxide). L’énergie solaire (solar), le seul facteur naturel ayant une influence à long-terme, a très légèrement diminué le bilan. Source : dernier rapport du GIEC[1].

Même lorsque les incertitudes sont prises en compte, seul le forçage d’origine humaine peut expliquer les évolutions du bilan radiatif terrestre depuis l’ère préindustrielle comme le montre la figure 3. 

Le GIEC[2] écrit : 

Le réchauffement observé de la température de l’air à la surface du globe de 0,9°C à 1,2°C entre 2010 et 2019 est beaucoup plus important que ce qui peut être expliqué par la variabilité interne (probablement comprise entre -0,2°C et +0,2°C) ou les forçages naturels (probablement compris entre -0,1°C et +0,1°C) seuls, mais est cohérent avec le réchauffement anthropique évalué (probablement entre 0,8°C et 1,3°C).

Il ne fait donc aucun doute que les activités humaines sont à l’origine du réchauffement global observé. “L’incertitude significative sur l’effet total des activités humaines sur le climat s’explique par l’incertitude sur le forçage dû aux aérosols émis par les activités humaines, nous détaille François-Marie Bréon. Ce forçage radiatif est négatif, les aérosols tendent à refroidir le climat et donc à compenser en partie l’effet du CO2. Il y a peu d’incertitudes sur le forçage radiatif dû au CO2.

Figure 3 – Le réchauffement climatique observé (courbe noire) est le résultat de la combinaison des forçages anthropiques et naturels. Il n’est reproduit que dans les simulations prenant en compte l’influence humaine, les variations naturelles (courbe verte) étant très faibles. Source : dernier rapport du GIEC[2].

LES MODÈLES DE CLIMAT NE RELÈVENT PAS DU “BRICOLAGE” MAIS D’UNE COMPRÉHENSION FINE DES PROCESSUS CLIMATIQUES

Près de huit minutes de vidéo sont consacrées aux modèles de climat. Le Raptor y avance que les modélisations climatiques “accumulent beaucoup d’incertitudes et d’imprécisions”, que leur mise au point repose sur “beaucoup de tatonnage pour quelque chose qui a la prétention de prédire l’avenir”. Il cite notamment les résultats du projet CMIP6 : “Les différents modèles vont aboutir à un vaste champ de résultats aussi différents qu’on a eu d’hypothèses arbitraires différentes. […] CMIP6 […] continue de mal décrire la période de 1910 à 1940 mais aussi le réchauffement observé depuis 1950. Cette incapacité à reproduire un passé aussi proche […] rend perplexe quant à la fiabilité des modèles.

Ces accusations sont encore une fois trompeuses et le Youtubeur décrit de façon erronée le fonctionnement d’un modèle de climat. Les modèles climatiques simulent le système climatique de la Terre et utilisent des équations mathématiques pour prévoir la réaction de la planète dans différents scénarios (faibles émissions de gaz à effet de serre, émissions habituelles, etc.) ainsi que pour recréer le climat à différentes périodes passées. Ces modèles sont complexes : selon le National Centre for Atmospheric Science, « les équations mathématiques sont si nombreuses qu’un modèle climatique typique contient suffisamment de code pour remplir 18 000 pages de texte imprimé ». Les équations sont en effet résolues des millions de fois, selon un maillage en trois dimensions dont la taille varie en fonction des modèles. La Terre est typiquement “découpée” en mailles de centaines de kilomètres. Pour les phénomènes naturels se déroulant à une échelle inférieure à la maille (comme la formation des nuages ou des précipitations), les équations ne peuvent pas être résolues et les scientifiques intègrent des “paramétrisations”. “Ces paramètres ont généralement un sens physique et peuvent être mesurables (pouvoir réfléchissant d’une surface d’un type donné…) ou bien résultent d’un ajustement empirique (coefficients décrivant un processus de mélange…). Dans les deux cas, leurs valeurs sont connues avec plus ou moins de précision”, écrivent les climatologues Serge Planton et Sandrine Bony.
Enfin, les modèles sont testés : les scientifiques exécutent le modèle dans un passé récent et comparent les résultats obtenus par rapport au climat et à la météo observés au cours de cette période. De cette manière, les scientifiques sont en mesure de voir si les projections du modèle correspondent aux résultats météorologiques et climatiques réels et, le cas échéant, d’ajuster le modèle en conséquence. Le climatologue James Screen expliquait à Carbon Brief : “Dans de nombreux modèles de glace de mer, l’albédo de la glace de mer est un paramètre qui est fixé à une valeur particulière. Nous ne connaissons pas la valeur « correcte » de l’albédo de la glace. Les observations de l’albédo comportent une certaine marge d’incertitude. Ainsi, tout en développant leurs modèles, les centres de modélisation peuvent expérimenter des valeurs de paramètres légèrement différentes – mais plausibles – pour tenter de modéliser certaines caractéristiques de base de la glace de mer en se rapprochant le plus possible de nos meilleures estimations à partir des observations.“ La construction d’un modèle est loin de relever du “bricolage” comme le dit le Raptor.

L’ENSEMBLE DES MODÈLES CLIMATIQUES DÉTECTE ET PROJETTE DE FAÇON ROBUSTE L’IMPACT DES ACTIVITÉS HUMAINES

Ces paramétrisations sont la principale source d’incertitude des modèles de climat. “Il est indéniable que les modèles de climat ne sont qu’une approximation de la réalité, et que leurs prédictions sont loin d’être parfaites, détaille François-Marie Bréon. Mais le fait d’avoir 29 modèles développés de manière indépendante permet d’analyser quels sont les changements projetés qui sont robustes (lorsque tous les modèles anticipent une évolution similaire) et ceux qui ne le sont pas (si les différents modèles donnent des résultats différents).” Le projet CMIP (Coupled model intercomparison projet) – dont les résultats sont repris dans le dernier rapport du GIEC – regroupe ainsi 29 modèles de climat produits par différentes équipes de recherche. 

Pour construire un modèle de climat, il faut tout d’abord définir la question à laquelle il va permettre de répondre. Les modèles climatiques évoqués ici ont “pour but de nous donner une réponse sur le forçage anthropique”, explique le climatologue Roland Séférian à l’AFP. François-Marie Bréon commente auprès de Science Feedback : “Avant 1960, le forçage radiatif anthropique était bien inférieur à ce qu’il est aujourd’hui (voir figure 3). Le forçage était plus faible et reste incertain car, à l’époque, la contribution relative des aérosols était encore plus forte qu’aujourd’hui. Lorsque le forçage est faible et incertain, il est difficile de mettre en évidence son impact devant la variabilité naturelle.” En résumé, pour fournir des projections futures d’un climat particulièrement impacté par les activités humaines, les scientifiques calibrent les modèles sur les impacts passés des activités humaines. C’est ce qui explique les résultats plus précis observés à partir des années 1960.

Contrairement à ce qu’affirme le Raptor, les projections climatiques sont robustes comme l’écrit le GIEC (voir figure 4) : “L’ensemble de modèles CMIP6 reproduit les tendances et les variabilités historiques des température de surface globales avec des biais suffisamment faibles pour permettre la détection et l’attribution du réchauffement induit par les activités humaines, avec un niveau de confiance très élevé.

Figure 4 – Ce graphique illustre les changements de température au cours du temps par rapport à la période de référence 1850-1900. Les résultats de l’ensemble de modèles le plus récent (CMIP6) sont en rouge (la courbe représente la moyenne et l’aire rouge les incertitudes). Les observations (données mesurées) sont en noir, pour différentes sources de données. On observe que CMIP6 reproduit les températures historiques à 0,2°C près. L’ensemble des mesures sont comprises dans les incertitudes des modèles. Source : dernier rapport du GIEC[2].

Enfin, les modèles de climat ont déjà prouvé leur efficacité, comme le souligne François-Marie Bréon : “Le Raptor n’évoque pas les prédictions qui ont été faites dans les premiers rapports du GIEC il y a 20-30 ans. Il est incontestable que la hausse des températures anticipée à l’époque était excellente. Cette capacité démontrée à anticiper l’évolution des 20 dernières années est tout de même un argument fort en faveur de la capacité des modèles à anticiper le futur.” Dans un article publié dans la revue Geophysical Research Letters[3], une équipe évalue les performances des modèles de climat publiés entre 1970 et 2007. Les projections issues des modèles sont comparées rétrospectivement aux observations au cours du temps (voir figure 5) : “Nous constatons que les modèles climatiques publiés au cours des cinq dernières décennies ont été capables de prédire les changements de températures, la plupart des modèles montrant un réchauffement compatible avec les observations.

Figure 5 – Dans cet article, les scientifiques comparent rétrospectivement les résultats des modèles climatiques aux observations. La plupart des modèles (chaque case horizontale) ont prédit fidèlement les taux de forçage radiatif enregistrés (exprimés en W/m2 par décennie). Source : Hausfather 2019[3]

LA HAUSSE DU NIVEAU DES MERS S’ACCÉLÈRE EN RAISON DE L’IMPACT DES ACTIVITÉS HUMAINES SUR LE CLIMAT

Le Raptor soutient son argumentaire en niant les retombées du changement climatique d’origine anthropique, notamment sur la hausse du niveau des mers. Il énumère différentes vitesses : “Depuis 1900, le niveau moyen de la mer monte en moyenne [sic] de 1,8 mm/an, loin des 12 mm/an il y a 12 000 ans.” Il note “des périodes de vitesses différentes” à “3 mm/an entre 1925 et 1940”, “1 mm/an entre 1950 et 1965” et “3 mm/an actuellement”. Il en conclut que “la vitesse de montée des eaux semble être cyclique au moins depuis […] 1900.” Enfin, il termine son argumentaire en disant que les variations se justifient “difficilement par l’activité humaine par rapport à l’évolution naturelle.

Les données les plus récentes synthétisées par le GIEC[4] font état d’une accélération certaine de la hausse du niveau des mers ces dernières décennies, comme le montre la figure 6. La hausse s’élève à 1,3 mm/an entre 1901 et 1971, 1,9 mm/an entre 1971 et 2006 et grimpe à 3,7 mm/an pour la période 2006-2018. Le taux moyen pour 1971-2018 s’élève à 1,7 mm/an.

Le GIEC[5] écrit :“Le niveau moyen des mers s’est élevé plus vite au XXème siècle qu’à aucun autre siècle depuis au moins les trois derniers millénaires (haut niveau de confiance).”

Figure 6 – Le niveau des mers varie naturellement à de grandes échelles de temps (comme on l’observe sur l’encart a) en raison des variations de l’orbite terrestre. Depuis 1850, alors qu’aucun facteur naturel ne peut expliquer la hausse des températures globales, le niveau de la mer monte de plus en plus vite, notamment depuis les années 1970. Source : dernier rapport du GIEC[4].

En remontant plus loin dans le temps, une élévation de 15 mm/an est estimée pour la période entre -11 000 et -8000 ans. Ces taux très rapides sont enregistrés à la fin de la dernière période glaciaire. En effet, le climat terrestre alterne naturellement entre des périodes glaciaires et des périodes chaudes : cela s’explique par les variations naturelles de l’orbite de la Terre, qui entraînent une fluctuation de l’ensoleillement. Ce sont les forçages astronomiques. Depuis un million d’années, le niveau des mers diminue à chaque période glaciaire puis augmente lors des périodes chaudes dite “interglaciaires”, comme le montre la figure 6a. Il y a environ 12 000 ans, le climat bascule naturellement d’une période glaciaire à interglaciaire : les importantes calottes glaciaires qui recouvrent l’Amérique du Nord, l’Eurasie et l’Antarctique fondent et déclenchent une hausse rapide du niveau des mers. Ce phénomène est expliqué par la variation naturelle de l’orbite terrestre : or aujourd’hui, aucun forçage naturel – qu’il soit astronomique ou volcanique – ne peut expliquer la hausse de température observée, comme nous l’avons déjà expliqué ci-dessus (voir figure 3). Il est donc trompeur de comparer les taux d’élévation des mers lors de la dernière déglaciation avec les niveaux actuellement enregistrés pour nier l’existence d’une influence humaine sur le climat.

CONCLUSION

Dans cette vidéo, Ismaïl Ouslimani use de nombreuses rhétoriques de désinformation pour nier l’influence des activités humaines sur le climat. Contrairement à ce qu’il tente de démontrer, aucun facteur naturel ne peut expliquer les variations mesurées de la température globale ces dernières décennies. Bien sûr, les modèles climatiques et les estimations des climatologues comportent des incertitudes : mais les ordres de grandeur sont suffisamment robustes pour attribuer le changement climatique aux activités humaines sans aucune ambiguïté. Rétrospectivement, les premiers modèles climatiques ont d’ailleurs déjà prouvé leur robustesse. Si la planète a déjà subi des changements climatiques par le passé, provoquant une hausse du niveau de la mer plus rapide qu’aujourd’hui, ces changements s’expliquent uniquement par des facteurs naturels. Il est trompeur de citer des indicateurs climatiques passés pour nier le rôle prépondérant des facteurs anthropiques dans le changement climatique contemporain.

Feedback des scientifiques

François-Marie Bréon member picture

François-Marie Bréon

Directeur adjoint, Laboratoire des sciences du climat et de l’environnement

SF : Raptor souligne la barre d’erreur importante sur la contribution du CO2 au bilan radiatif global. Selon lui, « en prenant en compte les effets directs et indirects des émissions de CO2 […], l’incertitude totale de l’estimation est de 50% ». Est-ce vrai ?

F-M B : Il y a peu d’incertitudes sur le forçage radiatif dû au CO2. Il y a par contre une incertitude importante sur le forçage dû aux aérosols (les petites particules en suspension dans l’atmosphère) émis par les activités humaines. Ce forçage radiatif est négatif, dans le sens où les aérosols tendent à refroidir le climat et donc à compenser en partie l’effet du CO2. L’ampleur de cette compensation est mal connue et c’est pourquoi il y a une incertitude significative sur l’effet total (CO2, autres gaz à effet de serre, aérosols, et quelques autres contributions plus faibles) des activités humaines sur le climat.

SF : Il avance ensuite que les activités humaines représentent « 1% de l’énergie qui circule dans le système climatique », et que cela implique de connaître les « 99% liés aux variations naturelles avec une précision extrême ». D’où vient ce 1% ? Est-ce que les incertitudes concernant l’impact des facteurs naturels et anthropiques rendent impossible de distinguer le poids des facteurs anthropiques dans l’évolution de la température globale ?

F-M B : Lorsqu’on analyse le bilan énergétique de la Terre, on voit que le flux infrarouge sortant (nécessaire pour que la Terre évacue la chaleur apportée par les rayons du soleil) est de l’ordre de 240 W/m2 (Cf Figure 7.2). Le forçage radiatif (les perturbations humaines) sont évaluées à 2,7 W/m2 (cf Figure 7.6). Je pense que le 1% vient de là, et ca me parait légitime de dire que la perturbation humaine sur les flux est de l’ordre de 1% des flux.

Par contre, il est faux de dire qu’ on a besoin de connaître très précisément les 99% restants. Les 99% ne sont pas des variations, c’est le niveau de base sur lequel il n’y a pratiquement pas de variation (comme démontré par la relative stabilité du climat sur les derniers 10 000 ans, avant que l’humain ne viennent mettre un gros coup de pied là dessus). La perturbation humaine n’est pas évaluée par soustraction, mais bien en connaissant, par exemple, hausse de la concentration de CO2 atmosphérique et en calculant la perturbation induite sur les flux infrarouge. Donc oui, il n’est pas nécessaire de connaître précisément les facteurs naturels pour estimer l’amplitude de la perturbation anthropique

SF : Quelle robustesse des modèles de climat ? Souhaitez-vous commenter des points particuliers concernant l’argumentaire exposé par le Raptor sur la fiabilité des modèles climatiques ? Dans les grandes lignes, il évoque les problèmes liés à : les hypothèses réalisées pour les « processus sub-grid » ; l’initialisation des paramètre océaniques et atmosphériques ; le réglage des modèles, qui permet de s’affranchir de connaître avec exactitude les lois physiques qui vont s’appliquer à l’avenir.

F-M B : Il est indéniable que les modèles de climat ne sont qu’une approximation de la réalité, et que leurs prédictions sont loin d’être parfaites. D’ailleurs, pour certaines composantes du système climatique, les différents modèles donnent des résultats différents ce qui montre bien une incertitude. C’est clairement expliqué dans les modèles du GIEC. Le fait d’avoir 30 modèles développés de manière indépendante permet d’analyser quels sont les changements projetés qui sont « robustes » (lorsque tous les modèles anticipent une évolution similaire) et ceux qui ne le sont pas (si les différents modèles donnent des résultats différents).

Ainsi, tous les modèles anticipent une hausse des températures supérieure à 2 degrés pour une doublement des concentrations de CO2. C’est donc là un résultat robuste. Tous les modèles anticipent une hausse de la fréquence des précipitations extrêmes, et la grande majorité des modèles anticipent un assèchement de la région méditerranée. Ce sont donc des projections robustes. À l’inverse, il y a une grande variabilité sur l’anticipation des précipitations sur l’amazonie. Il y a donc une grande incertitude sur l’évolution de ce paramètre.

Par ailleurs, le Raptor n’évoque pas les prédictions qui ont été faites dans les premiers rapports du GIEC il y a 20-30 ans. Il est incontestable que la hausse des températures anticipée à l’époque était excellente. Cette capacité démontrée à anticiper l’évolution des 20 dernières années est tout de même un argument fort en faveur de la capacité des modèles à anticiper le futur. Sur ce sujet, il y a un très bon texte par un spécialiste : Réponse `a l’article ”Science du climat : faiblesses et manquements” écrit par Pascal Iris le 12 février 2024

SF : La figure 3.4 du chapitre 3 WGI AR6 montre effectivement que CMIP6 ne reproduit pas bien la période 1900-1960 (mais elles sont bien comprises dans la barre d’erreur en revanche). Pourquoi ? Est-ce que cela montre que les projections futures ne sont pas fiables ?

F-M B : Avant 1960, le forçage radiatif anthropique était bien inférieur à ce qu’il est aujourd’hui (cf Figure 7.8). Le forçage était plus faible et reste incertain car, à l’époque, la contribution relative des aérosols était encore plus forte qu’aujourd’hui. Lorsque le forçage est faible et incertain, il est difficile de mettre en évidence son impact devant la variabilité naturelle.

Et à nouveau, je trouve particulièrement malhonnête d’insister sur une période que on connait finalement assez mal (en particulier, on ne sait pas bien la quantité d’aérosols à l’époque pendant laquelle il n’y avait pas de mesure de ces aérosols), et de passer sous silence la réussite des modèles à anticiper ce qui nous arrive sur les 30 dernières années

Lorsqu’il dit que le réchauffement de 1910-1940 est « presque similaire au réchauffement actuel », c’est un peu du foutage de gueule. Et d’ailleurs, sa figure ne montre pas les années les plus récentes, avec un réchauffement marqué. Le réchauffement depuis 1970 est 3 fois supérieur à celui sur la période 1910-1940.

RÉfÉrences :

Science Feedback is a non-partisan, non-profit organization dedicated to science education. Our reviews are crowdsourced directly from a community of scientists with relevant expertise. We strive to explain whether and why information is or is not consistent with the science and to help readers know which news to trust.
Please get in touch if you have any comment or think there is an important claim or article that would need to be reviewed.

Published on:

Articles similaires