Des changements climatiques mieux modélisés que jamais

Un simple changement dans les méthodes utilisées pour calculer la température moyenne sur Terre suffit à rendre les modèles climatiques existants encore plus précis, ont découvert des chercheurs.

effet-serre-gerald-simmons-flickr
Photo : Gerald Simmons/Flickr

Sante_et_scienceLes modèles climatiques qu’on utilise pour calculer la hausse de la température moyenne sur Terre reproduisent bien ce qui se passe dans la réalité… et, moyennant quelques ajustements, sont encore plus fiables que ce que l’on croyait, avance une étude britannique publiée dans le journal Geophysical Research Letters. Les chercheurs ont découvert un défaut dans la manière dont on comparait jusqu’à présent ces simulations du changement du climat aux observations enregistrées sur Terre. En tenir compte diminue de près de 40 % l’écart entre modèles et mesures !

Dans son dernier rapport (publié en 2014), le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) avait analysé la capacité de ces modèles — des représentations mathématiques de la variation du climat — à reproduire le changement de température moyenne observé dans les dernières décennies. Ces experts avaient conclu que de tels modèles étaient à même de représenter une évolution réelle du climat.

Néanmoins, il restait un écart entre la hausse de température modélisée et celle mesurée. En effet, sans qu’on sache trop pourquoi, la plupart des modèles avaient tendance à surestimer l’augmentation des températures par rapport aux observations réelles.

Par exemple, pour la période allant de 1975 à 2014, les modèles avaient prédit une hausse moyenne de 0,226 degré par décennie, alors que les mesures rassemblées dans l’énorme base de données HadCRUT4 du Met Office (le service météorologique du Royaume-Uni) faisaient état d’une augmentation moyenne de 0,170 degré par décennie.

Un tel écart peut sembler minime, mais il pourrait faire une différence énorme dans les conditions qui régneront sur Terre d’ici la fin du siècle. Quelques dixièmes de degré de plus ou de moins dans la température moyenne à la surface du globe suffisent à changer l’ampleur et la fréquence des événements extrêmes (comme les sécheresses, les canicules et les inondations) ou à perturber les écosystèmes.

Pourquoi un tel écart ?

Rendue publique il y a quelques semaines, l’étude (intitulée Robust comparison of climate models with observations using blended land air and ocean sea surface temperatures) permet enfin d’expliquer pourquoi un tel écart subsiste entre les modèles climatiques existants et les changements réels de température observés… et comment le réduire.

Accrochez-vous, la chose est un peu complexe.

Pour évaluer la température moyenne sur Terre, les bases de données comme HadCRUT4 compilent les températures qui ont été mesurées à quelques mètres du sol par des stations météo au cours des dernières décennies, ainsi que des mesures par satellite prises partout sur la planète.

Mais pour les zones au-dessus des océans, HadCRUT4 contient des valeurs de température de l’air qui n’ont pas été captées directement. Elles ont plutôt été calculées à partir de la température de l’eau de surface, beaucoup plus facile à mesurer que celle de l’air. Selon les chercheurs, ce calcul suffit à biaiser la comparaison avec les modèles climatiques.

En bref, ni les modèles ni les observations ne sont erronés. Mais comparer les deux revient à comparer des pommes avec des poires.

«Revisiter» les modèles

Dirigée par Kevin Cowtan, de l’Université d’York, une équipe de chercheurs a voulu vérifier ce qui se passait si on reprogrammait les modèles pour qu’ils tiennent compte de ce biais.

Pour ce faire, ils ont intégré à 36 modèles climatiques la méthode utilisée pour déduire la température de l’air de celle de l’eau à la surface des océans.

Résultat ? Avec cette nouvelle façon de calculer, pour la période 1975-2014, les modèles en arrivent à une hausse de température moyenne de 0,196 degré par décennie, et non plus de 0,226 degré. Ils sont donc beaucoup plus près de la valeur obtenue en compilant les observations réelles (soit une moyenne de 0,170 degré par décennie).

Grâce à cette étude, on sait maintenant que la manière dont les modèles climatiques analysent les conséquences de l’augmentation de l’effet de serre reflète vraiment ce qui se passe dans la réalité.

Cependant, il reste encore une différence entre ces modèles et les observations. Cela pourrait s’expliquer par le fait que la banquise fond beaucoup plus rapidement qu’on l’avait anticipé, croient les chercheurs. Il y a donc une plus grande superficie d’eau (puisque la glace a disparu) et, par conséquent, de plus en plus d’endroits où la température de surface est déduite de celle de l’eau, expliquent-ils.

Quel avenir pour les modèles climatiques ?

Nul doute que les modèles climatiques vont encore se raffiner. Malheureusement, cela n’empêchera pas les climatosceptiques de crier à l’imposture quand, dans une année donnée ou une autre, la température moyenne observée différera de celle que les modèles auront calculée.

Pourtant, personne ne prétend que le climat est totalement prévisible. En effet, bon an, mal an, de nombreux facteurs peuvent faire varier la température moyenne — comme le phénomène El Niño, les éruptions volcaniques ou les variations dans l’activité solaire. Il serait illusoire de croire que les modèles pourraient prédire la température au millième de degré près.

Mais pour ce qui est de la tendance lourde, soit un réchauffement rapide dans les décennies à venir, les modèles climatiques ne se trompent pas. Et ce qu’ils entrevoient pour l’avenir n’a rien de réjouissant.

Si les émissions de gaz à effet de serre continuent d’augmenter au rythme actuel, les modèles prédisent que de 2085 à 2100, la température moyenne sur le globe sera de 2,6 à 4,8 degrés plus élevée que pour la période 1986-2005, explique le GIEC. Pour que cette hausse reste en deçà de deux degrés — soit l’objectif fixé par l’ONU —, la planète devra émettre, en tout et pour tout, moins de 1 000 milliards de tonnes de CO2 d’ici 2100.

Il faudra bien d’autres plans comme celui annoncé récemment par le président Barack Obama pour y parvenir. Son Clean Power Plan vise à diminuer de 32 % les émissions de GES engendrées par la production d’électricité aux États-Unis d’ici 2030 par rapport au niveau de 2005.

En 2013, les centrales américaines ont émis deux milliards de tonnes de CO2.

Laisser un commentaire

«Accrochez-vous, la chose est un peu complexe.»
C’était très facile à comprendre (ou très bien expliqué, hé hé).

Par contre, j’ai une question. Comment sait-on que cet ajustement du modèle ne donne pas une meilleure précision par hasard? Un peu comme une horloge brisée qui donne l’heure juste deux fois par jour. Désolé, c’est le scientifique en moi qui refait surface…

Ce genre de question est pratiquement toujours répondue en lisant la publication! J’aimerais bien vous en faire un résumé, mais je n’ai pas la possibilité de lire ledit rapport en ce moment…

C’est un effet systématique. C’est pas statistique. Cowtan & Way avaient montré, il y a quelques années que le manque de mesure dans les régions polaires sous-estimait le réchauffement. J’ajoute que l’équipe BEST a aussi noté que la fonte de la banquise changeait les mesures.

Restait à faire l’étape suivante : transformer les résultats des modèles en mesure réelles simulées. Ce qui a été fait dans ce papier.