Les médias rapportent souvent que, « selon les modélisations » des épidémiologistes, le nombre de cas de COVID-19 augmentera si la population ne respecte pas les consignes sanitaires et diminuera si elle s’y plie. On comprend alors vaguement que des experts ont fait des calculs mathématiques leur permettant de prévoir ce qui se produira dans un proche avenir, selon diverses variables. Mais quelle importance doit-on accorder à ces modèles ?
Avant la pandémie, on s’était habitués au mot « modèle » dans le contexte de la crise climatique. Les experts du climat réunis au sein du GIEC affirment depuis longtemps que leurs modèles prévoient un réchauffement marqué de la température moyenne de la planète dans les prochaines décennies. Il faudrait donc diminuer la production de CO2, principale molécule à contribuer au réchauffement climatique, selon ces modèles fondés sur les lois de la physique et de la chimie.
En science, le mot « modèle » désigne généralement la reconstruction simplifiée d’un phénomène complexe. Le modèle ne retient que les traits jugés essentiels à la compréhension et à l’explication du phénomène étudié. Il peut être matériel, comme les reproductions de diverses parties du corps utiles pour enseigner la médecine, ou encore les boules et les tiges en bois qui permettent de visualiser en trois dimensions des molécules diverses telles que l’eau (H2O) ou l’ADN. Sans ces modèles physiques, on ne pourrait pas expliquer, par exemple, l’existence de molécules dites isomères, qui ont la même formule chimique (C3H6, par exemple), mais des propriétés physiques, chimiques ou biologiques différentes, car elles ont des structures tridimensionnelles distinctes.
De nos jours, on fabrique plutôt les divers modèles à l’aide d’ordinateurs. Ces instruments puissants ont facilité leur construction, si bien que, depuis les années 1970, le verbe « modéliser » et le nom « modélisation » sont devenus courants.
Des modèles mathématiques pour mieux comprendre le monde
Enfin, les modèles peuvent aussi être mathématiques. Il s’agit alors de déterminer les variables les plus importantes associées à un phénomène à reproduire, ainsi que les relations qu’elles entretiennent. Isaac Newton, par exemple, a établi le lien entre la force (F) exercée sur un objet et l’accélération (a) qu’il subit en fonction de sa masse (m). Il a ensuite pu appliquer cette équation générale (F = ma) à la force gravitationnelle entre les planètes, la Lune et le Soleil. Mais ces calculs auraient été impossibles à faire à son époque s’il avait dû prendre comme objet la Lune dans toute sa réalité matérielle ! Newton a cependant réussi à démontrer que les planètes qui tournent autour du Soleil décrivent une ellipse, car son modèle avait bien pris en compte la variable la plus importante : la force de gravitation entre le Soleil et les planètes. Plus tard, Joseph Louis Lagrange a construit un modèle un peu plus compliqué, qui est parvenu à expliquer pourquoi on voit une plus grande surface de la Lune aux deux extrémités. Cet exemple montre que pour examiner plus précisément les détails d’un phénomène observé, il faut complexifier le modèle.
Il en va de même des modélisations du climat, lesquelles, selon les hypothèses retenues, expliquent certains phénomènes et pas d’autres. Ainsi, les modèles climatiques régionaux peuvent mieux tenir compte de certaines caractéristiques (comme l’existence de grands lacs) que les modèles mondiaux, qui cherchent plutôt à prévoir la température moyenne sur l’ensemble de la planète et négligent les effets locaux.
En épidémiologie, on peut aussi construire des modèles fondés sur différentes hypothèses. La loi de base ici est que les épidémies se produisent par la transmission d’un virus entre des personnes. À partir de là, on peut formuler des équations de diffusion tenant compte des probabilités de transmission, qui doivent être déterminées par des mesures empiriques pour refléter la réalité. C’est ainsi qu’on parle du fameux « R0 », le taux de reproduction du virus, chiffre qui indique la vitesse de transmission. Mais les modèles peuvent aussi contenir d’autres paramètres qui mesurent, par exemple, l’hétérogénéité du réseau social constitué par les interactions humaines.
Le problème, bien sûr, c’est que, contrairement aux lois de la physique, qui sont fixes, les comportements des gens peuvent varier en fonction de multiples événements imprévisibles et des réactions aux recommandations de la santé publique. Ainsi, le nombre moyen de contacts par personne peut changer quelques jours après avoir été mesuré et inséré dans le modèle… Et la prévision devient alors invalide !
La fiabilité des modèles
Si les modèles sont difficiles à comprendre et peuvent inspirer la méfiance, c’est parce que des calculs généralement assez complexes sont présentés au public comme des « boîtes noires » qui produisent des prévisions sans qu’on sache vraiment quelles hypothèses simplifiées elles contiennent. Il est donc primordial que les experts qui s’en servent rappellent les limites des modèles utilisés et montrent qu’ils ont tenu compte des caractères essentiels du phénomène étudié.
Idéalement, la meilleure méthode pour évaluer la fiabilité des résultats obtenus consisterait à comparer (autant que possible) différents modèles et voir si, globalement, leurs prévisions convergent et sont du même ordre de grandeur. Les divers modèles climatiques, par exemple, confirment une augmentation de la température moyenne de la planète entre 1,5 °C et 4,5 °C environ. Ils peuvent différer quant à la valeur exacte de cette augmentation, ce qui permet de déterminer une fourchette probable, étant donné les limites des modèles. De même, on comprend facilement qu’un modèle épidémiologique qui prévoirait 500 000 morts et un autre qui en annoncerait plutôt 20 000 soulèveraient avec raison la question de leur validité et surtout de la plausibilité de leurs hypothèses de base !
Les modèles proposent des scénarios
C’est pour cela que les modèles simulent divers « scénarios » tenant compte des différentes valeurs possibles (et surtout probables) des paramètres. Cela permet de dire que SI le taux de contacts est X, ALORS le nombre de cas observés augmentera ou non de telle et telle façon au cours des prochaines semaines.
De plus, les modèles sont parfois généraux et produisent des moyennes sur tout un territoire, ils ne peuvent donc pas prévoir ce qui pourrait se passer dans deux villes dont les paramètres sont en fait différents. On comprend qu’un modèle ajusté à une ville aurait plus de chances d’être réaliste qu’un modèle appliqué à l’échelle du Canada, sachant que les contacts entre provinces ne sont ni aussi fréquents ni aussi probables que ceux entre citoyens d’un même quartier.
En science, la modélisation est devenue un outil incontournable dans de nombreux domaines, grandement facilité par la puissance des ordinateurs. Les modèles ont d’abord pour fonction d’aider à comprendre la dynamique propre du phénomène étudié. En jouant avec leurs paramètres, on arrive ainsi à mieux saisir — et donc prédire — la façon dont les choses vont se passer si le scénario est réaliste. En comparant les prévisions aux observations, on peut alors ajuster le modèle pour qu’il reproduise le plus justement possible ces données. Cela est bien sûr plus facile quand on a affaire à des phénomènes physiques qui obéissent à des lois invariables que lorsque l’on veut modéliser des comportements sociaux. Il n’en demeure pas moins qu’un bon modèle épidémiologique permet d’anticiper les facteurs qui favoriseraient la propagation du virus et une hausse du nombre de victimes.
Modéliser les comportements humains à grande échelle est donc possible, même si les prévisions obtenues n’auront jamais la précision des modèles de phénomènes physiques ni leur stabilité dans le temps. Pour compenser cette variabilité imprévisible, on doit produire une variété de scénarios pour voir les effets de chacun des cas envisagés et ainsi avoir une bonne idée du spectre probable de ce qui pourra arriver. Mais en regardant les courbes générées par les modèles, il ne faut pas se fixer uniquement sur celle du milieu qui semble la plus probable, mais plutôt être attentif au spectre entier des prévisions, même si les données extrêmes sont moins vraisemblables. Plus ce spectre est large, moins on est certain du résultat. Tout comme pour les modèles météo, l’incertitude des prévisions augmente rapidement avec le temps qui passe.
Idéalement, il serait souhaitable d’utiliser plusieurs modèles épidémiologiques et non pas toujours le même, car c’est par la comparaison que l’on peut vérifier la robustesse des résultats, en variant les approches. En plus des modèles mondiaux qui prédisent, par exemple, le nombre de morts à l’échelle de la planète, il en existe d’autres qu’on dit avec « agents », qui tiennent compte des contacts interpersonnels. En effet, le fait que certaines personnes côtoient beaucoup de gens et d’autres non influence énormément la diffusion d’un virus et explique pourquoi les cas ne se répartissent pas de manière homogène dans la population. Bien sûr, ces modèles sont plus complexes, mais ils évitent de tout ramener à une « moyenne » irréaliste sur un grand territoire.
Enfin, dans la situation qui nous préoccupe, il ne faudrait surtout pas que les décisions des gouvernements ne se fondent que sur des modèles épidémiologiques qui ne tiennent évidemment pas compte des réalités sociales autres que les contacts interpersonnels. Parmi ces réalités très importantes, notons la santé psychologique, qui peut inciter à des changements de comportements que ces modèles ne prennent pas en considération. En somme, le recours aux modèles est incontournable, mais les scénarios qu’ils proposent doivent être analysés à la lumière des autres variables non négligeables.
Si vous avez aimé cet article, pourquoi ne pas vous inscrire à notre infolettre santé ? Vous y lirez en primeur, tous les mardis, les explications toujours claires, détaillées et rigoureuses de notre équipe de journalistes et de professionnels de la santé. Il suffit d’entrer votre adresse courriel ci-dessous. 👇
De façon générale, les chiffres fournis par ces modèles sont beaucoup trop pessimistes. Par exemple, les modèles du CDC américain prévoyaient il y a un an entre 150 et 300 millions de personnes infectées par la COVID-19 aux États-Unis avec entre 750 000 et 2 millions de morts. Même chose pour l’Agence de la santé publique du Canada et l’INSPQ du Québec. Aucun de leurs scénarios pessimistes se sont avérés sans même atteindre l’ordre de grandeur. On constatait les mêmes exagérations lors de l’épidémie d’Ebola de 2014 aux États-Unis et celle du H1N1 de 2019. On en vient donc à ne plus prendre ces organismes et leurs projections au sérieux.
Vous avez tout à fait raison. Ces modèles sont très alarmistes, ce qui explique sans doute leur popularité dans les médias, qui se nourrissent volontiers de mauvaises nouvelles. Alarmistes donc, mais souvent faux et toujours déprimants.
« Idéalement, la meilleure méthode pour évaluer la fiabilité des résultats obtenus consisterait à comparer (autant que possible) différents modèles et voir si, globalement, leurs prévisions convergent et sont du même ordre de grandeur. Les divers modèles climatiques, par exemple, confirment une augmentation de la température moyenne de la planète entre 1,5 °C et 4,5 °C environ. » (Yves Gingras)
Pour le climat, une différence de 3°, peut-on encore dire que ce sont des modèles fiables et que ce sont des prévisions qui convergent et sont du même ordre de grandeur, quand on nous déclare que la planète s’est réchauffée de 1° depuis un siècle ? D’autant qu’Yves Gingras mentionne plus loin que « [e]n comparant les prévisions aux observations, on peut alors ajuster le modèle pour qu’il reproduise le plus justement possible ces données. » Comment se fait-il alors, depuis que les travaux du GIEC existent, aucun de leurs modèles, sauf peut-être un, ne s’approchent des observations faites ?
Les lois de la thermodynamique qui président aux prévisions climatiques sont précises en elles-mêmes mais ce sont les CI (conditions initiales) qui ne le sont pas. La faute à un maillage planétaire trop gros et surtout à l’absence de données exactes sur les conditions régnant dans les océans qui recouvrent quand même les 3/4 de notre planète, excusez du peu ! Cela donne un modèle mathématique dit « instable » et s’il a été décidé (politiquement !) que le climat se réchauffait, rien ne prouve qu’il ne se refroidira pas. Ces cycles ont déjà existé par le passé, des cycles de la même amplitude et sans que l’Homme n’y soit pour quelque chose…
Par ailleurs, rien ne prouve qu’un hypothétique réchauffement ne serait pas bénéfique. Rappelons que la chaleur n’implique pas la sécheresse.