FI/SPECIAL-ETE-98

La modélisation numérique du climat: un outil en pleine évolution

Hervé Le Treut, Laboratoire de Météorologie Dynamique du CNRS, Université Pierre et Marie Curie, Paris, e-mail: letreut@lmd.ens.fr

L'étude de notre environnement planétaire, au cours des dernières décennies, a été tributaire de développements technologiques nouveaux. L'observation satellitaire a constitué un premier outil qui a entièrement modifié la perception du monde qui nous entoure. Mais la météorologie, l'océanographie, la climatologie ont aussi été marquées par l'apparition d'un outil de compréhension, d'analyse, dans certains cas de prévision, entièrement nouveau: la modélisation numérique. C'est la disponibilité d'une puissance de calcul sans précédent qui a permis cette émergence rapide.

Représentation schématique d'un modèle de circulation générale atmosphérique

L'idée de modéliser l'écoulement atmosphérique à partir des équations de la mécanique des fluides, elle, est déjà ancienne. Elle date au moins de 1922, quand le physicien anglais L. Richardson imaginait un système -resté à l'état de projet- où plusieurs milliers d'opérateurs humains, rassemblés dans un immense amphithéâtre, coopéraient à la réalisation d'une prévision du temps, sous la conduite d'un chef d'orchestre. Les modèles numériques ont donc bénéficié dès le début de concepts scientifiques déjà établis, et dès les années 50, l'ENIAC, premier ordinateur installé au MIT sous la direction de von Neumann, était utilisé par J. Charney et ses collègues pour des applications météorologiques. Dans les années 60, de vrais modèles globaux de la circulation générale de l'atmosphère étaient développés par Y. Mintz et A. Arakawa à UCLA, par J. Smagorinski et S. Manabe à Princeton.

Le développement de ces modèles numériques, toutefois, n'a pas été immédiat: il s'est heurté à de nombreux problèmes qui ont occupé et occupent encore une communauté scientifique nombreuse. Pour donner une idée du travail accompli, il faut rentrer un peu dans le détail. Les modèles numériques d'atmosphère et d'océan ont d'abord été créés pour simuler les régimes de vent ou de courant à l'échelle du globe, que l'on appelle encore circulation générale de l'atmosphère ou de l'océan. Pour cela ils utilisent les équations très classiques de la mécanique des fluides. La composante atmosphérique, par exemple, calcule ainsi aux noeuds d'un maillage qui couvre la planète avec une résolution de quelques centaines de kilomètres, l'évolution, toutes les demi-heures environ, de paramètres tels que le vent, la température, l'humidité, l'eau nuageuse, les précipitations, ou l'eau du sol. Pour l'océan la maille d'espace retenue est souvent plus petite que pour l'atmosphère, mais l'évolution est généralement calculée de jour en jour. La résolution des équations pose des problèmes difficiles en grande partie parce que cette échelle spatiale du maillage est trop lâche pour retenir tous les processus qui ont une importance significative et un grand nombre d'entre eux doivent être représentés de manière simplifiée, ou paramétrée. C'est le cas des écoulements convectifs responsables de la formation des cumulonimbus, qui ont une taille de quelques kilomètres, des rouleaux turbulents de quelques centaines de mètres qui se forment dans les basses couches de l'atmosphère et sont à l'origine de nuages tels que les strato-cumulus, des zones de formation d'eau profonde dans l'océan, des processus microphysiques de formation des nuages, de l'interaction avec la surface continentale pour ne prendre que quelques exemples. Les simplifications nécessaires pour représenter ces processus dans les modèles climatiques constituent à la fois une faiblesse des modèles, et l'aliment d'une recherche active et multidisciplinaire, comme nous le verrons plus loin.

Outre les équations du mouvement, les échanges d'énergie, en particulier sous forme de rayonnement électromagnétique, entre la terre, l'océan, l'atmosphère et l'espace, sont calculés de manière explicite par les modèles. Il s'agit de décrire comment l'énergie reçue du soleil, est compensée par une énergie terrestre, émise dans le domaine infrarouge par la surface des océans ou des continents, les nuages, ou les gaz absorbants de l'atmosphère. L'étude du transfert radiatif dans l'atmosphère constitue aussi un problème physique étudié depuis longtemps, mais où subsistent encore de nombreux processus mal compris - par exemple l'absorption de la lumière solaire dans des nuages aux géométries complexes.

Le développement des modèles se poursuit donc. Mais leur niveau de réalisme en fait déjà des outils performants qui sont devenus indispensables pour des tâches multiples: prévision du temps à des échéances qui atteignent désormais plusieurs jours, compréhension fine des différents régimes de circulation atmosphérique, sensibilité de ces circulations à des fluctuations climatiques naturelles ou provoquées par la pollution d'origine humaine. Au cours des dernières années l'augmentation des ressources en temps de calcul a permis de modifier radicalement le type de problèmes abordables par la simulation numérique. Pour situer par un chiffre les progrès accomplis en matière de calcul au cours des dernières années, mon laboratoire, le Laboratoire de Météorologie Dynamique du CNRS, utilisait encore en 1982 un CYBER 760 du CNES, pour lequel une simulation d'un mois d'évolution de la circulation atmosphérique réclamait plus de 30 heures de calcul. A résolution égale, la même simulation réclame aujourd'hui environ 15 minutes de temps de calcul sur un processeur de Cray 90, probablement 8 fois moins sur les processeurs qui deviendront disponibles l'année prochaine.

Cette différence est considérable et ouvre des domaines de recherches entièrement nouveaux. En particulier il devient possible d'étudier des processus se développant sur une durée de plusieurs années, et pour lesquels les modèles atmosphériques et océaniques sont couplés pour ne constituer qu'un seul modèle intégré de notre environnement physique. La prise en compte de la dynamique de l'océan modifié complètement l'échéance des prévisions climatiques. Au bout de quelques jours, en effet, l'écoulement atmosphérique devient chaotique et oublie ses conditions initiales: il devient alors impossible de réaliser des prédictions météorologiques précises. Mais l'évolution de l'atmosphère reste guidée par des processus plus lents qui, eux, sont prévisibles. Et c'est le cas en particulier de la circulation océanique. Dans les Tropiques le phénomène appelé El-Niño-Southern-Oscillation offre l'exemple d'une fluctuation climatique naturelle associant étroitement l'atmosphère et l'océan, qui se répète de manière irrégulière toutes les quelques années, avec des modifications importantes des régimes climatiques locaux. Des études récentes montrent aussi qu'une variabilité plus lente encore de l'océan ou du système couplé océan/atmosphère, à l'échelle de la dizaine d'années, se manifeste dans l'Atlantique ou le Pacifique Nord.

Ces fluctuations naturelles du système climatique sont au moins partiellement prévisibles, et constituent une première motivation forte pour le développement des modèles couplés océan-atmosphère. Une autre motivation très forte est liée aux risques de plus en plus clairs que l'activité humaine puisse modifier irréversiblement cette variabilité climatique naturelle. La modification de la composition chimique de l'atmosphère, avec l'augmentation des gaz à effet de serre, ou celle des aérosols, pose un problème à l'échelle d'un ou plusieurs siècles: pour essayer de comprendre ce qui peut se passer, il faut pouvoir analyser ce qui s'est produit au cours du vingtième siècle, qui a vu l'apparition de ces formes de pollutions nouvelles, et l'extrapoler aux siècles futurs.

La modélisation offre un outil irremplaçable pour étudier ces problèmes et la prévision d'un réchauffement de 1.5 à 4.5 degrés Celsius associée à un doublement du gaz carbonique atmosphérique a constitué l'une des bases scientifiques sur lesquelles se sont appuyées les conférences de Rio ou de Kyoto pour réaliser des prévisions climatiques. Le problème que posent ces simulations est celui de leur crédibilité, ou, pour le dire d'une autre manière, le problème des incertitudes qui y sont associées. Face à des monstres informatiques dont la conception reste récente, un certain scepticisme peut être de rigueur. Il y a là un débat qui est légitime et qui est parfois difficile à bien comprendre.

D'une part les modèles constituent notre seul outil cohérent d'analyse des processus environnementaux. Leurs prédictions se font dans le respect de contraintes physiques fortes (conservation de l'énergie, de l'eau, de la quantité de mouvement) et elles concentrent une expertise considérable. En outre, la quinzaine de modèles développés de manière indépendante sur la planète donne une réponse qualitativement convergente au problème de l'effet de serre - aucun ne prévoit que le système climatique va demeurer insensible à cette augmentation, et tous manifestent une sensibilité plus grande des régions polaires en terme de température, et une sensibilité plus grande des régions tropicales au niveau hydrique.

Mais par ailleurs, des facteurs d'incertitudes subsistent. On peut peut-être distinguer trois grandes familles de problèmes. La première source d'erreur est relative à toutes les simplifications qui sont nécessaires dans la construction des modèles eux-mêmes, et que nous avons évoquées plus haut. La deuxième est intrinsèque au système climatique lui-même, qui n'est tout simplement pas un système entièrement prévisible. C'est l'effet bien connu sous le nom d'effet des ailes de papillon, qui exprime que tout battement d'ailes, aussi minime soit-il, modifie irréversiblement l'histoire de l'atmosphère. Il en résulte que toute prévision climatique est une prévision statistique. La nature profondément aléatoire de ces processus n'est pas toujours bien admise: chaque année les interrogations sur le pourquoi d'un hiver particulièrement froid reviennent à la une des journaux. Malgré tout, nous nous sommes habitués à l'idée que deux hivers successifs ne sont pas identiques mais qu'un hiver est en moyenne plutôt plus froid qu'un été, et c'est ce type de raisonnement qui doit être transposé dans le domaine climatique: l'effet de serre va guider lentement l'évolution du climat, mais il va se superposer une variabilité naturelle qui rend le système partiellement imprévisible. Un troisième facteur vient limiter la portée pratique des modèles: c'est qu'en dépit des progrès affichés dans ce domaine, ce sont encore le plus souvent des modèles physiques, qui négligent les composantes biologiques ou chimiques du système, dont le rôle essentiel apparaît pourtant de plus en plus clairement. Au cours des dernières années les aérosols soufrés ont ainsi été reconnus comme l'un des facteurs importants susceptibles de masquer, dans l'hémisphère Nord tout au moins, les premières manifestations initiales de l'effet de serre. Cette intégration de toutes les composantes chimiques, biochimiques ou physiques du système climatique constitue l'un des grands chantiers ouverts dans le domaine de la modélisation.

L'accumulation de ces facteurs d'incertitude rend sans doute illusoire, pour le moment, la prédiction détaillée d'une évolution du climat futur. On peut même dire, en grossissant un peu le trait, que plus la recherche progresse, plus l'énorme complexité des processus qui participent à l'évolution de notre environnement global apparaît de manière évidente, et plus reculent ainsi les possibilités de prévoir en détail l'évolution future du climat.

En conclusion, si le système climatique n'est pas nécessairement prévisible dans le détail, l'ensemble convergeant des résultats obtenus reste un facteur fort, qui explique que la communauté scientifique ait ressenti le devoir d'alerter l'opinion sur les risques climatiques liés à une modification de la concentration atmosphérique en gaz à effet de serre. Mais cette exploitation des modèles doit se faire en réalisant qu'elle transmet une expertise sophistiquée sur un problème complexe, plutôt qu'une prédiction précise de ce qui peut se passer.


retour au sommaire du Flash informatique spécial été 98
retour à la page principale des Flash informatique
Vos commentaires
© FI-spécial été du 1er septembre 1998