La prévision numérique du temps : les grands principes

 L’idée générale

Le principe de la prévision numérique du temps est de simuler sur un ordinateur l’évolution de l’atmosphère de manière réaliste, plus vite qu’elle ne se déroule dans la réalité.

Cette simulation repose sur les lois physiques qui gouvernent l’évolution atmosphérique. Les principales sont celles de la mécanique des fluides. Elles sont complétées par celles d’autres processus présents dans l’atmosphère : des changements d’état (l’eau se condense ou s’évapore), beaucoup de turbulence et de nombreuses interactions avec la surface et même l’espace.

 La démarche scientifique et technique

La première étape de la démarche consiste à formuler des hypothèses cohérentes sur la nature du milieu atmosphérique et les principales interactions en jeu dans son évolution. Par exemple, on suppose l’atmosphère composée d’un mélange idéal de gaz parfaits chargé de particules solides ou liquides.

Ces hypothèses reçoivent une traduction mathématique rigoureuse qui conduit à décrire les différentes interactions à laquelle est soumise une particule fluide de masse unité (ou de volume unité) pendant un temps infinitésimal. On obtient ainsi un système d’équations différentielles non-linéaires qui respecte de grands principes physiques, comme la conservation de l’énergie ou de la masse.

Il s’agit alors de trouver des solutions à ce système d’équations. Sur le plan mathématique, il s’agit d’un problème dit aux conditions initiales . La construction de solutions à partir d’équations différentielles fait intervenir des termes inconnus nouveaux qui sont déterminés par la connaissance d’un état initial . Ceci introduit un élément fondamental, la nécessité de représenter le temps qu’il fait au début de la prévision avec la même forme physique et mathématique que celle qui intervient dans le système d’équations à résoudre.

On sait peu de choses sur les propriétés mathématiques des systèmes d’équations utilisés pour la prévision du temps. Ils représentent des systèmes dynamiques très complexes, dissipatifs, forcés. Ils présentent pour la plupart une sensibilité à l’état initial elle-même assez compliquée, fonction du temps qu’il fait et du type de phénomène examiné. Elle se traduit par l’existence de solutions très différentes à partir de certains états initiaux très voisins. C’est un autre aspect fondamental qui transparaît ici, celui de la prévisibilité limitée de l’atmosphère.

On sait peu de choses, en particulier, on ne connaît pas de solution générale à ces équations. Aussi, on s’efforce d’en calculer des solutions approchées . Pour cela, les différents termes des systèmes d’équations sont formulés sous la forme d’opérations arithmétiques élémentaires : c’est la discrétisation . Elle se fonde sur une branche des mathématiques, l’analyse numérique . Ceci conduit à un algorithme : connaissant l’état initial, il permet en principe de calculer de proche en proche les états successifs à venir.

Ceci représente toutefois un très grand nombre d’opérations, même si elles sont élémentaires. Aussi, dernière étape, l’algorithme est mis en œuvre grâce à un programme d’ordinateur . Ce programme doit adapter l’organisation des calculs aux caractéristiques du calculateur. On a besoin pour cela de maîtriser les techniques de l’informatique pour le calcul de pointe .

Le tout constitue un modèle numérique de prévision atmosphérique.

Ainsi qu’on l’a dit, l’algorithme de simulation fonctionne si on lui donne un état initial. Pour décrire le temps qu’il fait, la météorologie dispose d’observations de l’atmosphère . Elles sont concentrées ici, intermittentes là, rares et dispersées ailleurs. Elles sont parfois directes, comme celles d’un thermomètre qui parcours l’atmosphère accroché à un ballon. Elles sont de plus en plus souvent indirectes : tout une panoplie de satellites mesure non pas une température à un endroit donné, mais du rayonnement émis et propagé le long de courbes, les radars mesurent de leur côté les propriétés d’une impulsion électromagnétique renvoyée par l’atmosphère et non de la pluie.

L’ assimilation des données a pour objet de transformer toutes ces données disparates en une description cohérente de l’état initial sous la forme des variables nécessaires à la simulation

Cette dernière se formalise comme un problème d’optimisation statistique . Sa résolution fait ensuite aussi appel à de l’algorithmique et de la programmation.

 Les différentes étapes d’une prévision numérique du jour

La première étape consiste à rassembler toutes les observations que l’on sait utiliser, arrivées à Toulouse, relative à une fenêtre temporelle récente. Pour cela, la météorologie développe et entretien toute une infrastructure internationale, c’est l’un des rôles principaux de l’Organisation Météorologique Mondiale, agence de l’ONU basée à Genève, bien plus ancienne, d’ailleurs, que cette organisation.

La deuxième étape consiste à combiner différentes sources d’informations pour construire l’état initial de la prévision. C’est l’assimilation des données . Les sources d’informations en jeu sont, en plus des observations, une première ébauche de ce futur état initial, le tout complété par des statistiques qui caractérisent les erreurs présentes dans ces différentes données : erreurs de mesure, zones de plus ou moins grande incertitude dans l’ébauche.

Cette première ébauche est en général une prévision très récente, parfois refaite après avoir attendu des observations arrivées très tard et avoir refait aussi, avec davantage de données, une assimilation de la période précédente. L’enchaînement de ces re-assimilations tardives constitue le cycle d’assimilation .

Une fois l’état initial déterminé, la simulation de l’évolution de l’atmosphère est lancée. Selon les caractéristiques du modèle, ces prévisions sont plus ou moins détaillées et vont moins ou plus loin dans le temps.

On l’a vu, l’assimilation de données requiert des informations sur les incertitudes. On l’a dit aussi, la prévision peut être sensible aux conditions initiales, c’est à dire que l’incertitude de la prévision peut croître de façon soudaine. Cela rend la prévision plus ou moins utile, et du coup, estimer l’incertitude d’une prévision devient aussi important que cette prévision elle-même. Pour cela, on réalise en fait des petits échantillons d’analyses et de prévisions, appelés ensembles . Quand les membres de l’échantillon apparaissent d’accord, on aura davantage confiance dans la prévision que quand ils n’apparaissent pas d’accord entre eux.

 Les points forts de la prévision numérique au CNRM-GAME

Un centre de recherches en prévision numérique du temps doit peu ou prou maîtriser un peu toutes les composantes ou tous les thèmes évoqués dans les paragraphes précédents. Toutefois, il est difficile d’exceller dans tous les domaines à la fois. Certains thèmes sont travaillés plus en profondeur que d’autres, il en résulte des innovations originales. Cela suppose souvent un investissement de longue durée.

Le groupe de prévision numérique du CNRM-GAME est ainsi un pôle de recherches en assimilation de données . Une de ses récentes innovations a consisté à montrer l’intérêt de disposer d’informations d’incertitudes évolutives plutôt que statiques dans le cadre de l’assimilation de données qu’il utilise par ailleurs pour toutes ses prévisions.

Une autre caractéristique des modèles développés au CNRM-GAME est leur utilisation de schémas numériques qui permettent d’avancer par des sauts plus grands dans le temps que le permettrait un schéma élémentaire. Cette économie en calculs est réinvestie dans d’autres aspects, l’assimilation de données en particulier.

Le CNRM-GAME dans son ensemble a rassemblé sur la durée une grande expérience de nombreux processus atmosphériques qui doivent être représentés de manière plus ou moins détaillée dans ses modèles. Il est un pôle spécialement actif dans des domaines comme la turbulence et les échanges avec la surface , ainsi que la modélisation de celle-ci.

Par ailleurs, dans chacun des autres domaines, le CNRM-GAME propose de nouvelles idées sur des sujets précis : ainsi, dans l’utilisation d’observations , avec récemment l’ouverture des mesures dans les micro-ondes assimilables sur des surfaces terrestres solides.

Le CNRM-GAME permet aux services opérationnels de Météo-France de disposer d’un système de prévision complet pour la courte échéance  : du système Arome , capable de décrire les plus gros cumulonimbus sur la France, jusqu’à une prévision d’ensemble globale spécifique des tous premiers jours de prévision, la prévision d’ensemble Arpege , avec son zoom sur l’Europe. Tous les systèmes importants disposent d’une assimilation de données capable de tirer parti d’un jeu d’observations très divers pour calculer les états initiaux dont ils ont besoin. L’Etablissement peut adapter ce système à volonté à ses propres contraintes horaires.

Pour effectuer ces recherches tout en maintenant un système complet de prévision numérique, le CNRM-GAME s’appuie sur des échanges transversaux au sein du laboratoire ainsi que sur un réseau de coopérations internationales soutenues . Il partage avec le Centre Européen pour les Prévisions Météorologiques à Moyen-Terme ainsi qu’avec nombre de pays d’Europe et d’Afrique du Nord un programme informatique commun dont chacun décline comme autant d’options les modèles ou les systèmes d’assimilation dont il a besoin pour remplir ses missions. Des coopérations fortes existent aussi avec la communauté scientifique nationale , parfois très fortes, voire fondatrices comme en assimilation de données.