Jules Verne aurait aimé. L’auteur du Tour du monde en 80 jours se serait sans doute passionné pour les trimarans géants qui visent le Trophée portant son nom… en moins de 50 jours. Et pour la confrontation des modèles numériques de prévision, cause de tempête sous les crânes de Marcel Van Triest et de Sylvain Mondon, routeurs respectifs de Pascal Bidégorry et de Franck Cammas. Avec l’espoir déçu – même s’il était ténu – d’un départ vendredi 22 janvier, c’est une attente de plus de deux mois qui se prolonge pour Banque populaire 5 et de près de trois semaines pour Groupama 3, revenu de Capetown et réparé au début du mois de janvier.

 

Le propos de ce billet n’est pas d’analyser les fenêtres possibles, leurs ouvertures (plus ou moins entrebâillées…) et leurs fermetures. Je veux plutôt souligner le problème de la stabilité ou de l’instabilité de la prévision qui est au coeur de l’évaluation du risque. Or, la dite prévision doit intégrer des systèmes aussi différents que la situation synoptique entre Ouessant et la latitude théorique de l’alizé portugais, l’alizé proprement dit entre Madère et au-delà de la latitude du Cap Vert (le tout étant conditionné par la position de l’anticyclone des Açores), le positionnement en longitude pour le passage du Pot-au-Noir puis pour le contournement de l’anticyclone de Sainte-Hélène. Étant entendu que – avec ces bateaux capables d’atteindre l’équateur en cinq jours et demi – les modèles numériques de prévision permettent de faire tourner des routages prévoyant, avant même le départ, la synchronisation à dix jours avec la première perturbation qu’il faudra accrocher pour pénétrer dans les Quarantièmes rugissants et l’océan Indien !

 

 

 

À l’instar de cette prévision du vent moyen en surface (c’est-à-dire à 10 mètres d’altitude, en noeuds) – prévu à 7 jours sur la base de la situation du 22 janvier à 12h00 Zoulou (UTC) – le modèle mondial américain GFS (Global Forecast System) fournit des données jusqu’à 384 heures soit 16 jours… mais au-delà de 7 jours, le risque d’erreur devient élevé. Si la situation est instable, la prévision peut s’avérer fausse bien avant ! (© www.wetterzentrale.de)

 

 

Ce qui se passe en surface (au niveau moyen de la mer) – et qui nous est immédiatement perceptible – est pour l’essentiel dépendant de ce qui se joue en altitude. Aussi, l’atmosphère est-elle modélisée en trois dimensions, à différents niveaux. Une surface isobare réunit ainsi, à un instant donné, tous les points de l’atmosphère où la pression atmosphérique est égale à une valeur donnée. De bas en haut, outre la surface au niveau moyen de la mer, les plus significatives de ces valeurs, internationalement fixées, sont les surfaces isobares standard de 850, 700, 500, 300 et 200 hPa (les modèles utilisent beaucoup d’autres niveaux intermédiaires). Aux latitudes moyennes, elles correspondant respectivement à des altitudes d’environ 1 500, 3 000, 5 500, 9 100 et 11 800 mètres.

 

Le niveau 500 hPa est le plus courant, parce qu’il est à mi-hauteur de l’atmosphère et que les déplacements des centres d’action se déterminent à cette altitude. Suivant le même principe que pour les cartes en surface, des cartes d’analyse et de prévision sont établies pour les différentes surfaces isobares standard, visualisant ainsi une véritable topographie de l’atmosphère aux altitudes moyennes correspondantes, et mettant en valeur des figures isobariques d’altitude (on parle ainsi d’un anticyclone au niveau 500 hPa ou d’un thalweg au niveau 850 hPa). Sur ces cartes, les isohypses sont des lignes reliant tous les points pour lesquels la pression de référence est à une même altitude cotée, pour la ligne considérée. Cette cote est donnée en décamètres géopotentiels, les isohypses étant généralement tracées tous les 4 décamètres.

 

Le mètre géopotentiel (mgp) (ou gpm pour geopotential meter en anglais) – que l’on assimile ici au mètre pour simplifier – est donc l’unité de cotation de l’altitude géopotentielle (le géopotentiel) pour tracer le « relief » des surfaces isobares sur les cartes d’altitude (exemple : sur une carte 500 hPa, l’isohypse 536 relie tous les points de pression 500 hPa qui sont à l’altitude 536 décamètres, c’est-à-dire à 5 360 mètres, tandis que l’isohypse 568 relie tous les points de pression 500 hPa qui sont à 5 680 mètres). Les règles établies en surface restent valables en altitude, notamment la loi de Buys-Ballot, et le principe d’un vent géostrophique d’autant plus fort que l’écartement est faible entre les isohypses (mais sans mode de calcul contrairement au gradient de pression).

 

 

 

Pour illustrer un seul aspect du casse-tête auquel doivent faire face les routeurs, il est rare que les modèles soient parfaitement d’accord entre eux. Sur la base de la situation du 22 janvier à 12h00 UTC, cette prévision à 120 heures, pour le 27 janvier à 12h00 UTC, donne la pression en surface (bodenbruck en allemand), la température (en °C) et l’altitude géopotentielle, en décamètres géopotentiels (gpdm), par le modèle mondial américain GFS (en haut) et par le modèle du Centre européen pour les prévisions météorologiques à moyen terme (ECMWF en anglais, en bas). Sans compter les autres modèles à consulter et toutes les sources complémentaires ! (© www.wetterzentrale.de)

 

 

Permettant de voir des phénomènes quasi invisibles en surface, comme les jets (courants d’altitude) ou la naissance d’une perturbation (cyclogenèse), les cartes en altitude sont plus délicates à utiliser que celles en surface. Mais elles sont très précieuses, à l’instar des cartes 500 hPa. Aux latitudes tempérées, elles permettent, par l’écartement des isohypses, de prendre la mesure de la vitesse de déplacement des phénomènes, et par la forme de ces mêmes isohypses, d’évaluer le type d’évolution des dits phénomènes. La comparaison avec les modèles numériques de prévision permet aussi d’évaluer si on a affaire à une prévision stable (convergence entre les deux documents) ou plutôt à une prévision instable (divergence entre les deux documents), plus aléatoire.

 

Estimée a priori par un indice de confiance, la fiabilité de la prévision dépend a posteriori du fait que son contenu advient ou non, plus ou moins tôt ou tard, avec une intensité plus ou moins forte. Elle est jugée en la comparant aux observations, sans négliger l’homogénéité sur la zone concernée (exemple : plus ou moins de nuages que prévu selon la sous-zone).

 

Cette connaissance de la vie de l’atmosphère en altitude n’est pas seulement essentielle pour les routeurs. Elle sert également à bien caler le modèle numérique de prévision, lors de la phase d’assimilation. Le travail d’amont pour alimenter le modèle en données fiables est un aspect majeur du savoir-faire des prévisionnistes. Comme une fusée, le modèle doit être parfaitement calé afin de partir sur la bonne trajectoire. Pour prolonger cette comparaison spatiale, des corrections sont même possibles afin qu’il atteigne sa bonne orbite. Des outils sont ainsi développés pour assurer le contrôle et le pilotage des modèles numériques de prévision, en évaluant ceux-ci. Les valeurs à l’instant initial du lancement de la prévision, pour une échéance donnée, constituent l’ensemble des données initiales de cette prévision. Cette situation est appelée l’état initial de l’atmosphère. Un état originel dont les hommes du Trophée Jules Verne aimeraient bien s’extraire !

 

O.C.