Pour les vingt concurrents, ce sont les deux véritables stars du Vendée Globe. L’américain GFS et l’européen CEP sont les modèles numériques de prévision les plus utilisés autour du monde, leur couverture étant globale pour des échéances à moyen et long terme (les autres modèles globaux sont limités à la courte échéance, à l’instar d’Arpège de Météo-France dont j’avais présenté la nouvelle version voici deux ans et demi).

 

 

En abscisse, la période 1984-2011. En ordonnée, le taux moyen de corrélation d’anomalie du niveau 500 hPa de l’atmosphère (pour la définition de ceci, voir le billet Austral de rattrapage), pour les prévisions à 5 jours dans l’hémisphère Nord. On voit que le modèle CEP (ici ECMWF en vert) est de loin le plus performant depuis 1985 et qu’il atteint en 2011 un coefficient remarquable de 0,9. Il devance non pas GFS mais le modèle de l’UKMO, le Met Office britannique (en mauve), dont la performance se détache de celle de GFS (en bleu), depuis 2006. Devant le modèle canadien (CMC en bleu clair), celui de l’US Navy (FNOMC en orange) et celui du CDAS (Climate Data Assimilation System en rouge) qui n’est plus mis à jour depuis longtemps. Le tout dans l’hémisphère Nord uniquement. (© NCEP/NOAA)

 

 

Parce que GFS et CEP divergent souvent et qu’il faut alors trancher entre eux, il est intéressant d’en connaître les performances mesurées a posteriori. À titre purement statistique… car cela ne saurait remplacer d’une part les connaissances pratiques qu’ont accumulées à leur sujet les navigateurs les plus pointus ni le fait qu’une moyenne est évidemment démentie sur des situations particulières.

 

Développé par le National Centers for Environmental Prediction Central Operations (NCEP), dépendant du National Weather Service de la National Oceanic and Atmospheric Administration (NOAA) des États-Unis, le modèle GFS (Global Forecast System) calcule une prévision toutes les 6 heures, aux heures synoptiques principales, soit 00h00, 06h00, 12h00 et 18h00 UTC (avec des performances différentes, les meilleures étant celles de 00h00 et 12h00 UTC). Sa maille horizontale est de 27 kilomètres (14,58 milles) jusqu’à 192 heures (8 jours ; pour cette maille affinée, il n’y a pas de visualisation graphique mais seulement une forme numérique type Grib) et de 70 kilomètres (37,80 milles) jusqu’à 384 heures (16 jours), par pas de 3 heures et sur 64 niveaux verticaux (sommet à 0,2 hPa).

 

La résolution la plus fine est de 0,5 degré pour les fichiers Grib qui sont disponibles ici (étant gratuits, ils sont également proposés par nombre d’autres serveurs dans le monde, souvent beaucoup plus ergonomiques). Ils sont mis en ligne quatre fois par jour, cinq heures après les heures synoptiques principales, avec des pas de 3 heures jusqu’à 8 jours (16 jours sur une grille de 2,5 degrés).

 

 

En abscisse, la période 1984-2011. En ordonnée, le taux moyen de corrélation d’anomalie du niveau 500 hPa de l’atmosphère (pour la définition de ceci, voir le billet Austral de rattrapage), pour les prévisions à 5 jours dans l’hémisphère Sud. On voit que le modèle CEP (ici ECMWF en vert) est ici encore le plus performant, depuis 1993 seulement, et qu’il atteint en 2011 un coefficient remarquable de 0,89. Il devance non pas GFS mais le modèle de l’UKMO, le Met Office britannique (en mauve), dont la performance se détache encore plus de celle de GFS (en bleu), toujours depuis 2006. Également devant le modèle canadien (CMC en bleu clair), celui de l’US Navy (FNOMC en orange) et celui du CDAS (Climate Data Assimilation System en rouge) qui n’est plus mis à jour depuis longtemps. Pour un Vendée Globe qui passe une très large partie du temps dans l’hémisphère Sud, on voit que le modèle américain est statistiquement très au-dessous du modèle européen et ce depuis toujours, à l’exception de 1994. (© NCEP/NOAA)

 

 

Développé par le Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) – European Centre for Medium-Range Weather Forecasts (ECMWF) - le modèle IFS (Integrated Forecast System) est couramment appelé modèle européen ou modèle CEP en France. Il calcule une prévision toutes les 12 heures – à 00h00 et 12h00 UTC – suivant une maille horizontale de 16 kilomètres (8,64 milles, interpolée à 7,5 milles sur Navimail), par pas de 12 minutes jusqu’à 240 heures (10 jours) et sur 91 niveaux verticaux (sommet à 0,01 hPa).

 

Payantes, ses données Grib sont disponibles à 08h00 et 20h00 UTC, notamment par Navimail de Météo-France (toutes les caractéristiques données dans ce billet sont celles en vigueur à la date de celui-ci : les choses évoluent régulièrement en la matière).

 

 

Sur les deux schémas du haut, on trouve en abscisse les échéances de 0 à 240 heures (10 jours). En ordonnée, le taux de corrélation d’anomalie du niveau 500 hPa de l’atmosphère (pour la définition de ceci, voir le billet Austral de rattrapage), moyenne calculée pour toute l’année 2011. On voit que le modèle CEP (ECM en rouge) est ici encore le plus performant, puisque sa courbe de corrélation est celle qui décroît le moins vite au fur et à mesure que l’échéance augmente. C’est vrai dans l’hémisphère Nord (à gauche) comme dans l’hémisphère Sud (à droite). Jusqu’à 144 heures (6 jours), c’est bien UKMO (UKM en orange) qui est second dans les deux hémisphères, devant GFS (en noir), CMC (en vert), FNOMC (en bleu) et CDAS (en violet). On voit que la courbe de GFS atteint la ligne de 0,6 – celle du seuil minimal d’un taux de corrélation correspondant à une prévision acceptable – au bout de 8 jours dans l’hémisphère Nord et de 7,8 jours dans l’hémisphère Sud. Cela confirme l’Austral de rattrapage évoqué dans un précédent billet. (© NCEP/NOAA)

 

 

Ce qui précède concerne les prévisions déterministes de l’état de l’atmosphère (et de l’état de la mer avec un modèle de vagues d’une maille de 28 kilomètres affinée à 10 kilomètres dans les eaux européennes). Cependant, IFS utilise aussi la prévision d’ensemble (Ensemble Prediction System ou EPS en anglais) qui est une méthode probabiliste.

 

Pour évaluer le degré de confiance d’une prévision, la méthode des ensembles consiste à réaliser plusieurs simulations à partir d’états initiaux légèrement différents, représentatifs de l’incertitude due aux erreurs d’observation, d’analyse et de modélisation. Car à partir d’états initiaux très proches, les écarts de la prévision peuvent être importants.

 

En pratique, les modèles GFS et CEP sont utilisés pour des sorties déterministes (telles qu’on les utilise à courte échéance, jusqu’à 3 ou 4 jours) ou probabilistes (on dit aussi ensemblistes).

 

 

En abscisse, la période de mai 2006 à mars 2010. En ordonnée, le taux moyen de corrélation d’anomalie du niveau 500 hPa de l’atmosphère (pour la définition de ceci, voir le billet Austral de rattrapage), pour les prévisions à 3 jours sur la France. Ici encore, le CEPMMT caracole en tête. (© Météo-France)

 

 

Ainsi, pour CEP la prévision d’ensemble compte 51 intégrations du même modèle. Cette méthode probabiliste travaille sur une maille de 30 à 60 kilomètres pour l’atmosphère (tandis que le modèle de vagues a une grille horizontale de 55 kilomètres) avec 62 niveaux verticaux, toujours avec deux prévisions par jour, à 00h00 et 12h00 UTC, allant jusqu’à 15 jours.

 

Plus délicates à utiliser et à interpréter mais pouvant apporter des hypothèses intéressantes lorsque la situation est particulièrement instable, ces sorties sont également disponibles sous la forme de fichiers Grib (le format Grib 2 permet notamment de coder les sorties EPS, lesquelles utilisent Grib API).

 

Les conditions initiales des prévisions déterministes ou probabilistes sont fournies par un système d’assimilation de données atmosphériques mettant en oeuvre une analyse variationnelle quadridimensionnelle (4D-Var) travaillant sur deux fenêtres de 12 heures, plus deux fenêtres supplémentaires de 6 heures par période de 24 heures. Ce système assimile les données d’environ 50 instruments satellitaires.

 

 

Bien qu’ancien, ce graphique est intéressant. Pour la plupart des grands modèles numériques de prévision globaux (c’est-à-dire couvrant tout le globe) – ici figurés par des courbes de couleurs distinctes – il présente les moyennes glissantes annuelles (moyenne glissante pour s’affranchir des phénomènes saisonniers, un modèle est moins performant pendant l’hiver où le temps est plus perturbé), sur les périodes 2001-04/2002-03 à 2005-04/2006-03 (en abscisse), de l’erreur quadratique moyenne (EQM = écart type) du géopotentiel au niveau 500 hPa de l’atmosphère exprimé en mètres (en ordonnée), pour les prévisions à J+3. Ces prévisions des modèles sont comparées a posteriori à l’ensemble des observations recueillies par les radiosondages effectués sur le domaine Europe (25° N/70° N – 10° W/28° E). N’affichant qu’une erreur quadratique moyenne de 24 mètres, par rapport aux radiosondages, en moyenne annuelle entre avril 2005 et mars 2006 (2005-04/2006-03), le modèle européen IFS (trait vert) du CEPMMT est de loin le meilleur sur ces prévisions à 72 heures. Ce n’est guère surprenant puisque l’organisme européen est spécialisé dans la moyenne échéance. Ainsi, n’ayant pas les mêmes contraintes de mise à disponibilité de ses résultats que les modèles nationaux – lesquels servent avant tout à l’établissement des prévisions opérationnelles à courte échéance -, le modèle européen peut se permettre d’être disponible plus tardivement dans la journée. Il assimile donc plus d’observations très récentes et son analyse est ainsi mieux calée, ce surcroît de données demandant plus de temps de calcul au superordinateur, d’autant que la prévision est ici simulée sur 10 jours, contre 4 jours pour Arpège. Car l’objet du CEPMMT, organisme européen, est de fournir les services météo nationaux des pays membres en simulations à moyenne échéance. Parmi les modèles nationaux, soumis aux mêmes contraintes de sécurité civile à courte échéance, Arpège (trait plein bleu) est devenu en 2005 le meilleur mondial sur le domaine Europe, avec une EQM d’un peu moins de 28 mètres, en moyenne annuelle entre avril 2005 et mars 2006. Il est immédiatement suivi par sa version tropicale (pointillé bleu) qui a été modifiée pour les DOM-TOM. La maille d’Arpège est inégalement répartie sur le globe (on dit qu’elle est étirée). La résolution horizontale était à l’époque de 23 kilomètres sur la France mais elle était de 180 kilomètres aux antipodes (diamétralement opposées sur la sphère). Sur les DOM-TOM, on le faisait tourner avec une résolution d’Arpège intermédiaire entre les deux précitées. Le modèle de l’UKMO britannique (en rouge) vient juste après, devançant un groupe de trois, composé du modèle GFS (en magenta), du modèle japonais de la JMA (Japan Meteorological Agency) (en jaune) et du modèle canadien du CMC (en brun), devant le modèle allemand du Deutscher Wetterdienst (DWD en noir). Ce « classement » – qui ne concerne que les modèles globaux sur le domaine Europe – est différent dans d’autres parties du globe. (© Météo-France)

 

 

Au niveau des paramètres, CEP apparaît donc plus fin que GFS. Mais comment comparer de façon statistiquement fiable les deux modèles ? En regardant les données comparatives disponibles sur l’ensemble du globe, dans ses deux hémisphères, même si le rattrapage de l’hémisphère Nord par l’hémisphère Sud est avéré depuis dix ans.

 

Ici encore, c’est au niveau 500 hPa de l’atmosphère que ces données seront les plus significatives, comme pour le reste de la série de documents d’analyse statistique et qualitative des prévisions météo que j’ai déjà présentés sur ce blog (voir Un jour en douze ans et Fusée modèle).

 

Une nouvelle fois, on utilise le coefficient de corrélation d’anomalie (voir sa définition ici) qui mesure la capacité de simulation du modèle numérique de prévision, en analysant les divergences entre ses prévisions et ses analyses (toutes les comparaisons concernent ici les versions déterministes des modèles et non les ensemblistes). Dans les diagrammes proposés par la NOAA et qui sont présentés dans ce billet, un coefficient de corrélation de 0,6 constitue la limite au-dessous de laquelle une prévision à moyen terme n’est plus considérée comme performante.

 

Se pose alors la question de l’arbitre indépendant. Sauf à considérer que la NOAA se mettrait volontairement en position difficile pour demander des crédits au gouvernement fédéral, cette question tombe d’elle-même. Pas besoin de l’Organisation météorologique mondiale (OMM), dès lors que c’est le NCEP lui-même qui place systématiquement devant son concurrent européen du CEPMMT. CEP versus GFS, l’affaire est statistiquement entendue.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.