Skip to Content

Monthly Archives: mai 2012

Fusée modèle

Par

 

Un modèle numérique de prévision c’est comme une fusée. Si on ne le propulse pas sur la bonne trajectoire, il n’a aucune chance d’atteindre son orbite. La condition nécessaire – mais pas suffisante, loin s’en faut ! -, pour que le modèle soit lancé sur une situation la plus proche possible de la réalité, est de lui fournir le meilleur carburant, en l’occurrence le maximum de bonnes observations pour son analyse, en écartant les mauvaises (l’analyse du modèle est à distinguer des observations).

 

Le modèle numérique de prévision est considéré comme une “ sorte de vérité ”, parce que ses qualités et ses défauts sont constants, même si leur répartition est très hétérogène dans le temps et dans l’espace. On compare à l’analyse des modèles, toutes les observations disponibles sur le Système mondial de télécommunications (SMT) de l’Organisation météorologique mondiale (OMM). Sur l’année, on calcule ainsi des écarts types moyens entre les observations et les analyses, et on peut alors déterminer la qualité des observations.

 

À partir des données de référence – provenant d’un certain nombre de stations dont on est le plus sûr -, lesquelles ont l’avantage d’avoir une très bonne qualité qui s’avère constante, on définit un facteur multiplicateur de tolérance, en deçà duquel l’erreur moyenne sur un an est admise. Au-delà de ce seuil de tolérance, la donnée est automatiquement considérée comme aberrante et la station source est mise sur liste noire (mise à jour tous les deux mois).

 

D’autre part, la confiance statistique n’est pas la même selon le type de station (plus précisément selon le type d’instrumentation) et il y a donc une autre pondération automatisée. Ainsi, les radiosondages fournissent des données de grande confiance, alors que les données satellitaires génèrent des incertitudes, liées à la température exacte indiquée par la radiance que mesure le satellite, et à la façon dont on reconstitue ses images en fonction des paramètres météorologiques. Plus près de nous, certains sémaphores sont retenus, tandis que d’autres sont écartés lorsqu’ils sont soumis à des effets de site trop perturbateurs.

 

 

Observations conventionnelles (non satellitaires) :
* Avions : avions de ligne équipés avec des capteurs de vent, de température et d’humidité.
* Temp : radiosondages terrestres (650 par réseau, deux fois par jour, pour l’ensemble du monde).
* Pilot : profil vertical de vent par radar terrestre (effet Doppler) ou radar de poursuite ; PRF = profileur de vent (radar Doppler).
* Synop : stations synoptiques terrestres (exemple : sémaphore certifié).
* Ship : navires certifiés.
* Bouées : ancrées ou dérivantes.
Observations satellitaires :
* Scatt = QuikScat = mesure de vent par satellite à la surface de la mer.
* Satob = mesure de vent en altitude déduite des photos successives des nuages, suivant leur déplacement.
* Atovs = mesure de température de brillance par satellite.
Où l’on voit que les strates d’observations s’accumulent pour nourrir toujours plus des modèles numériques de prévision aux algorithmes toujours plus élaborés, servis par la puissance de calcul des supercalculateurs en progression ultra exponentielle. (© Météo-France)

 

 

Néanmoins, parce qu’on maîtrise de mieux en mieux tous ces outils dont on améliore la qualité, les observations validées sont de plus en plus nombreuses. Contemporain de celui de mon article précédent, ce graphique présente l’évolution du cumul mensuel des observations utilisées pour les analyses du modèle Arpège sur la France métropolitaine, de janvier 2002 à mars 2006 (l’échelle des abscisses n’est légendée que tous les deux mois mais le mois intermédiaire est gradué en intercalé). Vu leur nombre colossal, et des ordres de grandeur très divers, l’axe des ordonnées est une échelle logarithmique (1,5e+07 équivaut à 1,5 suivi de 7 zéros, soit 15 000 000).

 

Pour expliquer le pic de croissance qui marque 200503, les stations Synop intègrent, le 8 mars 2005, le réseau RADOME de stations automatiques développées sur notre pays par Météo-France, pour la pression atmosphérique réduite au niveau de la mer (le bleu clair s’élargit et cet élargissement se traduit donc sur le reste du cumul). Ce même jour, les données du satellite américain Aqua sont également intégrées dans les Atovs (le bleu foncé s’élargit et cet élargissement se traduit également sur le reste du cumul ; la largeur des autres couleurs ne varie pas mais est seulement décalée d’autant). Au final, de janvier 2002 à mars 2006, en 4 ans et 2 mois, les données utilisées pour les analyses du modèle Arpège sur la métropole passent de 15 millions d’observations mensuelles à 28,5 millions, soit près du double.

 

Cependant, malgré leur nombre colossal, les observations prises en compte dans l’analyse ne représentent que 7,5 % des degrés de liberté du modèle et elles n’en contrôlent que 0,5 % (le nombre de points de grille multipliés par le nombre de paramètres météorologiques calculés pour chacun de ces points, donne le nombre de degrés de liberté du modèle). Or, plus on y introduit de bonnes observations, plus le modèle s’améliore. La marge de progression reste énorme… Elle a encore considérablement progressé depuis six ans.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com

Un jour en douze ans

Par

 

Si le document n’est pas récent, il n’en est pas moins intéressant pour mesurer les progrès de la prévision météorologique. Établi dans le cadre du contrôle qualité de Météo-France, il s’agit d’un graphique présentant l’évolution de l’erreur quadratique moyenne (EQM = écart type) du géopotentiel au niveau 500 hPa, exprimée en mètres (en ordonnée, ici basculée en abscisse pour une meilleur lisibilité), pour les vingt années allant de 1986 à début 2006 inclus (en abscisse, ici basculée en ordonnée pour une meilleur lisibilité)


Ce qui se passe au sol – et qui nous est immédiatement perceptible -, dépend pour beaucoup de ce qui se joue en altitude. Parce qu’il est à mi-hauteur de l’atmosphère et que les déplacements des centres d’action se déterminent à cette altitude, le niveau 500 hPa est essentiel. Entre 5 000 et 6 000 mètres, le mouvement de ces centres d’action est le plus représentatif de la circulation générale de l’atmosphère à l’échelle synoptique. Depuis qu’existent les modèles numériques de prévision, l’indice utilisé dans le monde pour évaluer leur qualité est donc calculé à partir de l’erreur de prévision du géopotentiel à 500 hPa.


Le mètre géopotentiel (mgp) – que l’on assimile ici au mètre pour simplifier – est l’unité de cotation de l’altitude géopotentielle (qu’on appelle le géopotentiel) pour tracer le “ relief ” des surfaces isobares sur les cartes d’altitude. Par exemple, sur une carte 500 hPa, l’isohypse 536 relie tous les points de pression 500 hPa qui sont à l’altitude 536 décamètres, c’est-à-dire à 5 360 mètres, tandis que l’isohypse 568 relie tous les points de pression 500 hPa qui sont à 5 680 mètres.


 

Pour en faciliter la lecture au format de ce blog, le document est pivoté de 90 degrés : l’ordonnée est ici en abscisse et inversement. (© Météo-France)

 


Les quatre courbes correspondent respectivement aux prévisions du modèle Arpège de Météo-France pour le tracé du géopotentiel 500 hPa, par rapport à sa propre analyse sur le domaine EURATL (30° N/70° N – 55° W/35° E), à 24 heures ou J+1 (en bleu), à 48 heures ou J+2 (en rouge), à 72 heures ou J+3 (en vert) et à 96 heures ou J+4 (en noir). On a reporté sur ces courbes les nombres d’années et de mois nécessaires pour atteindre le niveau d’erreur en mètres de l’échéance précédente (- 1 jour par rapport à la courbe concernée), le segment tracé indiquant le temps nécessaire pour gagner un jour dans la qualité des prévisions du modèle.


On constate ainsi que début 2006, en moyenne sur 12 mois, les prévisions à J+2 ont atteint le niveau des prévisions à J+1 en 14 années et 5 mois (autrement dit, le modèle prévoit à 48 heures avec la qualité qu’il avait à 24 heures, 14 ans et 5 mois auparavant ). Les prévisions à J+3 ont atteint le niveau des prévisions à J+2 après 12 années et 3 mois (autrement dit, le modèle prévoit à 72 heures avec la qualité qu’il avait à 48 heures, 12 ans et 3 mois auparavant ). Enfin, les prévisions à J+4 ont atteint le niveau des prévisions à J+3 au terme de 11 années et 9 mois (autrement dit, le modèle prévoit à 96 heures avec la qualité qu’il avait à 72 heures, 11 ans et 9 mois auparavant).


La progression est donc plus rapide pour la moyenne échéance que pour la courte échéance, mais c’est parce que celle-ci était déjà plutôt performante vingt ans auparavant. À l’échelle de l’histoire de la météorologie moderne qui est une science jeune – elle date du milieu du XIXe siècle, il y a 150 ans environnement -, ce gain de un jour en douze ans est donc considérable. Il est à rapprocher du développement phénoménal de la puissance de calcul d’une part et des satellites d’autre part, mais aussi de la connaissance de plus en plus fine de l’atmosphère qu’ont les prévisionnistes. Compte tenu du caractère exponentiel du premier, cela s’est encore accéléré depuis.


O.C.


Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.