Un modèle numérique de prévision c’est comme une fusée. Si on ne le propulse pas sur la bonne trajectoire, il n’a aucune chance d’atteindre son orbite. La condition nécessaire – mais pas suffisante, loin s’en faut ! -, pour que le modèle soit lancé sur une situation la plus proche possible de la réalité, est de lui fournir le meilleur carburant, en l’occurrence le maximum de bonnes observations pour son analyse, en écartant les mauvaises (l’analyse du modèle est à distinguer des observations).

 

Le modèle numérique de prévision est considéré comme une “ sorte de vérité ”, parce que ses qualités et ses défauts sont constants, même si leur répartition est très hétérogène dans le temps et dans l’espace. On compare à l’analyse des modèles, toutes les observations disponibles sur le Système mondial de télécommunications (SMT) de l’Organisation météorologique mondiale (OMM). Sur l’année, on calcule ainsi des écarts types moyens entre les observations et les analyses, et on peut alors déterminer la qualité des observations.

 

À partir des données de référence – provenant d’un certain nombre de stations dont on est le plus sûr -, lesquelles ont l’avantage d’avoir une très bonne qualité qui s’avère constante, on définit un facteur multiplicateur de tolérance, en deçà duquel l’erreur moyenne sur un an est admise. Au-delà de ce seuil de tolérance, la donnée est automatiquement considérée comme aberrante et la station source est mise sur liste noire (mise à jour tous les deux mois).

 

D’autre part, la confiance statistique n’est pas la même selon le type de station (plus précisément selon le type d’instrumentation) et il y a donc une autre pondération automatisée. Ainsi, les radiosondages fournissent des données de grande confiance, alors que les données satellitaires génèrent des incertitudes, liées à la température exacte indiquée par la radiance que mesure le satellite, et à la façon dont on reconstitue ses images en fonction des paramètres météorologiques. Plus près de nous, certains sémaphores sont retenus, tandis que d’autres sont écartés lorsqu’ils sont soumis à des effets de site trop perturbateurs.

 

 

Observations conventionnelles (non satellitaires) :
* Avions : avions de ligne équipés avec des capteurs de vent, de température et d’humidité.
* Temp : radiosondages terrestres (650 par réseau, deux fois par jour, pour l’ensemble du monde).
* Pilot : profil vertical de vent par radar terrestre (effet Doppler) ou radar de poursuite ; PRF = profileur de vent (radar Doppler).
* Synop : stations synoptiques terrestres (exemple : sémaphore certifié).
* Ship : navires certifiés.
* Bouées : ancrées ou dérivantes.
Observations satellitaires :
* Scatt = QuikScat = mesure de vent par satellite à la surface de la mer.
* Satob = mesure de vent en altitude déduite des photos successives des nuages, suivant leur déplacement.
* Atovs = mesure de température de brillance par satellite.
Où l’on voit que les strates d’observations s’accumulent pour nourrir toujours plus des modèles numériques de prévision aux algorithmes toujours plus élaborés, servis par la puissance de calcul des supercalculateurs en progression ultra exponentielle. (© Météo-France)

 

 

Néanmoins, parce qu’on maîtrise de mieux en mieux tous ces outils dont on améliore la qualité, les observations validées sont de plus en plus nombreuses. Contemporain de celui de mon article précédent, ce graphique présente l’évolution du cumul mensuel des observations utilisées pour les analyses du modèle Arpège sur la France métropolitaine, de janvier 2002 à mars 2006 (l’échelle des abscisses n’est légendée que tous les deux mois mais le mois intermédiaire est gradué en intercalé). Vu leur nombre colossal, et des ordres de grandeur très divers, l’axe des ordonnées est une échelle logarithmique (1,5e+07 équivaut à 1,5 suivi de 7 zéros, soit 15 000 000).

 

Pour expliquer le pic de croissance qui marque 200503, les stations Synop intègrent, le 8 mars 2005, le réseau RADOME de stations automatiques développées sur notre pays par Météo-France, pour la pression atmosphérique réduite au niveau de la mer (le bleu clair s’élargit et cet élargissement se traduit donc sur le reste du cumul). Ce même jour, les données du satellite américain Aqua sont également intégrées dans les Atovs (le bleu foncé s’élargit et cet élargissement se traduit également sur le reste du cumul ; la largeur des autres couleurs ne varie pas mais est seulement décalée d’autant). Au final, de janvier 2002 à mars 2006, en 4 ans et 2 mois, les données utilisées pour les analyses du modèle Arpège sur la métropole passent de 15 millions d’observations mensuelles à 28,5 millions, soit près du double.

 

Cependant, malgré leur nombre colossal, les observations prises en compte dans l’analyse ne représentent que 7,5 % des degrés de liberté du modèle et elles n’en contrôlent que 0,5 % (le nombre de points de grille multipliés par le nombre de paramètres météorologiques calculés pour chacun de ces points, donne le nombre de degrés de liberté du modèle). Or, plus on y introduit de bonnes observations, plus le modèle s’améliore. La marge de progression reste énorme… Elle a encore considérablement progressé depuis six ans.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com