Foin d’andouillette ou de notation financière. Ce triple A renvoie aux modèles numériques de prévision de Météo-France, Arpège, Arome et Aladin. Deux d’entre-eux ont connu des développements significatifs dont la phase opérationnelle a débuté le 13 avril 2015. Le troisième est progressivement appelé à disparaître.

 

Forte depuis l’an dernier d’un supercalculateur d’une puissance de calcul de 1 pétaFlop, soit 1 million de milliards d’opérations par seconde, Météo-France assimile près de 22 millions de données par jour pour ses différents modèles. Indépendamment de la prévision de 8 à 15 jours conduite avec le modèle du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) – dont j’ai déjà parlé afin de le comparer à son concurrent américain Global Forecast System (GFS) qui vient d’ailleurs de connaître des développements (ici et ) -, ce sont donc trois modèles que le service français utilise pour ses prévisions à courte échéance.

 

 

Depuis janvier 2014, c’est le supercalculateur Bull B 710 DLC qui est opérationnel chez Météo-France. Sa capacité de calcul est de 1,035 pétaFlops de puissance en crête totale (1 pétaFlop = un million de milliards d’opérations en virgule flottante par seconde). L’architecture parallèle des nouvelles machines offre l’avantage de décomposer les tâches en milliers de sous-tâches simultanées. Ainsi, une prévision à 24 heures sur la France avec le modèle à maille fine Arome ne nécessite plus qu’une demi-heure. (© Météo-France)

 

 

Avec une couverture mondiale, Arpège est utilisé pour prévoir les évolutions des phénomènes de grande échelle (dépressions, anticyclones) à 3 ou 4 jours sur la métropole, l’outremer et sur l’immense domaine maritime français, le second du monde juste derrière celui des États-Unis. Il est utilisé sous forme déterministe, mais aussi dans sa version probabiliste ou ensembliste (Prévision d’ensemble Arpège ou PEARP) afin de mieux tenir compte des incertitudes liées à chaque étape de la prévision (nombreuses simulations pour une même prévision). Sa résolution horizontale passe de 10 à 7,5 km sur l’Europe (de 15 km à 10 km pour la prévision d’ensemble) mais de 60 km à 36 km aux antipodes (de 90 km à 60 km pour la prévision d’ensemble), sur 105 niveaux verticaux au lieu de 70 dans la version précédente.

 

Couvrant la France métropolitaine et une bonne partie de l’Europe occidentale, Arome voit sa résolution horizontale doubler (1,3 au lieu de 2,5 km) et ses niveaux verticaux multipliés par un et demi (90 au lieu de 60). Alimenté par Arpège sur ses marges, Arome produit des prévisions très détaillées, jusqu’à 36 heures en moyenne. Les prévisionnistes l’utilisent pour affiner leurs prévisions à petite échelle des phénomènes dangereux.

 

Dans les deux modèles, les plus bas niveaux étaient depuis longtemps autour de 17 mètres. Ils sont désormais de 5 m dans Arome et de 10 ou 14 m dans Arpège selon qu’il est déterministe ou ensembliste. Les observations prises en compte pour déterminer l’état initial de l’atmosphère intègrent des données issues de nouveaux instruments ou de nouveaux canaux dans les instruments déjà en service (aux premiers rangs desquels les satellites).

 

Pour intégrer ces nouvelles données, les algorithmes d’assimilation ont été revus en profondeur de manière à mieux prendre en compte les informations pertinentes. Dans Arpège, la description des incertitudes a ainsi été considérablement améliorée avec 25 scénarios de prévisions à courte échéance pour l’ensemble d’assimilation au lieu de 6 précédemment. Ces estimations d’incertitudes permettent d’affecter un poids à chaque source de données et d’affiner la qualité de l’état initial des prévisions. Parmi les améliorations attendues sur Arpège, notons la modélisation des tempêtes et la représentation des cumulonimbus.

 

Sous Arome, ce sont justement les prévisions des orages avec leurs précipitations et leurs rafales qui devraient notamment profiter des modifications apportées. Le cycle d’assimilation de ce modèle est désormais basé sur 24 analyses quotidiennes au lieu de 8 dans la version antérieure ce qui permet d’intégrer trois fois plus d’observations radar. La base de données orographiques a été mise à jour vers une représentation plus réaliste des reliefs qui devrait être profitable sur les côtes élevées, par exemple en Méditerranée.

 

 

En ordonnée, le nombre de cellules convectives sur une journée et en abscisse leur surface en kilomètres carrés. La courbe bleue montre les observations par radar, la courbe verte les prévisions par Arome ancienne version et la rouge les prévisions Arome nouvelle version. On voit que celle-ci s’approche au plus près des observations du radar, témoignant du bond accompli dans la modélisation des cellules orageuses. (© Météo-France)

 

 

Visiblement, la ligne directrice de tous ces changements est de recentrer la prévision sur le court terme et la très haute résolution spatiale des risques liés aux phénomènes dangereux en métropole. En ce qui concerne spécifiquement le maritime (qui n’est qu’une toute petite partie des préoccupations nationales), cela devrait avoir indirectement une incidence sur une meilleure prévision des vagues.

 

Comme tout service public, Météo-France doit justifier ses crédits et donc ses résultats auprès des politiques. Le temps de calcul disponible est ainsi très fortement modifié en ce sens. Avant le 13 avril 2015, Arpège en mobilisait plus de 65 % à l’échelle moyenne sur le domaine mondial contre à peine plus de 20 % à l’avenir. Tandis qu’Arome ne va cesser de monter en puissance à l’échelle fine de la métropole, passant de 20 % à 40 % à la fin 2015, auxquels s’ajouteront mi 2016 les 20 % de la version ensembliste d’Arome (telle qu’elle existe aujourd’hui avec Arpège). Arome aura alors pris la place qu’occupait auparavant Arpège dans la mémoire vive du supercalculateur de Météo-France, les 20 % restants étant dévolus aux DOM-TOM et à la Défense.

 

Cependant, la puissance de calcul n’est pas tout. Les recherches sur les méthodes numériques font également leur part du travail. Ainsi, le simple doublement de la résolution horizontale d’Arome nécessiterait normalement une puissance de calcul 8 fois plus importante. Grâce aux dites recherches, le “ surcoût ” réel n’est que de 4,8, ce qui libère de la mémoire pour d’autres calculs. La prévision numérique progresse donc plus vite que la seule augmentation de la capacité de ses ordinateurs dont la hausse est pourtant vertigineuse.

 

 

Depuis janvier 2014, la puissance de calcul est douze fois plus importante qu’auparavant. Par rapport à 1992, elle a été multipliée par 500 000 ! Cela permet de gagner un jour de prévision tous les dix ans, la fiabilité à 4 jours de 2014 équivalant à celle à 3 jours de 2004. (© Météo-France)

 

 

Et le troisième A ? Pour faire écho à son nom, Aladin devrait disparaître. Ce modèle régional (résolution horizontale de 7,5 km) affine Arpège sur les Antilles, la Guyane, la Polynésie française, la Nouvelle-Calédonie, l’océan Indien pour la prévision cyclonique et dans les zones du monde où l’armée française mène des opérations. Dès 2015-2016, Aladin sera progressivement remplacé par Arome grâce au temps de calcul libéré par ailleurs (voir ci-dessus). La prévision des cyclones y gagnera de l’attention. Avec un grand A.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.