Skip to Content

Category Archives: Météo

Triple A

Par

 

Foin d’andouillette ou de notation financière. Ce triple A renvoie aux modèles numériques de prévision de Météo-France, Arpège, Arome et Aladin. Deux d’entre-eux ont connu des développements significatifs dont la phase opérationnelle a débuté le 13 avril 2015. Le troisième est progressivement appelé à disparaître.

 

Forte depuis l’an dernier d’un supercalculateur d’une puissance de calcul de 1 pétaFlop, soit 1 million de milliards d’opérations par seconde, Météo-France assimile près de 22 millions de données par jour pour ses différents modèles. Indépendamment de la prévision de 8 à 15 jours conduite avec le modèle du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) – dont j’ai déjà parlé afin de le comparer à son concurrent américain Global Forecast System (GFS) qui vient d’ailleurs de connaître des développements (ici et ) -, ce sont donc trois modèles que le service français utilise pour ses prévisions à courte échéance.

 

 

Depuis janvier 2014, c’est le supercalculateur Bull B 710 DLC qui est opérationnel chez Météo-France. Sa capacité de calcul est de 1,035 pétaFlops de puissance en crête totale (1 pétaFlop = un million de milliards d’opérations en virgule flottante par seconde). L’architecture parallèle des nouvelles machines offre l’avantage de décomposer les tâches en milliers de sous-tâches simultanées. Ainsi, une prévision à 24 heures sur la France avec le modèle à maille fine Arome ne nécessite plus qu’une demi-heure. (© Météo-France)

 

 

Avec une couverture mondiale, Arpège est utilisé pour prévoir les évolutions des phénomènes de grande échelle (dépressions, anticyclones) à 3 ou 4 jours sur la métropole, l’outremer et sur l’immense domaine maritime français, le second du monde juste derrière celui des États-Unis. Il est utilisé sous forme déterministe, mais aussi dans sa version probabiliste ou ensembliste (Prévision d’ensemble Arpège ou PEARP) afin de mieux tenir compte des incertitudes liées à chaque étape de la prévision (nombreuses simulations pour une même prévision). Sa résolution horizontale passe de 10 à 7,5 km sur l’Europe (de 15 km à 10 km pour la prévision d’ensemble) mais de 60 km à 36 km aux antipodes (de 90 km à 60 km pour la prévision d’ensemble), sur 105 niveaux verticaux au lieu de 70 dans la version précédente.

 

Couvrant la France métropolitaine et une bonne partie de l’Europe occidentale, Arome voit sa résolution horizontale doubler (1,3 au lieu de 2,5 km) et ses niveaux verticaux multipliés par un et demi (90 au lieu de 60). Alimenté par Arpège sur ses marges, Arome produit des prévisions très détaillées, jusqu’à 36 heures en moyenne. Les prévisionnistes l’utilisent pour affiner leurs prévisions à petite échelle des phénomènes dangereux.

 

Dans les deux modèles, les plus bas niveaux étaient depuis longtemps autour de 17 mètres. Ils sont désormais de 5 m dans Arome et de 10 ou 14 m dans Arpège selon qu’il est déterministe ou ensembliste. Les observations prises en compte pour déterminer l’état initial de l’atmosphère intègrent des données issues de nouveaux instruments ou de nouveaux canaux dans les instruments déjà en service (aux premiers rangs desquels les satellites).

 

Pour intégrer ces nouvelles données, les algorithmes d’assimilation ont été revus en profondeur de manière à mieux prendre en compte les informations pertinentes. Dans Arpège, la description des incertitudes a ainsi été considérablement améliorée avec 25 scénarios de prévisions à courte échéance pour l’ensemble d’assimilation au lieu de 6 précédemment. Ces estimations d’incertitudes permettent d’affecter un poids à chaque source de données et d’affiner la qualité de l’état initial des prévisions. Parmi les améliorations attendues sur Arpège, notons la modélisation des tempêtes et la représentation des cumulonimbus.

 

Sous Arome, ce sont justement les prévisions des orages avec leurs précipitations et leurs rafales qui devraient notamment profiter des modifications apportées. Le cycle d’assimilation de ce modèle est désormais basé sur 24 analyses quotidiennes au lieu de 8 dans la version antérieure ce qui permet d’intégrer trois fois plus d’observations radar. La base de données orographiques a été mise à jour vers une représentation plus réaliste des reliefs qui devrait être profitable sur les côtes élevées, par exemple en Méditerranée.

 

 

En ordonnée, le nombre de cellules convectives sur une journée et en abscisse leur surface en kilomètres carrés. La courbe bleue montre les observations par radar, la courbe verte les prévisions par Arome ancienne version et la rouge les prévisions Arome nouvelle version. On voit que celle-ci s’approche au plus près des observations du radar, témoignant du bond accompli dans la modélisation des cellules orageuses. (© Météo-France)

 

 

Visiblement, la ligne directrice de tous ces changements est de recentrer la prévision sur le court terme et la très haute résolution spatiale des risques liés aux phénomènes dangereux en métropole. En ce qui concerne spécifiquement le maritime (qui n’est qu’une toute petite partie des préoccupations nationales), cela devrait avoir indirectement une incidence sur une meilleure prévision des vagues.

 

Comme tout service public, Météo-France doit justifier ses crédits et donc ses résultats auprès des politiques. Le temps de calcul disponible est ainsi très fortement modifié en ce sens. Avant le 13 avril 2015, Arpège en mobilisait plus de 65 % à l’échelle moyenne sur le domaine mondial contre à peine plus de 20 % à l’avenir. Tandis qu’Arome ne va cesser de monter en puissance à l’échelle fine de la métropole, passant de 20 % à 40 % à la fin 2015, auxquels s’ajouteront mi 2016 les 20 % de la version ensembliste d’Arome (telle qu’elle existe aujourd’hui avec Arpège). Arome aura alors pris la place qu’occupait auparavant Arpège dans la mémoire vive du supercalculateur de Météo-France, les 20 % restants étant dévolus aux DOM-TOM et à la Défense.

 

Cependant, la puissance de calcul n’est pas tout. Les recherches sur les méthodes numériques font également leur part du travail. Ainsi, le simple doublement de la résolution horizontale d’Arome nécessiterait normalement une puissance de calcul 8 fois plus importante. Grâce aux dites recherches, le “ surcoût ” réel n’est que de 4,8, ce qui libère de la mémoire pour d’autres calculs. La prévision numérique progresse donc plus vite que la seule augmentation de la capacité de ses ordinateurs dont la hausse est pourtant vertigineuse.

 

 

Depuis janvier 2014, la puissance de calcul est douze fois plus importante qu’auparavant. Par rapport à 1992, elle a été multipliée par 500 000 ! Cela permet de gagner un jour de prévision tous les dix ans, la fiabilité à 4 jours de 2014 équivalant à celle à 3 jours de 2004. (© Météo-France)

 

 

Et le troisième A ? Pour faire écho à son nom, Aladin devrait disparaître. Ce modèle régional (résolution horizontale de 7,5 km) affine Arpège sur les Antilles, la Guyane, la Polynésie française, la Nouvelle-Calédonie, l’océan Indien pour la prévision cyclonique et dans les zones du monde où l’armée française mène des opérations. Dès 2015-2016, Aladin sera progressivement remplacé par Arome grâce au temps de calcul libéré par ailleurs (voir ci-dessus). La prévision des cyclones y gagnera de l’attention. Avec un grand A.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Anton a cogné fort

Par

 

Le gradient de pression était considérable. La dépression Anton s’est creusée sur la mer Tyrrhénienne, le mercredi 4 mars 2015 en soirée. Nous valant le beau temps actuel sur toute la moitié Nord de la France, un puissant anticyclone se centrait sur le golfe de Gascogne et l’Ouest du pays, montant à 1042 hPa le jeudi 5 à la mi-journée, tandis qu’à l’Est de la Sardaigne, cela chutait à 995 hPa. Le couloir isobarique entre les deux centres de pression a généré un très fort flux de Nord sur la Méditerranée occidentale et l’Adriatique.

 

 

Dans sa carte de prévision à 36 heures des isobares et des fronts pour le jeudi 5 mars à 12h00 UTC sur la base du réseau du 04.03.15 à 00h00 UTC, le Deutscher Wetterdienst annonce clairement le très fort gradient de pression entre l’anticyclone Karin et la dépression Anton. (© Deutscher Wetterdienst – DWD)

 

 

Le jeudi 5 mars, outre une violente tramontane et un mistral musclé, on a ainsi enregistré des rafales à plus de 150 km/h (81 noeuds) en mer Tyrrhénienne. Des valeurs records ont été atteintes sur la côte orientale de la Corse (vent de Nord-Est, le gregale), avec 185 km/h (100 noeuds) à La Chiappa, près de Porto-Vecchio.

 

Elles ont dépassé les 200 km/h (108 noeuds) sur les collines de la Toscane, alors que la tempête se décalait le vendredi 6 mars vers les Balkans et les Carpates. La différence de pression entre le Nord et le Sud des Alpes a favorisé le vent de Nord-Est ainsi qu’un effet de foehn dans le Valais. En altitude, le courant jet établi de la Scandinavie au Maghreb atteignait 140 noeuds.

 

 

L’image satellitaire Meteosat-9-HRV du jeudi 5 mars à 12h00 UTC montre bien l’enroulement dépressionnaire d’Anton. (© Météo Suisse)

 

 

C’est en Croatie que les effets d’accélération dus au relief ont été les plus impressionnants. La bora (vent du Nord-Est) a soufflé des sommets dalmates vers l’Adriatique avec une rare violence, de Trieste au Nord-Ouest à Dubrovnik au Sud-Est. Des rafales à 166 km/h (90 noeuds) ont été relevées à Split, 210 km/h (113 noeuds) près de Zadar et 214 km/h (116 noeuds) un peu plus au Nord-Ouest, à Prizna.

 

Les précipitations ont également été considérables avec de la pluie sur la côte et de la neige sur l’arrière-pays et les états voisins, ainsi que sur les Apennins et les Abruzzes en Italie. Plus de 100 noeuds dans les rafales et un vent moyen de force 12 (plus de 64 noeuds), autant dire l’ouragan. Anton ? Un sacré cogneur.

 

O.C.

 

 

Dès le jeudi 5 mars, l’Adriatique s’est déchaînée en Croatie sous les effets de la bora (ici à Ražanac près de Zadar). (© Leo Banic)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

GFS refait surface (2/2)

Par

 

La nouvelle version de GFS que j’évoquais dans mon premier article devrait améliorer très sensiblement les prévisions. Mais de là à l’utiliser dans les zones côtières de notre façade occidentale où les effets de site et les phénomènes de brises sont importants, ou dans une mer fermée comme la Méditerranée où l’influence des terres et surtout des reliefs est aussi considérable que la multiplicité des îles, il y a un pas optimiste que je ne franchirai pas.

 

 

Sur la Méditerranée occidentale, l’Italien LaMMA propose une déclinaison régionale de GFS avec son modèle WRF. Ici le vent moyen à 10 m, à 5 jours avec une résolution de 12 km. (© LaMMA)

 

 

 

Avec cette mise à jour de GFS, Arpège qui est le modèle mondial de Météo-France avec des prévisions à 4 jours dont la maille horizontale est optimisée à 10 kilomètres sur l’Europe de l’Ouest (sur 70 niveaux au total) n’est plus aussi compétitif. Ce modèle Arpège HR (pour haute résolution, 10 km) est visible ici sur Previmer (simple visualisation sur petite carte à 3 jours).

 

En effet, une déclinaison régionale de GFS telle que le modèle WRF (Weather Research and Forecasting) qui prend bien en compte la topographie (en particulier les reliefs de la côte et de l’arrière-pays) devrait bénéficier directement de l’amélioration de GFS (en l’occurrence du modèle proprement dit d’une part et de sa hausse de résolution d’autre part) alors que nombre de sites météo utilisent ses ressources, notamment dans sa version NMM (Nonhydrostatic Mesoscale Model) qui offre une résolution horizontale fine (jusqu’à 4 km), un exemple ici avec Meteociel (5 km) ou pour la Méditerranée occidentale, ici avec le très bon LaMMA (mais 12 km seulement dans sa version moyenne résolution).

 

Cela dit, pour la courte échéance, les vrais modèles à maille fine - qui réalisent l’assimilation à haute résolution -, sont à privilégier, tout particulièrement en Méditerranée où il faut utiliser en priorité ceux développés par les services locaux. En voici quelques exemples que j’utilise régulièrement, sans aucune prétention d’exhaustivité. En Italie, on trouve ainsi l’excellent modèle LaMMA HR qui n’est autre qu’un WRF utilisant le modèle CEP sur 3 jours avec une résolution horizontale de 3 km, hélas pas sur tout le pourtour de l’Italie et de ses îles.

 

 

Développé par l’université d’Athènes, Poseidon est un excellent modèle à maille fine pour la Grèce (en dépit d’un affichage dont le graphisme et le positionnement gagneraient à être plus précis), ici les Cyclades avec le vent moyen à 10 m, à 3 jours. (© Poseidon)

 

 

En Grèce, c’est le fort bon système Poseidon pour toutes les zones en mer Ionienne et en mer Égée (utiliser la visualisation zoomée sur chaque bassin en passant par l’onglet Sailing Forecast). Sa résolution horizontale est de 1/30 degré, soit 0,03 degré. Dans les deux cas (italien et grec), les données sont gratuites mais il ne s’agit que de visualisations sans fichiers Grib. Tandis que OpenSkiron permet de télécharger des Grib lisibles sur zyGrib, proposés par zones de la Méditerranée (exemple : mer Égée, mais la résolution de calcul et d’affichage aux points de grille n’est plus que de 0,1 degré). Leur provenance est l’université d’Athènes qui réalise et gère le service Poseidon.

 

Côté Météo-France, le modèle numérique de prévision Arome offre une maille de calcul de 2,5 kilomètres (qui doit passer à 1,3 km en ce début 2015 !). Il intègre les données issues des observations locales, par exemple celles des vents doppler des radars météo, et il peut prendre en compte des éléments au sol plus précis, afin de modéliser les îlots de chaleur.

 

Arome voit beaucoup plus le relief littoral et les autres effets de sites qu’un modèle global comme GFS, y compris les brises thermiques, les effets de pointe ou les effets venturi. Enfin, il prend mieux en compte les mouvements verticaux et la modélisation des phénomènes convectifs aux abords des côtes, en particulier les orages. Pour la courte échéance, de une à trente-six heures, la finesse est très supérieure à GFS.

 

 

Le même modèle Poseidon, exploité en grib via le site OpenSkiron et affiché ici sous zyGrib sur les seuls points de grille pour la mer Égée. La résolution (0,1 degré) est trois fois inférieure à celle proposée en affichage simple sur le site Poseidon (0,03 degré). (© zyGrib /Olivier Chapuis)

 

 

Mais ce modèle n’est accessible qu’avec Navimail 2.1.3, lequel propose ainsi une maille jusqu’à 0,025° avec Arome, soit un point de grille tous les 1,5 milles (ou 2,78 kilomètres), ce qui est de la très haute résolution (Navimail 2.1.3 à télécharger ici pour le côtier et ici pour le large) Ces données sont payantes. Celles du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF) le sont aussi.

 

Je ne suis pas un partisan de la libéralisation à outrance, c’est un euphémisme, mais on peut s’interroger – comme le faisait l’an dernier Francis Fustier dans son remarquable blog Navigation Mac -, sur le fait de savoir jusqu’à quand ce sera tenable vis-à-vis des citoyens et contribuables européens qui en financent une large partie. Ouvrir ces données aux développeurs qui veulent y ajouter de la valeur serait effectivement une bonne idée. À condition qu’elles le soient aussi aux utilisateurs lambda en libre accès, au minimum à un format brut exploitable comme les fichiers Grib. Ce serait d’autant plus judicieux que CEP était reconnu meilleur que GFS… en tout cas jusqu’à la mise à jour majeure que vient de connaître ce dernier.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

GFS refait surface (1/2)

Par

 

D’accord, mon titre est quelque peu provocateur. Le modèle numérique de prévision GFS (Global Forecast System) n’a jamais sombré. Mais de l’aveu même des Américains qui le produisent, il était en retard sur son concurrent européen, le modèle IFS (Integrated Forecast System) du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF), couramment appelé modèle CEP en France et utilisé notamment par Météo-France et les autres services européens (Royaume-Uni, Allemagne…).

 

 

Une requête avec zyGrib du GFS maille 0,25 degré (spécifiée en haut à gauche). (© zyGrib / Olivier Chapuis)

 

 

L’américain GFS et l’européen CEP sont les modèles numériques de prévision les plus utilisés au large. Leur couverture est globale pour des échéances à moyen et long terme tandis que les autres modèles globaux sont limités à la courte échéance, à l’instar d’Arpège de Météo-France (mais avec un pas de temps de 10 minutes dans son cas). Parce qu’ils divergent souvent, GFS et CEP sont complémentaires.

 

Développé par le National Centers for Environmental Prediction (NCEP), dépendant du National Weather Service (NWS) de la National Oceanic and Atmospheric Administration (NOAA) des États-Unis, le modèle GFS propose une nouvelle version qui est opérationnelle depuis le 14 janvier 2015. Parmi toutes les améliorations apportées dont on trouvera le détail exhaustif ici – aussi bien pour l’assimilation que pour le mode de calcul de l’algorithme, en ne parlant que du modèle atmosphérique, indépendamment du modèle océanique d’état de la mer -, l’évolution la plus marquante pour le public concerne la résolution horizontale proposée dans les fichiers Grib (Gridded binary).

 

 

MaxSea Time Zero, via son serveur, ne prend pas encore en compte la nouvelle résolution : ici la maille 0,50 degré le 29 janvier 2015 sur le golfe de Gascogne (base 00h00 UTC, prévision à 18h00 UTC ici, 19h00 locale). (© MaxSea Time Zero / Olivier Chapuis)

 

 

Elle passe à 0,25 degré contre 0,5 degré auparavant. Sa densité est donc quatre fois supérieure. La résolution 0,5 degré est toujours disponible ce qui est une bonne chose car les fichiers à 0,25 degré sont quatre fois plus gros et cela peut coûter cher pour les télécharger par satellite au large. Mais à terre, ce n’est que bénéfice.

 

Le 29 janvier 2015 au même point 47° 23’ N / 06° 40’ W, avec le GFS 0,25 degré, on retrouve le même vent moyen à 10 m au 309° / 39, 2 N contre 306° / 39,5 N pour le GFS 0,5 degré de l’image précédente (toujours base 00h00 UTC, prévision à 18h00 UTC). (© zyGrib / Olivier Chapuis)

 

 

Cette résolution en sortie de modèle ne doit pas être confondue avec celle en entrée de modèle, dans la phase d’assimilation des données (pour le NCEP il s’agit du Global Data Assimilation System, GDAS, qui connaît lui aussi des améliorations avec cette mise à jour). La résolution horizontale de calcul GFS Global Spectral Model vient de passer de 27 kilomètres (14,58 milles) à 13 kilomètres (7,02 milles) et de 192 heures (8 jours) à 240 heures (10 jours) pour les prévisions à court et moyen terme (10 jours est aussi l’échéance maximale pour un fichier Grib 0,25 degré). Pour les prévisions à long terme, elles sont passées de 70 kilomètres (129,64 milles) à 35 kilomètres (155,57 milles), entre 240 et 384 heures (16 jours).

 

Le pas de temps le plus fin reste de 3 heures et sur 64 niveaux verticaux (sommet à 0,2 hPa) avec 366 variables par point de grille (chaque point de grille fait référence à une position géographique à un niveau donné définissant un quadrillage en trois dimensions qui découpe l’atmosphère en cubes ; on passe à quatre dimensions lorsque le modèle tourne, en ajoutant une dimension de temps). GFS calcule une prévision toutes les 6 heures, aux heures synoptiques principales (en anglais, le run servant de base au calcul), soit 00h00, 06h00, 12h00 et 18h00 UTC (avec des performances différentes, les meilleures étant celles de 00h00 et 12h00 UTC). Les fichiers Grib sont mis en ligne quatre fois par jour, cinq heures après les heures synoptiques principales (toujours avec des pas de 3 heures jusqu’à 10 jours et des mailles horizontales à choisir entre 0,25, 0,5, 1 et 2,5 degrés).

 

 

Avec la maille 0,25 degré, la visualisation de GFS présente une densité quatre fois supérieure à la maille 0,50 degré telle qu’à l’image 2. (© zyGrib / Olivier Chapuis)

 

 

Les sorties du modèle numérique de prévision GFS sont proposées gratuitement à tous les utilisateurs (dont les développeurs des programmes de sélection, de téléchargement et de visualisation des Grib, avec ou sans routage à la clé) via les serveurs NOMADS (NOAA Operational Model Archive and Distribution System), au format Grib 2, par exemple celui-ci pour le GFS de maille 0,25 degré. Ces serveurs sont utilisables directement mais leur ergonomie est bien moins agréable que celle des meilleurs programmes. Ainsi, l’excellent zyGrib (à télécharger ici) – programme gratuit de visualisation simple – intègre déjà cette maille à 0,25 degré comme le non moins réputé Weather 4D (application payante de visualisation des Grib mais aussi de routage) qui le fait depuis novembre pour son application Android (alors que la maille 0,25 était en phase de test au NCES) et depuis le 15 janvier sous iOS (mobiles Apple) pour les zones France et Europe, tandis que d’autres programmes ne proposent encore que les Grib GFS à 0,5 degré (c’est le cas de Grib.us pour Ugrib et de MaxSea Time Zero ce 29 janvier).

 

Le gros travail entrepris sur cette mise à jour de GFS est notamment dû à quelques ratés de prévision qui s’étaient produits en octobre 2012 lors du cyclone Sandy qui, après les Grandes Antilles dont Haïti, avait frappé très durement la côte Est des États-Unis jusqu’à New York. On peut en voir l’analyse du NCEP ici.

 

 

Pour ne pas accréditer la fausse illusion d’une haute résolution qui n’en est pas une, il est recommandé de n’afficher que les flèches de vent correspondant aux points de grille Grib, autrement dit de désactiver l’interpolation spatiale. (© zyGrib / Olivier Chapuis)

 

 

Suite la semaine prochaine avec l’impact sur la pseudo haute résolution comparée à la vraie haute résolution.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Au loup !

Par

 

Pas un jour sans qu’on entende les scientifiques crier au loup dans les médias. Le problème est que l’animal est déjà dans la bergerie depuis un moment, que tous les indices le confirment et qu’il n’y a plus guère de mammouth pour les contester. Mais l’effet amplificateur et démultiplicateur des réseaux crée accoutumance et indifférence en même temps que les nécessaires prises de conscience. Celles-ci se heurtent à beaucoup d’impuissance face à l’inertie de nos modes de vie. Pendant ce temps, le climat se réchauffe et l’océan avec lui.

 

Il ne faut pas pour autant se tromper d’échelle d’espace/temps et lire tout événement météorologique à l’aune du changement climatique, comme nous l’ont rappelé à bon escient les météorologues interrogés dans notre récent dossier “ Coup de chaud sur le climat ? ” (Voiles & voiliers n° 518, avril 2014). C’est pourtant ce qui se fait logiquement au quotidien, sous le diktat des images spectaculaires et anxiogènes tournant en boucle. On ne peut blâmer les victimes de ces météores, aux premières loges, de mélanger les phénomènes atmosphériques et l’incurie des hommes d’après 1960 dans l’aménagement du territoire, ainsi que le rappelle parmi tant d’autres exemples le procès Xynthia en cours.

 

 

Les images spectaculaires – telles que celles de Xynthia aux Sables d’Olonne, le 28 février 2010 -, frappent les imaginations et marquent les mémoires. Si elles témoignent de phénomènes hors normes, l’extrapolation du météorologique au climatique doit être faite avec beaucoup de prudence. (© Jacques Archambaud / SAEMSO Port-Olona)

 

 

Le message est brouillé mais la responsabilité en est largement diluée. Vous et moi d’abord. Si nous voulons vivre avec vue sur mer, il ne faut pas nous étonner que celle-ci s’invite de temps à autre dans notre salon, sans même attendre l’élévation du niveau des océans et sans que le recul du trait de côte ne soit obligatoirement en cause. Les politiques ensuite qui résistent mal (c’est un euphémisme) à la pression financière considérable accompagnant (ou appelant) ce mouvement démographique bien connu vers le littoral, un peu partout dans le monde.

 

Les scientifiques et les médias enfin. Il y a suffisamment de raisons de crier au loup, matin, midi et soir, pour ne pas en rajouter à des fins purement stratégiques, comprenez que laboratoires et ONG ont besoin d’alerter plus que de raison pour récupérer des crédits gouvernementaux et lever des fonds dans l’opinion. Et que les journalistes sont toujours preneurs de données qui les dépassent d’autant plus qu’elles sont nécessairement réduites à des simplifications extrêmes en bout de course.

 

Prenez le rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) – dont la synthèse de la cinquième livraison (2014) sera officiellement présentée à partir du 27 octobre -, il compte allègrement plus d’un millier de pages. On peut heureusement en trouver un résumé ici.

 

Prenez la Conférence scientifique publique mondiale sur la météorologie 2014 qui a eu lieu du 16 au 21 août dernier à Montréal. Elle est emblématique de la nécessité de s’ouvrir au plus grand nombre mais elle témoigne aussi des limites de l’exercice : le PDF des seuls résumés fait 920 pages (à télécharger ici), bien évidemment en anglais et surtout, à un niveau en réalité inaccessible aux non spécialistes.

 

Comment en extraire des conclusions significatives mais non caricaturales ou réductrices ? L’exercice est loin d’être évident, y compris pour les scientifiques eux-mêmes qui peinent souvent à synthétiser leurs travaux dont la nature s’y prête mal. Quand ils ne se laissent pas carrément emporter par leur enthousiasme (si je peux employer ce mot en matière de catastrophisme) comme cela est arrivé à certains d’entre-eux au Québec.

 

C’est ainsi qu’on a pu voir reprise dans la presse généraliste, “ l’information ” (c’est moi qui mets les guillemets) que les vagues feraient “ désormais 40 mètres là où 20 mètres étaient exceptionnels ”, les propos ayant bien été tenus par un universitaire américain. Sans préciser si on parle de leur hauteur significative qui correspond à la hauteur moyenne du tiers des vagues les plus hautes (H 1/3 : sur trente vagues consécutives, la hauteur moyenne des dix plus hautes donne la hauteur significative de ce train de vagues) ou de la hauteur des vagues scélérates… ce qui n’est pas la même chose !

 

 

La hauteur exceptionnelle des vagues scélérates deviendra-t-elle la norme en matière de hauteur significative lors des tempêtes ? (© DR)

 

 

L’objet de ce congrès de Montréal était surtout de faire l’état d’avancement des technologies pour l’élaboration des prévisions météorologiques et d’établir leur programme de développement à long terme. Peut-être parce qu’il s’agissait d’une conférence ouverte d’un genre nouveau, celle-ci a dérivé singulièrement entre les présentations scientifiques (dont les résumés sont disponibles dans le document précité) et leur communication à la presse et au grand public, toute rigueur ayant été débarquée dans l’alarmisme ambiant…

 

Parfois, le message est moins flou. On vient de le voir avec la Conférence des parties, organe directeur de la Convention sur la diversité biologique de l’ONU. Sa dernière édition s’est tenue le 6 octobre en Corée du Sud et elle alerte à juste titre sur l’acidification des océans. D’ici à 2100, celle-ci augmenterait de près de 170 % par rapport à ce qu’elle était avant les débuts de l’industrialisation du monde au XIXème siècle. Due à la hausse des rejets de gaz carbonique dans l’atmosphère, liée pour l’essentiel aux activités humaines, cette acidité s’est accrue d’un tiers en 200 ans.

 

Là encore, c’est l’accélération phénoménale qui frappe puisque ce phénomène serait d’une amplitude inédite depuis cinquante-six millions d’années et d’une vitesse jamais vue depuis trois cents millions d’années. Ce changement de pH ferait disparaître 70 % des organismes marins dans lesquels le calcaire est présent et qui sont de véritables marqueurs climatiques.

 

Le problème est donc d’être concret avec des hypothèses qui si elles sont de plus en plausibles n’en sont pas moins issues de modèles numériques de prévision en climatologie, avec des marges d’erreur plus ou moins importantes. À cet égard, le site Drias, réalisé par Météo-France, vous propose de sélectionner des paramètres de modélisation pour une visualisation pragmatique des scénarios de changements climatiques, à l’échelle du territoire français.

 

Quant aux suppositions désormais certaines et avérées (exemple : il y a moins de cyclones mais plus de super cyclones ; voir la série Cyclones et cycle, épisodes 1, 2 et 3), elles n’en sont donc plus et rejoignent ainsi l’actualité. Celle des catastrophes dites bien rapidement “ naturelles ” quand leurs effets dévastateurs sont souvent liés à des aménagements tout ce qu’il y a de plus artificiels et criminels.

 

Exemple quasi quotidien en période de précipitations intenses : les constructions dans des zones inondables qui n’étaient pas bâties par nos ancêtres (certes en des temps où la densité de population n’avait rien à voir avec celle d’aujourd’hui) et qui sont encore plus submersibles que par le passé parce que les sols bitumés et les haies arrachées ne freinent plus l’écoulement de l’eau (errements qui n’ont rien à voir avec le réchauffement climatique et sur lesquels l’homme a une prise directe, sinon immédiate du moins beaucoup plus rapide que pour diminuer ses rejets de CO2 dans l’atmosphère). On devrait alors parler de faits divers. Quand “ au loup ” rime avec “ au fou ” ou - même si la rime est beaucoup moins riche :) -, avec “ au flouze ”…

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Pour mémoire

Par

 

Tandis que s’ouvre aux Sables d’Olonne, ce 15 septembre 2014, le procès non de Xynthia mais de l’aménagement du territoire, voici une revue de liens rappelant les articles – sur ce blog et sur le site de Voiles & voiliers -, consacrés à la submersion du littoral, qu’elle soit d’origine météorologique (surcote) ou sismique (raz-de-marée).

 

 

Le 28 février 2010, Xynthia frappe le littoral atlantique, essentiellement en Vendée et en Charente-Maritime, et cause la mort de 53 personnes. (© Jacques Archambaud / SAEMSO Port-Olona) 

 

 

Chronologiquement, c’est le tsunami du 26 décembre 2004 dans l’océan Indien (confirmé depuis par celui de mars 2011 au Japon, ici et ) qui a accéléré la prise de conscience des pouvoirs publics sur la nécessité d’un système d’alerte des raz-de-marée en France métropolitaine, notamment en Méditerranée. Cela a favorisé la mise au point d’outils cartographiques de modélisation du terrain comme Litto 3D alors que la prise en compte de l’importance du suivi du niveau de la mer dans la durée était déjà une longue histoire.

 

Puis, la tempête Xynthia du 28 février 2010 a été rapidement suivie de la création de la vigilance Vagues-submersion – dont nous réclamions le principe alors que la première vigilance rouge concernant le vent avait été déclenchée le 24 janvier 2009, soit un peu plus de sept ans après le lancement de la carte de vigilance en octobre 2001, suite aux tempêtes de décembre 1999 -, et qui a été activée un nombre considérable de fois l’hiver 2013-2013 par Météo-France.

 

 

Avec la tempête d’octobre 1987 et les deux tempêtes de décembre 1999, Xynthia est celle dont les effets ont le plus marqué les esprits. (© Jacques Archambaud / SAEMSO Port-Olona)

 

 

Gonflée par la surcote, une dépression (notamment un cyclone : voir la série Cyclones et cycle, épisodes 1, 2 et 3) favorise les inondations à marée haute, lesquelles s’ajoutent ainsi à la submersion par la mer et les vagues qui partent alors de plus élevé et détruisent d’autant plus le littoral.

 

D’où le recul du trait de côte qui s’est manifesté de façon spectaculaire au cours de ces mêmes tempêtes de l’hiver dernier. Je montrais dans ce dernier article combien les errements de l’aménagement du littoral des cinquante dernières années, liés à la pression démographique et financière, avaient non seulement perdu le bon sens mais aussi – pourtant étayée par au moins sept siècles d’archives -, la mémoire de ce bon sens.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Trait de côte

Par

 

De plus en plus de gens voulant vivre face à la mer, il ne faut pas s’étonner que celle-ci s’invite dans leur salon. On parle beaucoup de la responsabilité de l’homme dans le réchauffement climatique et de l’élévation du niveau moyen global des océans (NMGO, en anglais Global mean sea level ou GMSL). À juste titre. Mais on ne tire pas assez de leçons concrètes des errements dans l’aménagement du territoire dont les effets sont pourtant plus immédiats et concrets.

 

La pression démographique n’a jamais été aussi forte sur notre littoral. Entre 1990 et 2003, 12 % des logements neufs étaient concentrés sur les communes côtières qui ne représentent que… 4 % du territoire national. Et ça continue : de 1999 à 2009, l’accroissement de la population littorale de métropole était dû pour 80 % à des arrivées de l’intérieur du pays. Avec 285 habitants au kilomètre carré en 2010, la densité de population des communes maritimes est près de 2,5 fois supérieure à la moyenne métropolitaine (celle-ci est de 117 habitants au kilomètre carré en 2013) !

 

 

En l’état des connaissances (arrêtées ici en 2004) – lesquelles doivent être considérablement affinées dans les prochaines années -, près de 25 % des côtes de métropole sont touchées par l’érosion. La proportion de celles-ci figure en rouge sur les camemberts de cette infographie, le bistre signalant la part de littoral stable et le vert la proportion de celui qui s’engraisse en sédiments. Comme on peut le voir, le recul concerne tout le littoral même si des disparités régionales existent, liées à la nature de la côte et aux conditions hydrographiques. Logiquement, le rivage sablonneux est le plus fragile. (© Institut français de l’environnement / Observatoire du littoral).

 

 

Les archives en témoignent, nos ancêtres avaient une conscience aiguë des terres qu’il était souhaitable de ne pas bâtir face à l’océan tandis que celui-ci attaquait déjà le continent. En 1776, le Mémoire relatif au plan topographique d’une partie des côtes de la Basse-Bretagne entre Landerneau et Le Faou, rédigé par l’ingénieur géographe militaire Jean-André Hervet, évoque ainsi pour la pointe du Bindy en rade de Brest, la “ falaise qui est communément en roche de pierre d’ardoise [...], de la grève en cette partie [...] impraticable par l’amas de roches culbutées ” ou la mer “ qui fait journellement des progrès sur [le] terrain qu’elle ronge. ” (voir mon livre Cartes des côtes de France). Le tracé de la côte était déjà l’objet de toutes les attentions. De nos jours, il reste un indicateur historique.

 

Dès le Moyen-Âge, l’homme a tenté de stabiliser ce trait de côte, de fixer des dunes, de canaliser les eaux par des étiers pour assécher ou irriguer un marais salant, le tout avec force pieux, digues ou écluses. Puis, le XVIIème siècle fut particulièrement actif en matière d’endiguements afin de gagner des prairies sur la mer et d’assécher des marais en polders, les réseaux de drainages étant considérablement développés.

 

Pendant deux siècles, la terre et la mer ont vécu sinon en symbiose, du moins en bonne intelligence. Lorsqu’une digue rompait et cela arrivait souvent, les terres étaient inondées. Mais les constructions l’étaient plus rarement car elles étaient peu nombreuses et occupaient les rares parties élevées, en des temps où la population globale et sa densité littorale étaient sans commune mesure avec aujourd’hui.

 

 

Très tôt, l’évolution de la morphologie du rivage est évoquée par les cartographes. Cette Carte anonyme de la côte d’Aunis et de Saintonge, de la pointe du Grouin-du-Cou à la pointe d’Arvert, avec les îles de Ré et d’Oléron (1624) porte la note manuscrite suivante sur la côte de l’île d’Oléron (à l’Ouest de la pointe septentrionale, le Nord étant à droite de la carte) : « Cette baye se fit par une tempête qui rompit les dunes il y a quarante ans et découvrit dans les marées vingt-cinq corps. » (manuscrit original au 1 : 92 000, 445 X 1 010 millimètres). (© Olivier Chapuis, Cartes des côtes de France, Chasse-marée/Glénat, 2ème éd., 2009)

 

 

Au siècle des Lumières, le regard sur le paysage se modifie. L’homme se prend à imiter la Nature, laquelle acquiert une place essentielle dans l’art, non seulement en peinture mais aussi sur les somptueuses cartes manuscrites au lavis. L’engouement pour les jardins, avec la mode du parc à l’anglaise, participe du même mouvement auquel la révolution industrielle du XIXème siècle et le positivisme confèrent une assise scientifique et technique. L’homme dompte l’énergie par la machine, pourquoi pas un barrage contre l’océan ?

 

Mais ce n’est qu’au XXème siècle, surtout après la Seconde guerre mondiale et tout particulièrement depuis 1970, avec le développement touristique, que la ligne rouge du raisonnable est réellement franchie en bordure de l’estran. Les maisons, les lotissements même, poussent dans des zones où l’on ne construisait pas jusqu’alors.

 

Au même moment, on achève d’arracher ces haies du bocage dont les racines avaient le mérite de ralentir l’écoulement des eaux. Celui-ci est en outre accéléré par le bitume qui recouvre de plus en plus de surfaces urbanisées, rendues imperméables. Tout ce ruissellement se précipite dans les cours d’eau dont le flux torrentiel est parfois ralenti par le niveau élevé de la mer, gonflé par la surcote. Cela favorise les inondations à marée haute, lesquelles s’ajoutent ainsi à la submersion par la mer et les vagues qui partent alors de plus élevé et détruisent d’autant plus le littoral.

 

 

En 1702, le cartographe Claude Masse consigne dans son Mémoire abrégé sur l’isle d’Oléron relatif à la carte ci-jointe que l’île est « si basse au nord de Dolus que l’on craint que la grande mer ne la coupe un jour en deux par le marais de La Perroche au marais d’Arceau, ce qui lui serait très préjudiciable ». Il le confirme sur le détail présenté ici de la Carte topographique de l’île d’Oléron (1702) : « Ce marais est presque toujours inondé et [il] est si bas que l’on craint que la mer ne communique un jour dans les marais salants d’Arceau et ne sépare l’île en deux. » (manuscrit original au 1 : 28 800, 1 080 X 710 millimètres). (© Olivier Chapuis, Cartes des côtes de France, Chasse-marée/Glénat, 2ème éd., 2009)

 

 

À l’échelle de l’histoire planétaire, le réchauffement climatique est une fraction de seconde… pour sa composante d’origine humaine en tout cas. Dans l’histoire de l’humanité, il en va de même pour cette phase très récente de l’urbanisation du littoral. Tous ceux qui ont navigué dans la décennie mil neuf cent soixante-dix se souviennent avoir vu les constructions fleurir sur des côtes jusque là parsemées d’amers moins amers.

 

Réelle depuis quelques années – notamment avec la mise au point d’outils cartographiques de modélisation du terrain comme Litto 3D -, la prise de conscience des pouvoirs publics a été accélérée après le tsunami du 26 décembre 2004 dans l’océan Indien puis la tempête Xynthia du 28 février 2010. Elle a été rapidement suivie de la création de la vigilance Vagues-submersion qui a été activée un nombre considérable de fois cet hiver par Météo-France, en particulier pour les zones côtières les plus basses (voir la litanie des principales tempêtes annoncées par www.voilesetvoiliers.com : 1, 2, 3, 4 et 5).

 

Pour donner une idée de l’ampleur de la tâche, à l’échelle cartographique du 1 : 50 000, le trait de côte de la France métropolitaine, plus les îles et les îlots qui la bordent (Corse comprise), est de 5 715 kilomètres, dont 4 021 kilomètres pour la façade occidentale (671 entre la frontière belge et le cap de la Hague, 950 entre le cap de la Hague et la pointe Saint-Mathieu, 1 143 entre la pointe Saint-Mathieu et Nantes, 821 de Nantes à la Gironde et 436 de la Gironde à la frontière espagnole) et 1 694 kilomètres pour toute la côte française de Méditerranée (Corse incluse).

 

 

De tout temps, l’entrée du bassin d’Arcachon a été une des zones du littoral français soumise aux plus grands changements. Due à l’ingénieur hydrographe Paul Monnier en 1835, cette [Comparaison des] passes et [de] la rade intérieure du bassin d’Arcachon [...] en 1826 [et...] 1835 n’est pas directement destinée aux navigateurs mais aux hydrographes (ici un extrait). C’est l’un des premiers documents d’étude scientifique de l’évolution des passes du bassin, en l’occurrence par rapport à la Carte particulière des côtes de France. Bassin d’Arcachon levée en 1826 et publiée en 1829 sous la direction de Charles-François Beautemps-Beaupré. Hommage au banc mauritanien où se perdit la Méduse (2 juillet 1816), le banc d’Arguin apparaît ici pour la première fois sous son nom, face au Pyla, dans le Sud-Est du cap Ferret. Celui-ci a lui-même considérablement bougé en seulement neuf ans ! Quant à Arguin, il prendra bientôt la place et le nom du banc de Matoc (imprimé original au 1 : 50 000 environ, 350 X 532 millimètres). (© SHOM)

 

 

Près d’un quart du littoral métropolitain recule à cause de l’érosion côtière. Les communes concernées doivent ainsi prévoir de déplacer nombre de constructions et d’activités, ce qui va coûter une fortune. À l’image de la région Aquitaine, les collectivités territoriales appellent à l’aide l’État. Mi-janvier, celui-ci a confirmé qu’il faisait établir une cartographie nationale avec des simulations à 10, 40 et 90 ans, basées sur des témoins homogènes permettant de suivre en temps réel l’évolution du trait de côte et de programmer les déménagements par ordre d’urgence.

 

Dans le Sud-Ouest, le rivage a régressé cet hiver de plus de 10 mètres en moyenne, en quelques semaines. Le recul du trait de côte le plus spectaculaire des dernières décennies est loin de cette valeur, certes instantanée alors que ce qui suit est une moyenne sur une plus longue période. Sur la côte occidentale du Cotentin, il a été d’un peu plus de 4 mètres par an entre 1947 et 1994. En Aquitaine, le recul moyen était de 2,5 mètres par an au début des années 2000, en accélération sur la fin de la décennie. Cet hiver aurait donc valu à lui seul plus de quatre années. L’avenir dira s’il s’agit d’une anomalie ou d’une tendance. Et si l’argent continue de se croire plus fort que l’océan.

 

O.C.

 

PS. Retrouvez un dossier complet sur les tempêtes de cet hiver et les questions qu’elles soulèvent (avec les réponses de Jean-Yves Bernot, Éric Mas et Sylvain Mondon), plus les chiffres de la montée du niveau moyen global des océans depuis deux cents ans et une prospective pour le siècle à venir, ainsi que les fondamentaux de marégraphie relatifs au niveau moyen de la mer et au zéro hydrographique de nos cartes marines, dans le numéro 518 d’avril 2014 de Voiles et voiliers.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Niveau d’eau

Par

 

L’eau monte ces derniers temps. À La Réunion où le cyclone Bejisa a été l’un des plus destructeurs de ces dernières décennies pour cette île de l’océan Indien. En métropole où la succession des perturbations du tournant de l’année a généré des houles considérables et a également eu un effet très sensible sur le niveau de la mer (voir les deux liens précités se rapportant à des images à la hune très parlantes, publiées sur www.voilesetvoiliers.com).

 

Dans les deux cas, le Service hydrographique et océanographique de la Marine (SHOM) a produit des articles très largement illustrés sur son site Refmar (Réseau de référence des observations marégraphiques) dédié aux marégraphes. Le premier article est à voir ici et le second là.

 

 

Du 1er au 3 janvier 2014, lors du passage du cyclone Bejisa, le graphique du haut montre en bleu les hauteurs d’eau enregistrées par le marégraphe de Sainte-Marie, au Nord-Est de La Réunion (en mètres, rapportées au zéro hydrographique). La hauteur d’eau maximale atteint 1,70 m environ, le 2 janvier à 09h40 UTC. Le graphique du bas figure les surcotes, c’est-à-dire la différence entre l’observation (en bleu sur le graphique du haut) et la prédiction de marée (en rouge sur le graphique du haut). La surcote maximale est de 0,75 m environ, et elle est concomitante avec la pleine mer, ce même 2 janvier à 09h40 UTC, pire moment puisque la mer énorme peut d’autant mieux déferler à l’intérieur des terres et les submerger que la marée est haute (même si le marnage est ici plutôt faible).  Notez les décotes (voir ci-dessous) au creux des courbes du 1er janvier 2014 à 03h00 et 15h00 UTC, et du 3 janvier 2014 vers 04h30 : la courbe bleue des observations sur le graphique du haut passe au-dessous de celle des prédictions, en rouge sur ce même graphique du haut. (© SHOM / Refmar)

 

 

J’ai souvent souligné l’importance de ce réseau des marégraphes, que ce soit à l’occasion de Xynthia, d’un super typhon comme Haiyan (voir la série Cyclones et cycle, épisodes 1, 2 et 3) ou de l’alerte en temps réel des tsunamis. Car, le point commun des phénomènes météorologiques et d’un raz-de-marée d’origine sismique (voir mes deux articles consacrés à celui de mars 2011 au Japon, ici et ) reste la mesure de la hauteur d’eau.

 

Dans le second cas, l’objectif est de disposer de repères fiables afin de déterminer en temps réel si un tremblement de terre est susceptible de donner ou non un raz-de-marée. Dans le premier cas, il s’agit plutôt de définir la surcote, c’est-à-dire une observation du niveau de la mer supérieure à la hauteur prédite.

 

Ce soulèvement de la surface océanique – dont le pic est souvent qualifié d’onde de tempête -, y résulte de l’effet combiné de la chute de la pression atmosphérique (la variation du niveau de la mer est d’environ 1 cm/hPa : -1 hPa = +1 cm), d’un vent très fort soufflant du large, poussant une forte mer totale (houles et mer du vent) déferlant à terre, et du site, c’est-à-dire de l’hydrographie du plateau continental et de la topographie de la côte. La situation la pire est évidemment lorsque la surcote la plus importante survient au moment de la pleine mer, autrement dit si le plus fort de la dépression passe à ce moment là.

 

 

Le réseau RONIM comporte 35 marégraphes en métropole (dont la Corse et 1 à Monaco) et 8 outre-mer. (© SHOM)

 

 

Lorsqu’on est en marée de vive-eau (coefficient supérieur ou égal à 95), la surcote à la pleine mer dépasse ainsi la plus haute mer astronomique (PHMA, coefficient 120). Avec un anticyclone très puissant (+1 hPa = -1 cm) et un fort vent de terre, la décote peut au contraire, descendre à la basse mer au dessous du zéro hydrographique, le zéro des cartes correspondant aux plus basses mers astronomiques possibles. Dans ce cas, gare aux mauvaises surprises en navigation mais ce n’est pas le sujet du jour…

 

Mis en place en 1992, pour servir de base à la réduction des sondes (c’est-à-dire pour les rapporter aux plus basses mers possibles et au zéro hydrographique) et aux calculs des prédictions de marées (détermination des constantes harmoniques), le Réseau d’observation du niveau de la mer (RONIM) géré par le SHOM (avec de nombreux partenaires) est constitué de 43 marégraphes, dont 34 en métropole, 1 à Monaco, 7 outre-mer et 1 à Madagascar (les premiers sont installés sur nos côtes depuis 1844, l’observation régulière de la marée ayant débuté dès le XVIIIème siècle comme je le raconte notamment dans mon livre Cartes des côtes de France).

 

Parmi les très nombreuses autres applications des données marégraphiques RONIM, on note entre autres l’étude statistique des surcotes, des décotes et des niveaux extrêmes, la mise au point des modèles numériques de prévision s’y rapportant, les paramètres servant à alimenter les nombreux modèles océaniques ou d’hydrodynamique côtière, la contribution à l’analyse de la circulation océanique, l’unification des réseaux de nivellements ou la calibration des radars altimétriques des satellites (Topex-Poséidon, ERS, Jason)…

 

 

Du 2 au 5 janvier 2014, lors du passage de la tempête, le graphique du haut montre en bleu les hauteurs d’eau enregistrées par le marégraphe de Saint-Nazaire (en mètres, rapportées au zéro hydrographique). La hauteur d’eau maximale atteint 6,80 m environ le 5 janvier vers 05h30 UTC, alors que la plus haute mer astronomique est de 6,59 m à Saint-Nazaire (PHMA : coefficient 120), les coefficients de marée étant supérieurs à 100 sur la période. Le graphique du bas figure les surcotes, c’est-à-dire la différence entre l’observation (en bleu sur le graphique du haut) et la prédiction de marée (en rouge sur le graphique du haut). On voit que la surcote maximale est double le 4 janvier 2014, atteignant presque 0,80 m (cette valeur étant atteinte à Port-Tudy à l’île de Groix, surcote maximale sur les côtes françaises lors de cette dépression). On observe un premier pic, à 07h10 UTC au début de la marée descendante, et un second pic à 12h20 UTC à l’étale de basse mer, celui-ci étant bien entendu beaucoup moins problématique quant au risque de submersion. (© SHOM / Refmar)

 

 

Réchauffement climatique oblige, RONIM a été adapté pour prendre en compte la prévention des risques de submersion des zones côtières les plus basses (où les précipitations et les crues des fleuves jouent aussi leur rôle). Une base de données a été constituée avec les mesures des marégraphes et avec d’autres observations collectées notamment au sein du Système d’observation du niveau des eaux littorales (SONEL). Ce portail fournit les niveaux moyens de la mer (journaliers, mensuels et annuels) ainsi que les données du réseau géodésique permanent, localisant dans un système géodésique mondial les principaux observatoires de marée, les trois dimensions contribuant ainsi à l’étude de la variation absolue du niveau de la mer. Depuis 2010, le SHOM est le référent national pour l’observation de celui-ci, la gestion des données s’y rapportant et leur diffusion.

 

Au niveau international, les marégraphes de près d’une centaine d’organismes nationaux sont connectés au site de l’Intergovernmental Oceanographic Commission (IOC), la Commission océanographique intergouvernementale de l’UNESCO. Celle-ci – en partenariat avec la Joint Technical Commission for Oceanography and Marine Meteorology (JCOMM) de l’Organisation météorologique mondiale (OMM) -, conduit aussi le programme Global Sea Level Observing System (GLOSS) dont le Global Core Network (GCN) comporte 290 stations dans le monde pour le suivi à long terme du niveau de la mer en relation avec les changements climatiques. On n’a pas fini de parler du niveau de l’eau.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Cyclones et cycle (3/3)

Par

 

Y a-t-il plus de cyclones et sont-ils plus puissants ? Pour répondre à cette question annoncée dans mon premier article, l’énergie du super typhon Haiyan ayant été analysée dans le deuxième, on dispose d’importantes données statistiques et de non moins nombreuses études. Celles-ci ne sont pas toutes d’accord entre-elles…

 

Si l’on analyse les séries ACE (Accumulated Cyclone Energy ou Énergie accumulée d’un cyclone) pour l’ensemble du globe et par bassin océanique (j’en avais cité les années les plus élevées pour l’Atlantique Nord et on y constatait une grande disparité chronologique), on peut dire qu’il est impossible de distinguer une tendance nette de leur évolution sur les années 1970-2012. Autrement dit, l’énergie globale accumulée par les ouragans sur la planète n’est pas en augmentation.

 

 

Compilée pour l’Atlantique Nord, l’ACE annuelle entre 1850 et 2010 montre que cette courbe très irrégulière ne permet pas de dégager une véritable tendance sur plus d’un siècle et demi de données. (© NOAA)

 

 

Mais certains chercheurs considèrent que l’ACE ne serait pas le bon outil pour déterminer si l’activité cyclonique a évolué dans un sens ou dans l’autre au cours des dernières décennies. C’est notamment le cas des auteurs de l’étude publiée en février 2013 par l’American Meteorological Society qui préfèrent se baser sur les pressions les plus basses enregistrées dans l’Ouest du Pacifique Nord, zone la plus active en matière de cyclones dans le monde (c’est celle où a sévi Haiyan).

 

D’autres ont conclu en 2005 dans la revue Nature à une hausse de la puissance des cyclones des trente dernières années, en utilisant l’indice Power Dissipation Index (PDI ou Indice de dispersion de puissance) et en montrant que celui-ci a augmenté de près de 75 % sur la période 1970-2000 dans cette même région de l’Ouest du Pacifique Nord.

 

Cela dit, l’analyse montre aussi que le PDI était particulièrement bas en 1970 par rapport aux années 1950-60, donc très au-dessous de ce qu’il sera après l’explosion des années 1980. La hausse du PDI accumulé est également importante pour ce Pacifique occidental et l’Atlantique, sur les années 1970-2000, si on le compare à la température moyenne de surface de la mer entre 30° S et 30° N.

 

En cette même année 2005, un article publié par la revue Science met en évidence la hausse du nombre de cyclones de catégories 4 et 5 sur l’échelle de Saffir-Simpson depuis 1970 (pour la terminologie, voir mon premier article) alors que croît la température moyenne de surface de la mer (de 0,3 °C entre 1986 et 2005). Mais la corrélation avec le cycle actuel de réchauffement climatique n’est pas établie de façon catégorique.

 

 

L’intensité des cyclones se réfère ici à l’échelle de Saffir-Simpson. En A, la courbe bleue regroupe les cyclones de catégorie 1, la verte les catégories 2 et 3, la rouge les catégories 4 et 5. Entre 1970 et 2004, par pas de 5 ans, on voit que cette dernière progresse considérablement jusqu’en 1990 puis qu’elle se stabilise à peu près. Tandis que les cyclones de catégories 1 à 3 sont moins nombreux et que le nombre total de cyclones est ainsi en baisse. Les pointillés indiquent les moyennes pour chacune des courbes. Enfin, la courbe noire indique le vent maximal en mètres/seconde. En B, ces données sont exprimées en pourcentages, pour les courbes comme pour les lignes pointillées qui indiquent donc le pourcentage moyen sur la période 1970-2004, toujours pour l’ensemble du globe. (© Revue Science)

 

 

Dans le même temps, le nombre global de cyclones et de jours cycloniques est en diminution, suivant une répartition inégale selon les bassins océaniques, l’Atlantique Nord voyant même une augmentation sur 1970-2005, avec une accélération entre 1990 et 2006 (mais une baisse sur certaines années suivantes, voir plus loin).

 

D’autres scientifiques notent cet accroissement de la fréquence des super cyclones, autrement dit des ouragans les plus puissants, mais soulignent que les mesures de plus en plus fines en grossiraient de fait le décompte le plus récent ou plus exactement que les mesures les plus anciennes n’étaient pas assez fines et qu’il y avait en réalité des phénomènes plus intenses qu’ils n’étaient enregistrés alors.

 

Cependant, l’indice Énergie accumulée d’un cyclone reste ardemment défendu par d’autres spécialistes qui établissent une corrélation très nette entre les courbes de l’ACE et de la température de surface de l’océan. Cela témoigne surtout à leurs yeux d’une très grande irrégularité de l’activité cyclonique globale d’une année sur l’autre, elle-même tributaire de phénomènes à grande échelle comme El Niño et les oscillations de la température d’autres océans sur plusieurs décennies (quand les cycles historiques de variations climatiques sont sur des échelles de temps bien plus longues).

 

 

Par rapport à la normale sur la période 1950-2010, ce graphique montre les anomalies sur la température de surface de l’océan Pacifique, entre 5° N et 5° S et 120° W et 170° W, c’est-à-dire dans la zone où sévissent El Niño (élévations de température en orange) et son contraire La Niña (abaissements de température en bleu). On voit le caractère cyclique du phénomène et le fait que El Niño prend plutôt le pas sur La Niña depuis 1980. Ce qui ne veut pas dire que la seconde est moins active : sur la seule période 2000-2011 qui n’est pas zoomée ici, on a ainsi observé 4 pics du Niño (dont les plus élevés en février 2003 et septembre 2010) pour 3 pics de Niña (dont les plus bas en juillet 2008 et octobre 2011). Les corrélations avec l’activité cyclonique sont étudiées en détail par les spécialistes, comme pour celles avec les oscillations de température des autres océans, mais beaucoup reste à faire pour quantifier la part réelle de celles-ci dans celle-là. (© Columbia University New York)

 

 

Cela expliquerait des baisses d’activité telles que celles observées ces dernières années. Pour ne parler que de l’Atlantique Nord, la date de départ trop tardive de la Mini-Transat a été choisie pour tenir compte de l’extension observée récemment, sous les tropiques, de la saison des cyclones vers la fin de l’automne, voire exceptionnellement au-delà. L’ironie de l’histoire, c’est que contrairement aux prévisions alarmistes de la National Oceanic and Atmospheric Administration (NOAA), délivrées juste avant l’été par la météorologie des États-Unis, 2013 est à fin septembre l’une des années les plus calmes des dernières décennies en matière de cyclones sur l’Atlantique Nord, avec un déficit de 70 % par rapport à la normale sur la période 1981-2010 !

 

En effet, toujours sur l’Atlantique Nord, la période 1955-2005 avait vu un nombre moyen de phénomènes cycloniques baptisés de 10 par an, mais il pouvait varier de 2 à 27 selon les années, comme en 2005 (13 tempêtes tropicales et 14 ouragans) où, en plus des 21 prénoms prévus pour l’année, on a dû utiliser l’alphabet grec pour les six derniers phénomènes d’une saison record (depuis 1933) qui ne s’est achevée que début janvier 2006 !

 

Si le rapport 2013 (non validé) du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) conclut qu’on ne peut pas en l’état des connaissances établir de corrélation certaine tandis que les disparités régionales restent considérables et que les projections sont peu fiables, il est néanmoins raisonnable de penser que l’intensité des cyclones, sinon leur nombre qui est à la baisse, ne pourrait qu’augmenter avec une température de surface de l’océan à la hausse dans un cycle long de réchauffement climatique. Pour l’heure, tenons nous en aux faits : il y a moins de cyclones mais plus de super cyclones.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Cyclones et cycle (2/3)

Par

 

Des cyclones plus puissants que Haiyan ont-ils existé ? J’emploie ici le terme cyclone de façon générique, nonobstant les spécificités rappelées dans mon précédent article. C’est bien de typhon qu’il s’agit aux Philippines. Pour comparer la puissance des ouragans, il faut utiliser une même unité, basée sur un étalon significatif.

 

 

Un zoom arrière sur la planète et Haiyan, en approche des Philippines, apparaît d’une netteté étonnante dans la pénombre, modeste et colossal à la fois… à l’échelle du globe. (© Eumetsat)

 

 

Outre l’échelle de Saffir-Simpson, nombre d’outils mathématiques ont été développés pour la mesure des cyclones, y compris très récemment avec le Power Dissipation Index (PDI ou Indice de dispersion de puissance) et le Track Integrated Kinetic Energy (TIKE ou Trace d’énergie cinétique intégrée), dérivant de la mesure plus ancienne de l’Integrated Kinetic Energy (IKE ou Énergie cinétique intégrée) appliquée aux tempêtes. Mais c’est de l’indice ACE (Accumulated Cyclone Energy ou Énergie accumulée d’un cyclone) que je souhaite parler ici.

 

Il est calculé en élevant au carré le vent soutenu maximal en surface ayant été relevé sur une période de six heures (principe basé sur les heures synoptiques). Cela est répété aussi longtemps que le phénomène affiche des vents suffisants pour qu’il mérite d’être baptisé (c’est-à-dire un vent moyen supérieur à 34 noeuds).

 

Parce qu’il combine une intensité et une durée, il s’agit donc d’un indice plus pertinent que la seule force du vent, y compris pour appréhender son activité globale et son pouvoir potentiel de destruction. Cet indice ACE a pour unité 104 N2 (où N est en noeuds). Exemple : sur un épisode de 6 heures avec un vent soutenu maximal de 60 noeuds, cela donne 602 = 3 600 noeuds2, auquel on applique pour simplifier un coefficient multiplicateur de 10-4,ce qui donne donc un ACE de 0,36.

 

L’ACE est également utilisé sur une saison entière sur un secteur donné (et sur le globe in fine) en ajoutant les indices de chaque cyclone, alors en corrélation avec le nombre de phénomènes baptisés de ladite saison (tempêtes tropicales et cyclones), leur durée et leur intensité. Là aussi, c’est plus pertinent que le simple décompte d’ouragans par bassin océanique.

 

 

Le 7 novembre 2013 à 13h20’57″ UTC, l’oeil de Haiyan touche la pointe Sud de l’île de Samar et approche de la côte orientale de Leyte. (© NOAA)

 

 

En matière de cyclones, les archives de la NOAA remontent à 1851 sur l’Atlantique Nord. Ce sont logiquement les plus anciennes pour l’ensemble du monde parce que c’était l’océan de prédilection des États-Unis à l’époque, tandis que l’essentiel de son commerce se faisait encore avec l’Europe. Le milieu du XIXe siècle marque d’ailleurs le début d’un archivage météorologique à la fois conséquent et international.

 

Dans ces archives de la NOAA, j’ai listé les ACE les plus élevés pour l’Atlantique sur cette période 1851-2012. Ce sont ceux des années 1933 (259), 2005 (250), 1950 (243), 1893 (231), 1926 (230), 1995 (228), 2004 (227), 1961 (205), 1955 (199), 1998 (182), 1887 et 1878 (181). On verra dans le prochain épisode si une loi peut en découler quant au réchauffement climatique en cours, mais on peut d’ores et déjà constater que la répartition temporelle en est fort variée.

 

En outre, on peut introduire tout de suite un bémol méthodologique car les données sont évidemment moins nombreuses, précises et fiables autrefois. A contrario, elles sont pléthoriques pour la période récente, postérieure à l’usage intensif du satellite (la moyenne des ACE pour la période 1968-2012 sur l’Atlantique Nord est de 98,1).

 

Au point que certains chercheurs considèrent qu’on a tendance à exagérer les ACE récents ou à minimiser les ACE anciens, ne serait-ce que parce que l’instrumentation sans cesse en progrès permet de mesurer aujourd’hui des choses qu’on ne pouvait déceler voici trente ans (entre autres exemples). Au contraire, les mesures des vents étaient vraisemblablement exagérées jusqu’à la fin des années 1960, du fait des anémomètres alors disponibles.

 

Quoi qu’il en soit, l’ACE est un indice très parlant. Dans le cas de Haiyan, dont nous avions vu, dans le premier article, que le 7 novembre 2013, le vent soutenu maximal en surface est monté à 165 noeuds, avec des rafales à plus de 200 noeuds, générant des vagues de 15 mètres de hauteur significative, l’ACE est de 36,82.

 

Pour qu’on en mesure bien l’importance, cela équivaudrait à 36,82 / 0,36 = 102,28 périodes de 6 heures avec un vent soutenu ayant atteint au moins une fois 60 noeuds, soit la bagatelle de 613,68 heures ou 25,57 jours répondant à ce critère ! C’est un exemple totalement théorique, car la répartition de l’énergie dans la vie du cyclone n’est nullement linéaire : il suffit d’une seule période de 6 heures durant laquelle le vent soutenu atteint au moins une fois 165 noeuds pour que l’ACE de ladite période de 6 heures soit de 2,7225. Et dans un tel cas, l’ACE de 36,82 est atteint en 36,82 / 2,7225 = 13,52 périodes de 6 heures, soit 81,12 heures ou 3,38 jours. La réalité de la construction de l’ACE est quelque part entre ces deux scénarios.

 

 

Cette image de Tacloban et de ses environs a été prise par le satellite Terra de la Nasa, en l’occurrence par l’Advanced Spaceborne Thermal Emission and Reflection Radiometer (ASTER) le 3 avril 2004. Les fausses couleurs sont ici les suivantes : la végétation est en rouge (omniprésente sur l’île de Leyte comme sur ses voisines), la terre nue en brun, l’eau ou les ombres en noir et les zones construites en blanc (hormis les nuages bien sûr) ou en argent. Alors que la surcote sera de 7,50 mètres (voir plus loin dans l’article), la plupart des aménagements humains sont à moins de 5 mètres au-dessus du niveau moyen de la mer… (© NASA / USGS EROS / Ken Duda)

 

 

Prise par le radiomètre ASTER du satellite Terra de la Nasa, le 15 novembre 2013, l’image révèle l’ampleur de la catastrophe. Le brun, couleur de la terre nue, a remplacé le rouge sur la quasi totalité de la zone (l’échelle est en bas à droite) : les plantations ont été rasées comme par un raz-de-marée ou tsunami. La résolution ne permet pas de distinguer les destructions des constructions humaines mais elles sont considérables. (© NASA / USGS EROS / Ken Duda)

 

 

Un tel ACE de 36,82 est le plus élevé de la saison 2013 à ce jour mais le super typhon Francisco a eu un ACE de 34,65 en octobre 2013, dans ce même bassin du Pacifique Ouest, ces deux cyclones étant très au-dessus de tous les autres phénomènes de l’année dans ledit secteur. Cette région affiche traditionnellement un ACE très supérieur à celui des autres bassins océaniques, puisque l’Ouest du Pacifique septentrional totalise 65,54 % de l’ACE de tout l’hémisphère Nord !

 

Pourtant, Haiyan est très loin de battre un record sur ce critère. En effet, le super typhon Ioke qui a sévi dans l’Ouest du Pacifique Nord du 19 août au 5 septembre 2006 affichait un ACE de 82 qui reste le record absolu en la matière dans le monde entier. À titre de comparaison, c’est assez proche de la moyenne annuelle sur la période 1951-2000 de l’énergie accumulée par tous les cyclones de l’Atlantique Nord ! Même si Ivan en Atlantique avait un ACE de 70,4 en 2004, et qu’il y a d’autres cas assez proches, cela en dit long sur la dimension extraordinaire de la zone occidentale du Pacifique Nord…

 

Haiyan est également loin de la pression atmosphérique la plus basse jamais enregistrée puisque au plus bas – le 7 novembre 2013 à 12h00 UTC – il a été relevé 895 hPa en son oeil. En effet, la pression atmosphérique la plus basse jamais enregistrée fut de 870 hPa, avec le typhon Tip, dans le Pacifique Nord, le 12 octobre 1979. L’oeil du cyclone ne mesurait alors que 3 milles de diamètre environ et le vent soutenu maximal en surface était de 168 noeuds à proximité immédiate (contre 165 noeuds pour Haiyan). En Atlantique, la pression atmosphérique la plus basse enregistrée dans un cyclone est 882 hPa, avec Wilma, le 19 octobre 2005.

 

En termes de vent soutenu enfin, les 165 noeuds de Haiyan – voire 170 noeuds selon les modélisations du Joint Typhoon Warning Center (JTWC) -, sont donc comparables à ceux de Tip (voir ci-dessus) et à condition que les mesures de l’époque soient aussi fiables, aux 165 noeuds de Camille (1969) et Allen (1980), tous deux en Atlantique Nord. Mais ils seraient inférieurs aux 185 noeuds de Nancy (septembre 1961 dans l’Ouest du Pacifique Nord), avec les mêmes réserves instrumentales déjà évoquées. Cela fait donc de Haiyan l’un des cinq cyclones de l’Histoire dont les vents ont été les plus violents (entendez depuis 1850, c’est-à-dire pas grand chose à l’échelle de l’Histoire humaine et rien à l’échelle de l’Histoire planétaire).

 

 

Parce que l’archipel philippin est évidemment parsemé d’eaux chaudes, c’est seulement lorsque Haiyan atteindra le continent asiatique (ici le 10 novembre 2013) qu’il perdra réellement de sa puissance, suivant les modalités exposées plus loin dans cet article. (© Jeff Schmaltz / NASA / Goddard / LANCE / EOSDIS / MODIS Rapid Response)

 

 

Quant à l’étendue du cyclone, Haiyan devrait être là aussi dans le haut du classement, étant entendu que le plus grand fut le typhon Tip dont le diamètre du cercle à l’intérieur duquel le vent soutenu dépassait 34 noeuds était de 1 172 milles à comparer avec les dimensions que j’indiquais dans mon premier article.

 

Reste la question fondamentale du niveau de l’eau. Dans la partie concernée de l’archipel des Philippines, la marée est de type semi-diurne à inégalité diurne, c’est-à-dire devenant diurne pendant les quelques jours où les déclinaisons lunaires sont maximales. Les marnages y sont faibles : à Tacloban, port capitale de Leyte qui a été le plus durement frappé par Haiyan, il est de 60 centimètres en marée moyenne et ne dépasse jamais 1 mètre. Ce facteur est donc négligeable en la circonstance.

 

Beaucoup plus fondamentale est la surcote due au soulèvement de la surface de la mer par l’effet combiné de la chute de la pression atmosphérique et d’un vent très fort. Son pic est souvent qualifié d’onde de tempête. La houle formée au large sur un fetch considérable vient lever sur un talus continental vertigineux avant de rencontrer le débit contraire des cours d’eau gonflés par les pluies torrentielles. Les vagues touchent ainsi la côte à une hauteur inusitée. D’autant plus que le vent violent génère un courant très fort, par frottement. Celui-ci n’est presque plus compensé dans les hauts-fonds près de terre. La poussée de l’eau y devient énorme avant de s’abattre sur la côte et d’envahir l’intérieur des terres.

 

Dévolus à la mesure de la marée et à la surveillance des raz-de-marée, les marégraphes de 91 organismes nationaux sont connectés au site de l’Intergovernmental Oceanographic Commission (IOC), la Commission océanographique intergouvernementale de l’UNESCO. Malheureusement, celui le plus proche de la trajectoire du typhon, à Legaspi, était à l’arrêt depuis le 24 octobre 2013. Mais la courbe de celui de Lubang au Sud-Ouest de l’île de Luzon et de la baie de Manille est déjà assez évocatrice, tandis qu’aucune bouée océanographique n’a pu enregistrer l’état de la mer totale à proximité de l’archipel.

 

Cependant, les données satellitaires donnent 15 mètres de hauteur significative (hauteur moyenne du tiers des vagues les plus hautes observées, pendant un temps donné) au large de Samar. Quant aux mesures effectuées par ces mêmes satellites, corroborées par les relevés effectués a posteriori sur la terre, elles laissent penser que la surcote aurait pu atteindre 7,5 mètres, contre 8,5 mètres pour Katrina en 2005 à La Nouvelle-Orléans. Ce dernier reste le record depuis qu’on fait des mesures avec les instruments actuels. On évoque 14,60 mètres pour un cyclone ayant touché l’Australie en 1899… À titre de comparaison la surcote de Xynthia était de 1,5 mètre, en Vendée et en Charente-Maritime, et celle de la tempête d’octobre 1987 en Bretagne avait atteint 2,50 mètres (en plus de la marée rappelons le).

 

 

Le 7 novembre 2013, le seul marégraphe disponible est assez loin au Nord-Ouest de Samar et de Leyte, à l’ouvert de la baie de Manille, au Sud-Ouest de celle-ci. Peu avant 18h00 UTC, il n’enregistre qu’une surcote de 2,50 mètres, loin des 7,50 mètres évoqués pour la zone critique. (© IOC)

 

 

Je traite dans cette série de l’aspect météorologique, à distinguer de son impact sur les vies humaines, sur la nature et sur les constructions dues à l’homme. Cette distinction est fondamentale car en matière de catastrophe naturelle on confond fréquemment l’intensité des phénomènes et leurs effets dévastateurs sur un aménagement du territoire souvent inapproprié.

 

Une chose est néanmoins certaine, pour le plus grand malheur des Philippins. Haiyan est parvenu sur les îles de Samar et de Leyte au plus fort de son intensité comme on l’a vu dans le premier épisode (ce qui est logique puisque ce sont les premières îles qu’il a rencontrées après s’être nourri des eaux chaudes du Pacifique). En arrivant sur la terre, la force centrifuge diminue avec le frottement (d’autant plus si le relief est marqué) et le cyclone s’affaiblit alors très rapidement, faute d’entretenir son énergie en chaleur et en humidité sur la mer. À condition que la terre soit suffisamment étendue ce qui n’est pas le cas de ces îles au vent.

 

Ainsi, l’oeil d’Haiyan a touché la côte de Samar avec, juste autour de celui-ci, un vent soutenu (avéré) de 165 noeuds ce qui en fait l’un des tout premiers cyclones de l’Histoire en termes de puissance à l’atterrissage. Avec le même niveau de destruction que celui d’un raz-de-marée ou tsunami, tant du fait du vent que cette mer totale (houle et mer du vent) de 15 mètres (au large) sur un niveau moyen de la mer monté lui-même de 7,50 mètres ! Même si les vagues déferlent et diminuent de hauteur avant de toucher terre, la hauteur d’eau dynamique cumulative n’en reste pas moins très largement supérieure à 10 mètres en intégrant l’onde de tempête (évoquée ci-dessus) et le débordement des cours d’eau, sans oublier les effets amplificateurs (ou non) de la bathymétrie et de la topographie locales.

 

Tout cela a contribué au caractère destructeur et meurtrier de Haiyan sur des installations humaines vulnérables. D’où l’existence d’autres classements des cyclones en fonction du nombre de victimes, le plus souvent élevé dans les pays pauvres (d’autant plus lorsque les côtes en sont basses, par exemple dans le golfe du Bengale), et du coût des dégâts, d’autant plus haut que les pays sont riches avec des choses à détruire (comme aux États-Unis). Du moins en valeur absolue… car la valeur relative des barques philippines est sans prix pour des pêcheurs n’ayant que cela pour vivre.

 

Nous tenterons de voir dans le prochain et dernier épisode s’il y a plus de cyclones qu’avant, s’ils sont plus intenses (en nous référant à l’indice ACE) et dans l’affirmative, si cela peut être corrélé avec le réchauffement climatique en cours.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.