Skip to Content

Category Archives: Météo

Gaston

Par

 

Gaston n’est pas au téléphone mais en route sur l’Atlantique Nord. C’est le septième phénomène cyclonique baptisé de la saison 2016. Celle-ci vient d’être réévaluée à la hausse par la National Oceanic and Atmospheric Administration (NOAA) comme on peut le lire ici.

 

 

Ce 25 août, la prévision de trajectoire laisse espérer que Gaston s’éteindra de lui-même sur des eaux moins chaudes de l’Atlantique Nord. À moins qu’elle stagne au Nord-Ouest des Açores sur la route des Figaro Bénéteau de Douarnenez/Horta (une porte vient d’être créée au cap Finisterre pour anticiper cette éventualité) ou qu’elle revienne vers l’Europe dans la circulation d’Ouest… (© Météo-France)

 

L’on verra aussi avec profit la prévision saisonnière synthétisée par Météo-France Antilles-Guyane que l’on peut télécharger au bas de la page consacrée à l’activité cyclonique en cours. Le tableau des statistiques y présente les prévisions des différentes sources.

 

 

Selon les sources, les prévisions diffèrent quelque peu pour la saison cyclonique en cours. (© Météo-France)

 

Le document est également intéressant parce qu’il rappelle les paramètres (dont l’envers d’El Niño, la Niña) pris en compte pour tenter de prévoir si la saison des cyclones sera ou non intense, autrement dit si l’ACE (Accumulated Cyclone Energy ou Énergie accumulée d’un cyclone) sera élevé ou non. Pour l’heure, celui de Gaston reste assez faible, tant mieux.

 

 

Les principaux facteurs pris en compte pour l’établissement de la prévision sont résumés ici. (© Météo-France)

 

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Vous avez dit Pacifique ?

Par

 

El Niño oblige, l’année 2015 a été celle de tous les records en matière de cyclones dans l’océan Pacifique. Depuis la mi-décembre, le phénomène est arrivé à pleine maturité sur le Pacifique équatorial, le centre de celui-ci étant tout particulièrement surveillé. Cette zone est appelée “ boite Niño 3.4 ” par les climatologues et les océanographes. L’anomalie de température de la mer en surface y a temporairement dépassé +3 °C à la fin novembre, pour une moyenne sur le mois de +2.9 °C. Alors qu’il devrait commencer à décroître, El Niño version 2015-2016 est ainsi au niveau record de l’édition 1997-1998, jusqu’ici la plus intense depuis qu’on a commencé les mesures dans les années 1950.

 

 

Cette carte montre l’anomalie de température de surface de l’océan (Sea surface temperature ou SST) pour le mois de novembre 2015, en degrés Celsius (échelle de couleur allant de -4 °C à +4 °C pour cette anomalie par rapport à la normale). El Niño est parfaitement visible dans l’Est et le centre du Pacifique, à cheval sur l’équateur. La boite Niño 3.4 sert à la surveillance du phénomène. (© Mercator Océan)

 

 

El Niño évoquait à l’origine l’incursion d’eau chaude que l’on  observa très tôt dans l’Histoire, à Noël (au solstice de l’été austral), le long des côtes du Pérou et de l’Équateur, El Niño désignant en Espagnol l’enfant Jésus. Lorsqu’on a su l’expliquer, le terme a ensuite été utilisé pour nommer plus largement le phénomène climatique correspondant au réchauffement accentué des eaux de surface le long de l’Amérique du Sud, là où agissent en temps normal les remontées d’eau froide (upwelling).

 

Celles-ci sont d’autant plus actives que l’alizé de Sud-Est est bien établi sur la face septentrionale de l’anticyclone de l’île de Pâques. Les eaux chaudes à la surface du Pacifique Sud sont alors entraînées vers l’Ouest et remplacées le long du Pérou et du Nord du Chili par des eaux venues des profondeurs. Si le phénomène est particulièrement marqué et que sévit au-dessus des eaux anormalement froides et sur la côte proche un air descendant et sec, on parle de La Niña, par opposition à El Niño.

 

Lorsque l’anticyclone de l’île de Pâques s’affaiblit, l’alizé s’essouffle voire se renverse. Les eaux chaudes de surface, réchauffant un air ascendant qui donne nuages et précipitations, refluent de l’Ouest vers l’Est. Ce phénomène qui se produit selon un cycle irrégulier allant de 2 à 7 ans, commence en milieu d’année lorsque le soleil est au zénith sur l’équateur et il peut durer de 6 à 18 mois même s’il atteint son apogée vers Noël, d’où le maintien du nom. Les derniers épisodes d’El Niño ont eu lieu en 1997-1998, 2002-2003, 2004-2005, 2006-2007, 2009-2010 et 2015-2016 en cours.

 

Si l’influence d’El Niño est planétaire – tant au niveau climatologique que météorologique -, elle est immédiate et directe sur la formation des cyclones. Lorsque la température de surface de la mer dépasse 27 °C, tandis que survient au-dessus, de l’air relativement froid, générant une très forte instabilité dans de l’air déjà très humide (dû notamment à une forte évaporation), les conditions de la naissance d’un éventuel futur cyclone sont réunies (elles le sont par le bas, contrairement à une tempête de zone tempérée qui naît, par le haut, des perturbations d’écoulement des courants-jets).

 

D’énormes cumulonimbus se forment ainsi au-dessus de l’océan. Ils transportent la chaleur en altitude par convection. La forte humidité y assure une condensation qui libère de la chaleur. D’où un gradient de pression d’origine thermique, entre l’extérieur et l’intérieur du nuage. Ainsi naît une dépression à centre chaud. Sous l’effet conjugué de la force de Coriolis, un tourbillon apparaît au coeur de la colonne nuageuse, créant une importante force centrifuge, compensée par une nouvelle baisse de pression, d’origine dynamique, encore plus forte.

 

C’est ce qui arrive avec El Niño dans la moitié Est du Pacifique Nord dont l’activité annuelle suivie par la National Oceanic and Atmospheric Administration (NOAA) est visible ici (tandis qu’avec seulement 11 phénomènes cycloniques baptisés, la saison a été modérée en Atlantique Nord dont on peut consulter le rapport d’activité de la NOAA ici pour l’annuel et là pour les rapports mensuels, la synthèse mensuelle des deux bassins étant ici). Les eaux chaudes en surface s’étendant vers l’Est du Pacifique équatorial, les tempêtes tropicales et les ouragans se forment alors beaucoup plus à l’Est qu’en temps normal.

 

En 2015, 26 ouragans majeurs – c’est-à-dire de catégorie 3 à 5 – ont existé pour tout le Pacifique, contre 13 en moyenne chaque année. Dans sa moitié Est (par rapport à l’antiméridien), on dénombre 18 phénomènes cycloniques baptisés, dont 13 cyclones parmi lesquels 9 sont devenus des ouragans majeurs (catégorie supérieure ou égale à 3), ce dernier chiffre étant une première depuis le début des statistiques de la NOAA en 1971.

 

 

La carte 2015 des phénomènes cycloniques baptisés pour l’Est du Pacifique Nord recense 18 trajectoires, du 28 mai au 28 novembre, chacune avec la position de l’oeil à 00h00 UTC (point noir) et 12h00 UTC avec la date (point blanc). En vert, le phénomène n’est encore qu’une dépression tropicale, en jaune il est devenu tempête tropicale, en rouge il se fait cyclone (ouragan, hurricane en anglais) et en magenta ouragan majeur. (© NOAA)

 

 

Même première dans le Pacifique central où l’on compte 14 phénomènes cycloniques baptisés, dont 8 cyclones parmi lesquels 5 sont devenus des ouragans majeurs. On a même vu trois de ces derniers sévir en même temps à l’Est de la ligne de changement de date (International Date Line) ! Cela n’avait jamais été enregistré dans les archives…

 

Rappelons que sur l’échelle de Saffir-Simpson, la catégorie 1 regroupe les cyclones dont le vent soutenu (vent moyenné sur une minute) est entre 119 et 153 km/h (arrondi à la fourchette 64-82 noeuds), la catégorie 2 entre 154 et 177 km/h (83-95 noeuds), la catégorie 3 entre 178 et 208 km/h (96-112 noeuds), la catégorie 4 entre 209 et 251 km/h (113-136 noeuds) et la catégorie 5 au-dessus de 252 km/h (137 noeuds).

 

Le doublement des ouragans majeurs par rapport à la moyenne de tout le Pacifique s’explique essentiellement par la part importante prise par l’Est de celui-ci. Or, indépendamment d’El  Niño et au niveau global des zones intertropicales de la planète, on sait que le réchauffement climatique n’entraîne pas une augmentation du nombre de cyclones mais bel et bien celui des super cyclones, ceux de catégorie 5 (voir la série Cyclones et cycle, épisodes 1, 2 et 3). Le Pacifique n’a pas fini de ne plus l’être.

 

O.C.

 

 

Le 23 octobre 2015 à 01h45 UTC, le super cyclone Patricia (n° 16 de la carte précédente) est par 16° 05′ N / 106° 10′ W. Avec un oeil à 879 hPa – contre 870 hPa pour le typhon Tip qui détient toujours le record -, et un vent soutenu maximal de 174 noeuds dépassant les 168 noeuds de Tip en 1979 dans le Pacifique Ouest, Patricia qui a frappé le Mexique est le plus puissant cyclone jamais mesuré dans l’Est du Pacifique. (© NOAA)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Triple A

Par

 

Foin d’andouillette ou de notation financière. Ce triple A renvoie aux modèles numériques de prévision de Météo-France, Arpège, Arome et Aladin. Deux d’entre-eux ont connu des développements significatifs dont la phase opérationnelle a débuté le 13 avril 2015. Le troisième est progressivement appelé à disparaître.

 

Forte depuis l’an dernier d’un supercalculateur d’une puissance de calcul de 1 pétaFlop, soit 1 million de milliards d’opérations par seconde, Météo-France assimile près de 22 millions de données par jour pour ses différents modèles. Indépendamment de la prévision de 8 à 15 jours conduite avec le modèle du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) – dont j’ai déjà parlé afin de le comparer à son concurrent américain Global Forecast System (GFS) qui vient d’ailleurs de connaître des développements (ici et ) -, ce sont donc trois modèles que le service français utilise pour ses prévisions à courte échéance.

 

 

Depuis janvier 2014, c’est le supercalculateur Bull B 710 DLC qui est opérationnel chez Météo-France. Sa capacité de calcul est de 1,035 pétaFlops de puissance en crête totale (1 pétaFlop = un million de milliards d’opérations en virgule flottante par seconde). L’architecture parallèle des nouvelles machines offre l’avantage de décomposer les tâches en milliers de sous-tâches simultanées. Ainsi, une prévision à 24 heures sur la France avec le modèle à maille fine Arome ne nécessite plus qu’une demi-heure. (© Météo-France)

 

 

Avec une couverture mondiale, Arpège est utilisé pour prévoir les évolutions des phénomènes de grande échelle (dépressions, anticyclones) à 3 ou 4 jours sur la métropole, l’outremer et sur l’immense domaine maritime français, le second du monde juste derrière celui des États-Unis. Il est utilisé sous forme déterministe, mais aussi dans sa version probabiliste ou ensembliste (Prévision d’ensemble Arpège ou PEARP) afin de mieux tenir compte des incertitudes liées à chaque étape de la prévision (nombreuses simulations pour une même prévision). Sa résolution horizontale passe de 10 à 7,5 km sur l’Europe (de 15 km à 10 km pour la prévision d’ensemble) mais de 60 km à 36 km aux antipodes (de 90 km à 60 km pour la prévision d’ensemble), sur 105 niveaux verticaux au lieu de 70 dans la version précédente.

 

Couvrant la France métropolitaine et une bonne partie de l’Europe occidentale, Arome voit sa résolution horizontale doubler (1,3 au lieu de 2,5 km) et ses niveaux verticaux multipliés par un et demi (90 au lieu de 60). Alimenté par Arpège sur ses marges, Arome produit des prévisions très détaillées, jusqu’à 36 heures en moyenne. Les prévisionnistes l’utilisent pour affiner leurs prévisions à petite échelle des phénomènes dangereux.

 

Dans les deux modèles, les plus bas niveaux étaient depuis longtemps autour de 17 mètres. Ils sont désormais de 5 m dans Arome et de 10 ou 14 m dans Arpège selon qu’il est déterministe ou ensembliste. Les observations prises en compte pour déterminer l’état initial de l’atmosphère intègrent des données issues de nouveaux instruments ou de nouveaux canaux dans les instruments déjà en service (aux premiers rangs desquels les satellites).

 

Pour intégrer ces nouvelles données, les algorithmes d’assimilation ont été revus en profondeur de manière à mieux prendre en compte les informations pertinentes. Dans Arpège, la description des incertitudes a ainsi été considérablement améliorée avec 25 scénarios de prévisions à courte échéance pour l’ensemble d’assimilation au lieu de 6 précédemment. Ces estimations d’incertitudes permettent d’affecter un poids à chaque source de données et d’affiner la qualité de l’état initial des prévisions. Parmi les améliorations attendues sur Arpège, notons la modélisation des tempêtes et la représentation des cumulonimbus.

 

Sous Arome, ce sont justement les prévisions des orages avec leurs précipitations et leurs rafales qui devraient notamment profiter des modifications apportées. Le cycle d’assimilation de ce modèle est désormais basé sur 24 analyses quotidiennes au lieu de 8 dans la version antérieure ce qui permet d’intégrer trois fois plus d’observations radar. La base de données orographiques a été mise à jour vers une représentation plus réaliste des reliefs qui devrait être profitable sur les côtes élevées, par exemple en Méditerranée.

 

 

En ordonnée, le nombre de cellules convectives sur une journée et en abscisse leur surface en kilomètres carrés. La courbe bleue montre les observations par radar, la courbe verte les prévisions par Arome ancienne version et la rouge les prévisions Arome nouvelle version. On voit que celle-ci s’approche au plus près des observations du radar, témoignant du bond accompli dans la modélisation des cellules orageuses. (© Météo-France)

 

 

Visiblement, la ligne directrice de tous ces changements est de recentrer la prévision sur le court terme et la très haute résolution spatiale des risques liés aux phénomènes dangereux en métropole. En ce qui concerne spécifiquement le maritime (qui n’est qu’une toute petite partie des préoccupations nationales), cela devrait avoir indirectement une incidence sur une meilleure prévision des vagues.

 

Comme tout service public, Météo-France doit justifier ses crédits et donc ses résultats auprès des politiques. Le temps de calcul disponible est ainsi très fortement modifié en ce sens. Avant le 13 avril 2015, Arpège en mobilisait plus de 65 % à l’échelle moyenne sur le domaine mondial contre à peine plus de 20 % à l’avenir. Tandis qu’Arome ne va cesser de monter en puissance à l’échelle fine de la métropole, passant de 20 % à 40 % à la fin 2015, auxquels s’ajouteront mi 2016 les 20 % de la version ensembliste d’Arome (telle qu’elle existe aujourd’hui avec Arpège). Arome aura alors pris la place qu’occupait auparavant Arpège dans la mémoire vive du supercalculateur de Météo-France, les 20 % restants étant dévolus aux DOM-TOM et à la Défense.

 

Cependant, la puissance de calcul n’est pas tout. Les recherches sur les méthodes numériques font également leur part du travail. Ainsi, le simple doublement de la résolution horizontale d’Arome nécessiterait normalement une puissance de calcul 8 fois plus importante. Grâce aux dites recherches, le “ surcoût ” réel n’est que de 4,8, ce qui libère de la mémoire pour d’autres calculs. La prévision numérique progresse donc plus vite que la seule augmentation de la capacité de ses ordinateurs dont la hausse est pourtant vertigineuse.

 

 

Depuis janvier 2014, la puissance de calcul est douze fois plus importante qu’auparavant. Par rapport à 1992, elle a été multipliée par 500 000 ! Cela permet de gagner un jour de prévision tous les dix ans, la fiabilité à 4 jours de 2014 équivalant à celle à 3 jours de 2004. (© Météo-France)

 

 

Et le troisième A ? Pour faire écho à son nom, Aladin devrait disparaître. Ce modèle régional (résolution horizontale de 7,5 km) affine Arpège sur les Antilles, la Guyane, la Polynésie française, la Nouvelle-Calédonie, l’océan Indien pour la prévision cyclonique et dans les zones du monde où l’armée française mène des opérations. Dès 2015-2016, Aladin sera progressivement remplacé par Arome grâce au temps de calcul libéré par ailleurs (voir ci-dessus). La prévision des cyclones y gagnera de l’attention. Avec un grand A.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Anton a cogné fort

Par

 

Le gradient de pression était considérable. La dépression Anton s’est creusée sur la mer Tyrrhénienne, le mercredi 4 mars 2015 en soirée. Nous valant le beau temps actuel sur toute la moitié Nord de la France, un puissant anticyclone se centrait sur le golfe de Gascogne et l’Ouest du pays, montant à 1042 hPa le jeudi 5 à la mi-journée, tandis qu’à l’Est de la Sardaigne, cela chutait à 995 hPa. Le couloir isobarique entre les deux centres de pression a généré un très fort flux de Nord sur la Méditerranée occidentale et l’Adriatique.

 

 

Dans sa carte de prévision à 36 heures des isobares et des fronts pour le jeudi 5 mars à 12h00 UTC sur la base du réseau du 04.03.15 à 00h00 UTC, le Deutscher Wetterdienst annonce clairement le très fort gradient de pression entre l’anticyclone Karin et la dépression Anton. (© Deutscher Wetterdienst – DWD)

 

 

Le jeudi 5 mars, outre une violente tramontane et un mistral musclé, on a ainsi enregistré des rafales à plus de 150 km/h (81 noeuds) en mer Tyrrhénienne. Des valeurs records ont été atteintes sur la côte orientale de la Corse (vent de Nord-Est, le gregale), avec 185 km/h (100 noeuds) à La Chiappa, près de Porto-Vecchio.

 

Elles ont dépassé les 200 km/h (108 noeuds) sur les collines de la Toscane, alors que la tempête se décalait le vendredi 6 mars vers les Balkans et les Carpates. La différence de pression entre le Nord et le Sud des Alpes a favorisé le vent de Nord-Est ainsi qu’un effet de foehn dans le Valais. En altitude, le courant jet établi de la Scandinavie au Maghreb atteignait 140 noeuds.

 

 

L’image satellitaire Meteosat-9-HRV du jeudi 5 mars à 12h00 UTC montre bien l’enroulement dépressionnaire d’Anton. (© Météo Suisse)

 

 

C’est en Croatie que les effets d’accélération dus au relief ont été les plus impressionnants. La bora (vent du Nord-Est) a soufflé des sommets dalmates vers l’Adriatique avec une rare violence, de Trieste au Nord-Ouest à Dubrovnik au Sud-Est. Des rafales à 166 km/h (90 noeuds) ont été relevées à Split, 210 km/h (113 noeuds) près de Zadar et 214 km/h (116 noeuds) un peu plus au Nord-Ouest, à Prizna.

 

Les précipitations ont également été considérables avec de la pluie sur la côte et de la neige sur l’arrière-pays et les états voisins, ainsi que sur les Apennins et les Abruzzes en Italie. Plus de 100 noeuds dans les rafales et un vent moyen de force 12 (plus de 64 noeuds), autant dire l’ouragan. Anton ? Un sacré cogneur.

 

O.C.

 

 

Dès le jeudi 5 mars, l’Adriatique s’est déchaînée en Croatie sous les effets de la bora (ici à Ražanac près de Zadar). (© Leo Banic)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

GFS refait surface (2/2)

Par

 

La nouvelle version de GFS que j’évoquais dans mon premier article devrait améliorer très sensiblement les prévisions. Mais de là à l’utiliser dans les zones côtières de notre façade occidentale où les effets de site et les phénomènes de brises sont importants, ou dans une mer fermée comme la Méditerranée où l’influence des terres et surtout des reliefs est aussi considérable que la multiplicité des îles, il y a un pas optimiste que je ne franchirai pas.

 

 

Sur la Méditerranée occidentale, l’Italien LaMMA propose une déclinaison régionale de GFS avec son modèle WRF. Ici le vent moyen à 10 m, à 5 jours avec une résolution de 12 km. (© LaMMA)

 

 

 

Avec cette mise à jour de GFS, Arpège qui est le modèle mondial de Météo-France avec des prévisions à 4 jours dont la maille horizontale est optimisée à 10 kilomètres sur l’Europe de l’Ouest (sur 70 niveaux au total) n’est plus aussi compétitif. Ce modèle Arpège HR (pour haute résolution, 10 km) est visible ici sur Previmer (simple visualisation sur petite carte à 3 jours).

 

En effet, une déclinaison régionale de GFS telle que le modèle WRF (Weather Research and Forecasting) qui prend bien en compte la topographie (en particulier les reliefs de la côte et de l’arrière-pays) devrait bénéficier directement de l’amélioration de GFS (en l’occurrence du modèle proprement dit d’une part et de sa hausse de résolution d’autre part) alors que nombre de sites météo utilisent ses ressources, notamment dans sa version NMM (Nonhydrostatic Mesoscale Model) qui offre une résolution horizontale fine (jusqu’à 4 km), un exemple ici avec Meteociel (5 km) ou pour la Méditerranée occidentale, ici avec le très bon LaMMA (mais 12 km seulement dans sa version moyenne résolution).

 

Cela dit, pour la courte échéance, les vrais modèles à maille fine - qui réalisent l’assimilation à haute résolution -, sont à privilégier, tout particulièrement en Méditerranée où il faut utiliser en priorité ceux développés par les services locaux. En voici quelques exemples que j’utilise régulièrement, sans aucune prétention d’exhaustivité. En Italie, on trouve ainsi l’excellent modèle LaMMA HR qui n’est autre qu’un WRF utilisant le modèle CEP sur 3 jours avec une résolution horizontale de 3 km, hélas pas sur tout le pourtour de l’Italie et de ses îles.

 

 

Développé par l’université d’Athènes, Poseidon est un excellent modèle à maille fine pour la Grèce (en dépit d’un affichage dont le graphisme et le positionnement gagneraient à être plus précis), ici les Cyclades avec le vent moyen à 10 m, à 3 jours. (© Poseidon)

 

 

En Grèce, c’est le fort bon système Poseidon pour toutes les zones en mer Ionienne et en mer Égée (utiliser la visualisation zoomée sur chaque bassin en passant par l’onglet Sailing Forecast). Sa résolution horizontale est de 1/30 degré, soit 0,03 degré. Dans les deux cas (italien et grec), les données sont gratuites mais il ne s’agit que de visualisations sans fichiers Grib. Tandis que OpenSkiron permet de télécharger des Grib lisibles sur zyGrib, proposés par zones de la Méditerranée (exemple : mer Égée, mais la résolution de calcul et d’affichage aux points de grille n’est plus que de 0,1 degré). Leur provenance est l’université d’Athènes qui réalise et gère le service Poseidon.

 

Côté Météo-France, le modèle numérique de prévision Arome offre une maille de calcul de 2,5 kilomètres (qui doit passer à 1,3 km en ce début 2015 !). Il intègre les données issues des observations locales, par exemple celles des vents doppler des radars météo, et il peut prendre en compte des éléments au sol plus précis, afin de modéliser les îlots de chaleur.

 

Arome voit beaucoup plus le relief littoral et les autres effets de sites qu’un modèle global comme GFS, y compris les brises thermiques, les effets de pointe ou les effets venturi. Enfin, il prend mieux en compte les mouvements verticaux et la modélisation des phénomènes convectifs aux abords des côtes, en particulier les orages. Pour la courte échéance, de une à trente-six heures, la finesse est très supérieure à GFS.

 

 

Le même modèle Poseidon, exploité en grib via le site OpenSkiron et affiché ici sous zyGrib sur les seuls points de grille pour la mer Égée. La résolution (0,1 degré) est trois fois inférieure à celle proposée en affichage simple sur le site Poseidon (0,03 degré). (© zyGrib /Olivier Chapuis)

 

 

Mais ce modèle n’est accessible qu’avec Navimail 2.1.3, lequel propose ainsi une maille jusqu’à 0,025° avec Arome, soit un point de grille tous les 1,5 milles (ou 2,78 kilomètres), ce qui est de la très haute résolution (Navimail 2.1.3 à télécharger ici pour le côtier et ici pour le large) Ces données sont payantes. Celles du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF) le sont aussi.

 

Je ne suis pas un partisan de la libéralisation à outrance, c’est un euphémisme, mais on peut s’interroger – comme le faisait l’an dernier Francis Fustier dans son remarquable blog Navigation Mac -, sur le fait de savoir jusqu’à quand ce sera tenable vis-à-vis des citoyens et contribuables européens qui en financent une large partie. Ouvrir ces données aux développeurs qui veulent y ajouter de la valeur serait effectivement une bonne idée. À condition qu’elles le soient aussi aux utilisateurs lambda en libre accès, au minimum à un format brut exploitable comme les fichiers Grib. Ce serait d’autant plus judicieux que CEP était reconnu meilleur que GFS… en tout cas jusqu’à la mise à jour majeure que vient de connaître ce dernier.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

GFS refait surface (1/2)

Par

 

D’accord, mon titre est quelque peu provocateur. Le modèle numérique de prévision GFS (Global Forecast System) n’a jamais sombré. Mais de l’aveu même des Américains qui le produisent, il était en retard sur son concurrent européen, le modèle IFS (Integrated Forecast System) du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF), couramment appelé modèle CEP en France et utilisé notamment par Météo-France et les autres services européens (Royaume-Uni, Allemagne…).

 

 

Une requête avec zyGrib du GFS maille 0,25 degré (spécifiée en haut à gauche). (© zyGrib / Olivier Chapuis)

 

 

L’américain GFS et l’européen CEP sont les modèles numériques de prévision les plus utilisés au large. Leur couverture est globale pour des échéances à moyen et long terme tandis que les autres modèles globaux sont limités à la courte échéance, à l’instar d’Arpège de Météo-France (mais avec un pas de temps de 10 minutes dans son cas). Parce qu’ils divergent souvent, GFS et CEP sont complémentaires.

 

Développé par le National Centers for Environmental Prediction (NCEP), dépendant du National Weather Service (NWS) de la National Oceanic and Atmospheric Administration (NOAA) des États-Unis, le modèle GFS propose une nouvelle version qui est opérationnelle depuis le 14 janvier 2015. Parmi toutes les améliorations apportées dont on trouvera le détail exhaustif ici – aussi bien pour l’assimilation que pour le mode de calcul de l’algorithme, en ne parlant que du modèle atmosphérique, indépendamment du modèle océanique d’état de la mer -, l’évolution la plus marquante pour le public concerne la résolution horizontale proposée dans les fichiers Grib (Gridded binary).

 

 

MaxSea Time Zero, via son serveur, ne prend pas encore en compte la nouvelle résolution : ici la maille 0,50 degré le 29 janvier 2015 sur le golfe de Gascogne (base 00h00 UTC, prévision à 18h00 UTC ici, 19h00 locale). (© MaxSea Time Zero / Olivier Chapuis)

 

 

Elle passe à 0,25 degré contre 0,5 degré auparavant. Sa densité est donc quatre fois supérieure. La résolution 0,5 degré est toujours disponible ce qui est une bonne chose car les fichiers à 0,25 degré sont quatre fois plus gros et cela peut coûter cher pour les télécharger par satellite au large. Mais à terre, ce n’est que bénéfice.

 

Le 29 janvier 2015 au même point 47° 23’ N / 06° 40’ W, avec le GFS 0,25 degré, on retrouve le même vent moyen à 10 m au 309° / 39, 2 N contre 306° / 39,5 N pour le GFS 0,5 degré de l’image précédente (toujours base 00h00 UTC, prévision à 18h00 UTC). (© zyGrib / Olivier Chapuis)

 

 

Cette résolution en sortie de modèle ne doit pas être confondue avec celle en entrée de modèle, dans la phase d’assimilation des données (pour le NCEP il s’agit du Global Data Assimilation System, GDAS, qui connaît lui aussi des améliorations avec cette mise à jour). La résolution horizontale de calcul GFS Global Spectral Model vient de passer de 27 kilomètres (14,58 milles) à 13 kilomètres (7,02 milles) et de 192 heures (8 jours) à 240 heures (10 jours) pour les prévisions à court et moyen terme (10 jours est aussi l’échéance maximale pour un fichier Grib 0,25 degré). Pour les prévisions à long terme, elles sont passées de 70 kilomètres (129,64 milles) à 35 kilomètres (155,57 milles), entre 240 et 384 heures (16 jours).

 

Le pas de temps le plus fin reste de 3 heures et sur 64 niveaux verticaux (sommet à 0,2 hPa) avec 366 variables par point de grille (chaque point de grille fait référence à une position géographique à un niveau donné définissant un quadrillage en trois dimensions qui découpe l’atmosphère en cubes ; on passe à quatre dimensions lorsque le modèle tourne, en ajoutant une dimension de temps). GFS calcule une prévision toutes les 6 heures, aux heures synoptiques principales (en anglais, le run servant de base au calcul), soit 00h00, 06h00, 12h00 et 18h00 UTC (avec des performances différentes, les meilleures étant celles de 00h00 et 12h00 UTC). Les fichiers Grib sont mis en ligne quatre fois par jour, cinq heures après les heures synoptiques principales (toujours avec des pas de 3 heures jusqu’à 10 jours et des mailles horizontales à choisir entre 0,25, 0,5, 1 et 2,5 degrés).

 

 

Avec la maille 0,25 degré, la visualisation de GFS présente une densité quatre fois supérieure à la maille 0,50 degré telle qu’à l’image 2. (© zyGrib / Olivier Chapuis)

 

 

Les sorties du modèle numérique de prévision GFS sont proposées gratuitement à tous les utilisateurs (dont les développeurs des programmes de sélection, de téléchargement et de visualisation des Grib, avec ou sans routage à la clé) via les serveurs NOMADS (NOAA Operational Model Archive and Distribution System), au format Grib 2, par exemple celui-ci pour le GFS de maille 0,25 degré. Ces serveurs sont utilisables directement mais leur ergonomie est bien moins agréable que celle des meilleurs programmes. Ainsi, l’excellent zyGrib (à télécharger ici) – programme gratuit de visualisation simple – intègre déjà cette maille à 0,25 degré comme le non moins réputé Weather 4D (application payante de visualisation des Grib mais aussi de routage) qui le fait depuis novembre pour son application Android (alors que la maille 0,25 était en phase de test au NCES) et depuis le 15 janvier sous iOS (mobiles Apple) pour les zones France et Europe, tandis que d’autres programmes ne proposent encore que les Grib GFS à 0,5 degré (c’est le cas de Grib.us pour Ugrib et de MaxSea Time Zero ce 29 janvier).

 

Le gros travail entrepris sur cette mise à jour de GFS est notamment dû à quelques ratés de prévision qui s’étaient produits en octobre 2012 lors du cyclone Sandy qui, après les Grandes Antilles dont Haïti, avait frappé très durement la côte Est des États-Unis jusqu’à New York. On peut en voir l’analyse du NCEP ici.

 

 

Pour ne pas accréditer la fausse illusion d’une haute résolution qui n’en est pas une, il est recommandé de n’afficher que les flèches de vent correspondant aux points de grille Grib, autrement dit de désactiver l’interpolation spatiale. (© zyGrib / Olivier Chapuis)

 

 

Suite la semaine prochaine avec l’impact sur la pseudo haute résolution comparée à la vraie haute résolution.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Au loup !

Par

 

Pas un jour sans qu’on entende les scientifiques crier au loup dans les médias. Le problème est que l’animal est déjà dans la bergerie depuis un moment, que tous les indices le confirment et qu’il n’y a plus guère de mammouth pour les contester. Mais l’effet amplificateur et démultiplicateur des réseaux crée accoutumance et indifférence en même temps que les nécessaires prises de conscience. Celles-ci se heurtent à beaucoup d’impuissance face à l’inertie de nos modes de vie. Pendant ce temps, le climat se réchauffe et l’océan avec lui.

 

Il ne faut pas pour autant se tromper d’échelle d’espace/temps et lire tout événement météorologique à l’aune du changement climatique, comme nous l’ont rappelé à bon escient les météorologues interrogés dans notre récent dossier “ Coup de chaud sur le climat ? ” (Voiles & voiliers n° 518, avril 2014). C’est pourtant ce qui se fait logiquement au quotidien, sous le diktat des images spectaculaires et anxiogènes tournant en boucle. On ne peut blâmer les victimes de ces météores, aux premières loges, de mélanger les phénomènes atmosphériques et l’incurie des hommes d’après 1960 dans l’aménagement du territoire, ainsi que le rappelle parmi tant d’autres exemples le procès Xynthia en cours.

 

 

Les images spectaculaires – telles que celles de Xynthia aux Sables d’Olonne, le 28 février 2010 -, frappent les imaginations et marquent les mémoires. Si elles témoignent de phénomènes hors normes, l’extrapolation du météorologique au climatique doit être faite avec beaucoup de prudence. (© Jacques Archambaud / SAEMSO Port-Olona)

 

 

Le message est brouillé mais la responsabilité en est largement diluée. Vous et moi d’abord. Si nous voulons vivre avec vue sur mer, il ne faut pas nous étonner que celle-ci s’invite de temps à autre dans notre salon, sans même attendre l’élévation du niveau des océans et sans que le recul du trait de côte ne soit obligatoirement en cause. Les politiques ensuite qui résistent mal (c’est un euphémisme) à la pression financière considérable accompagnant (ou appelant) ce mouvement démographique bien connu vers le littoral, un peu partout dans le monde.

 

Les scientifiques et les médias enfin. Il y a suffisamment de raisons de crier au loup, matin, midi et soir, pour ne pas en rajouter à des fins purement stratégiques, comprenez que laboratoires et ONG ont besoin d’alerter plus que de raison pour récupérer des crédits gouvernementaux et lever des fonds dans l’opinion. Et que les journalistes sont toujours preneurs de données qui les dépassent d’autant plus qu’elles sont nécessairement réduites à des simplifications extrêmes en bout de course.

 

Prenez le rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) – dont la synthèse de la cinquième livraison (2014) sera officiellement présentée à partir du 27 octobre -, il compte allègrement plus d’un millier de pages. On peut heureusement en trouver un résumé ici.

 

Prenez la Conférence scientifique publique mondiale sur la météorologie 2014 qui a eu lieu du 16 au 21 août dernier à Montréal. Elle est emblématique de la nécessité de s’ouvrir au plus grand nombre mais elle témoigne aussi des limites de l’exercice : le PDF des seuls résumés fait 920 pages (à télécharger ici), bien évidemment en anglais et surtout, à un niveau en réalité inaccessible aux non spécialistes.

 

Comment en extraire des conclusions significatives mais non caricaturales ou réductrices ? L’exercice est loin d’être évident, y compris pour les scientifiques eux-mêmes qui peinent souvent à synthétiser leurs travaux dont la nature s’y prête mal. Quand ils ne se laissent pas carrément emporter par leur enthousiasme (si je peux employer ce mot en matière de catastrophisme) comme cela est arrivé à certains d’entre-eux au Québec.

 

C’est ainsi qu’on a pu voir reprise dans la presse généraliste, “ l’information ” (c’est moi qui mets les guillemets) que les vagues feraient “ désormais 40 mètres là où 20 mètres étaient exceptionnels ”, les propos ayant bien été tenus par un universitaire américain. Sans préciser si on parle de leur hauteur significative qui correspond à la hauteur moyenne du tiers des vagues les plus hautes (H 1/3 : sur trente vagues consécutives, la hauteur moyenne des dix plus hautes donne la hauteur significative de ce train de vagues) ou de la hauteur des vagues scélérates… ce qui n’est pas la même chose !

 

 

La hauteur exceptionnelle des vagues scélérates deviendra-t-elle la norme en matière de hauteur significative lors des tempêtes ? (© DR)

 

 

L’objet de ce congrès de Montréal était surtout de faire l’état d’avancement des technologies pour l’élaboration des prévisions météorologiques et d’établir leur programme de développement à long terme. Peut-être parce qu’il s’agissait d’une conférence ouverte d’un genre nouveau, celle-ci a dérivé singulièrement entre les présentations scientifiques (dont les résumés sont disponibles dans le document précité) et leur communication à la presse et au grand public, toute rigueur ayant été débarquée dans l’alarmisme ambiant…

 

Parfois, le message est moins flou. On vient de le voir avec la Conférence des parties, organe directeur de la Convention sur la diversité biologique de l’ONU. Sa dernière édition s’est tenue le 6 octobre en Corée du Sud et elle alerte à juste titre sur l’acidification des océans. D’ici à 2100, celle-ci augmenterait de près de 170 % par rapport à ce qu’elle était avant les débuts de l’industrialisation du monde au XIXème siècle. Due à la hausse des rejets de gaz carbonique dans l’atmosphère, liée pour l’essentiel aux activités humaines, cette acidité s’est accrue d’un tiers en 200 ans.

 

Là encore, c’est l’accélération phénoménale qui frappe puisque ce phénomène serait d’une amplitude inédite depuis cinquante-six millions d’années et d’une vitesse jamais vue depuis trois cents millions d’années. Ce changement de pH ferait disparaître 70 % des organismes marins dans lesquels le calcaire est présent et qui sont de véritables marqueurs climatiques.

 

Le problème est donc d’être concret avec des hypothèses qui si elles sont de plus en plausibles n’en sont pas moins issues de modèles numériques de prévision en climatologie, avec des marges d’erreur plus ou moins importantes. À cet égard, le site Drias, réalisé par Météo-France, vous propose de sélectionner des paramètres de modélisation pour une visualisation pragmatique des scénarios de changements climatiques, à l’échelle du territoire français.

 

Quant aux suppositions désormais certaines et avérées (exemple : il y a moins de cyclones mais plus de super cyclones ; voir la série Cyclones et cycle, épisodes 1, 2 et 3), elles n’en sont donc plus et rejoignent ainsi l’actualité. Celle des catastrophes dites bien rapidement “ naturelles ” quand leurs effets dévastateurs sont souvent liés à des aménagements tout ce qu’il y a de plus artificiels et criminels.

 

Exemple quasi quotidien en période de précipitations intenses : les constructions dans des zones inondables qui n’étaient pas bâties par nos ancêtres (certes en des temps où la densité de population n’avait rien à voir avec celle d’aujourd’hui) et qui sont encore plus submersibles que par le passé parce que les sols bitumés et les haies arrachées ne freinent plus l’écoulement de l’eau (errements qui n’ont rien à voir avec le réchauffement climatique et sur lesquels l’homme a une prise directe, sinon immédiate du moins beaucoup plus rapide que pour diminuer ses rejets de CO2 dans l’atmosphère). On devrait alors parler de faits divers. Quand “ au loup ” rime avec “ au fou ” ou - même si la rime est beaucoup moins riche :) -, avec “ au flouze ”…

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Pour mémoire

Par

 

Tandis que s’ouvre aux Sables d’Olonne, ce 15 septembre 2014, le procès non de Xynthia mais de l’aménagement du territoire, voici une revue de liens rappelant les articles – sur ce blog et sur le site de Voiles & voiliers -, consacrés à la submersion du littoral, qu’elle soit d’origine météorologique (surcote) ou sismique (raz-de-marée).

 

 

Le 28 février 2010, Xynthia frappe le littoral atlantique, essentiellement en Vendée et en Charente-Maritime, et cause la mort de 53 personnes. (© Jacques Archambaud / SAEMSO Port-Olona) 

 

 

Chronologiquement, c’est le tsunami du 26 décembre 2004 dans l’océan Indien (confirmé depuis par celui de mars 2011 au Japon, ici et ) qui a accéléré la prise de conscience des pouvoirs publics sur la nécessité d’un système d’alerte des raz-de-marée en France métropolitaine, notamment en Méditerranée. Cela a favorisé la mise au point d’outils cartographiques de modélisation du terrain comme Litto 3D alors que la prise en compte de l’importance du suivi du niveau de la mer dans la durée était déjà une longue histoire.

 

Puis, la tempête Xynthia du 28 février 2010 a été rapidement suivie de la création de la vigilance Vagues-submersion – dont nous réclamions le principe alors que la première vigilance rouge concernant le vent avait été déclenchée le 24 janvier 2009, soit un peu plus de sept ans après le lancement de la carte de vigilance en octobre 2001, suite aux tempêtes de décembre 1999 -, et qui a été activée un nombre considérable de fois l’hiver 2013-2013 par Météo-France.

 

 

Avec la tempête d’octobre 1987 et les deux tempêtes de décembre 1999, Xynthia est celle dont les effets ont le plus marqué les esprits. (© Jacques Archambaud / SAEMSO Port-Olona)

 

 

Gonflée par la surcote, une dépression (notamment un cyclone : voir la série Cyclones et cycle, épisodes 1, 2 et 3) favorise les inondations à marée haute, lesquelles s’ajoutent ainsi à la submersion par la mer et les vagues qui partent alors de plus élevé et détruisent d’autant plus le littoral.

 

D’où le recul du trait de côte qui s’est manifesté de façon spectaculaire au cours de ces mêmes tempêtes de l’hiver dernier. Je montrais dans ce dernier article combien les errements de l’aménagement du littoral des cinquante dernières années, liés à la pression démographique et financière, avaient non seulement perdu le bon sens mais aussi – pourtant étayée par au moins sept siècles d’archives -, la mémoire de ce bon sens.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Trait de côte

Par

 

De plus en plus de gens voulant vivre face à la mer, il ne faut pas s’étonner que celle-ci s’invite dans leur salon. On parle beaucoup de la responsabilité de l’homme dans le réchauffement climatique et de l’élévation du niveau moyen global des océans (NMGO, en anglais Global mean sea level ou GMSL). À juste titre. Mais on ne tire pas assez de leçons concrètes des errements dans l’aménagement du territoire dont les effets sont pourtant plus immédiats et concrets.

 

La pression démographique n’a jamais été aussi forte sur notre littoral. Entre 1990 et 2003, 12 % des logements neufs étaient concentrés sur les communes côtières qui ne représentent que… 4 % du territoire national. Et ça continue : de 1999 à 2009, l’accroissement de la population littorale de métropole était dû pour 80 % à des arrivées de l’intérieur du pays. Avec 285 habitants au kilomètre carré en 2010, la densité de population des communes maritimes est près de 2,5 fois supérieure à la moyenne métropolitaine (celle-ci est de 117 habitants au kilomètre carré en 2013) !

 

 

En l’état des connaissances (arrêtées ici en 2004) – lesquelles doivent être considérablement affinées dans les prochaines années -, près de 25 % des côtes de métropole sont touchées par l’érosion. La proportion de celles-ci figure en rouge sur les camemberts de cette infographie, le bistre signalant la part de littoral stable et le vert la proportion de celui qui s’engraisse en sédiments. Comme on peut le voir, le recul concerne tout le littoral même si des disparités régionales existent, liées à la nature de la côte et aux conditions hydrographiques. Logiquement, le rivage sablonneux est le plus fragile. (© Institut français de l’environnement / Observatoire du littoral).

 

 

Les archives en témoignent, nos ancêtres avaient une conscience aiguë des terres qu’il était souhaitable de ne pas bâtir face à l’océan tandis que celui-ci attaquait déjà le continent. En 1776, le Mémoire relatif au plan topographique d’une partie des côtes de la Basse-Bretagne entre Landerneau et Le Faou, rédigé par l’ingénieur géographe militaire Jean-André Hervet, évoque ainsi pour la pointe du Bindy en rade de Brest, la “ falaise qui est communément en roche de pierre d’ardoise [...], de la grève en cette partie [...] impraticable par l’amas de roches culbutées ” ou la mer “ qui fait journellement des progrès sur [le] terrain qu’elle ronge. ” (voir mon livre Cartes des côtes de France). Le tracé de la côte était déjà l’objet de toutes les attentions. De nos jours, il reste un indicateur historique.

 

Dès le Moyen-Âge, l’homme a tenté de stabiliser ce trait de côte, de fixer des dunes, de canaliser les eaux par des étiers pour assécher ou irriguer un marais salant, le tout avec force pieux, digues ou écluses. Puis, le XVIIème siècle fut particulièrement actif en matière d’endiguements afin de gagner des prairies sur la mer et d’assécher des marais en polders, les réseaux de drainages étant considérablement développés.

 

Pendant deux siècles, la terre et la mer ont vécu sinon en symbiose, du moins en bonne intelligence. Lorsqu’une digue rompait et cela arrivait souvent, les terres étaient inondées. Mais les constructions l’étaient plus rarement car elles étaient peu nombreuses et occupaient les rares parties élevées, en des temps où la population globale et sa densité littorale étaient sans commune mesure avec aujourd’hui.

 

 

Très tôt, l’évolution de la morphologie du rivage est évoquée par les cartographes. Cette Carte anonyme de la côte d’Aunis et de Saintonge, de la pointe du Grouin-du-Cou à la pointe d’Arvert, avec les îles de Ré et d’Oléron (1624) porte la note manuscrite suivante sur la côte de l’île d’Oléron (à l’Ouest de la pointe septentrionale, le Nord étant à droite de la carte) : « Cette baye se fit par une tempête qui rompit les dunes il y a quarante ans et découvrit dans les marées vingt-cinq corps. » (manuscrit original au 1 : 92 000, 445 X 1 010 millimètres). (© Olivier Chapuis, Cartes des côtes de France, Chasse-marée/Glénat, 2ème éd., 2009)

 

 

Au siècle des Lumières, le regard sur le paysage se modifie. L’homme se prend à imiter la Nature, laquelle acquiert une place essentielle dans l’art, non seulement en peinture mais aussi sur les somptueuses cartes manuscrites au lavis. L’engouement pour les jardins, avec la mode du parc à l’anglaise, participe du même mouvement auquel la révolution industrielle du XIXème siècle et le positivisme confèrent une assise scientifique et technique. L’homme dompte l’énergie par la machine, pourquoi pas un barrage contre l’océan ?

 

Mais ce n’est qu’au XXème siècle, surtout après la Seconde guerre mondiale et tout particulièrement depuis 1970, avec le développement touristique, que la ligne rouge du raisonnable est réellement franchie en bordure de l’estran. Les maisons, les lotissements même, poussent dans des zones où l’on ne construisait pas jusqu’alors.

 

Au même moment, on achève d’arracher ces haies du bocage dont les racines avaient le mérite de ralentir l’écoulement des eaux. Celui-ci est en outre accéléré par le bitume qui recouvre de plus en plus de surfaces urbanisées, rendues imperméables. Tout ce ruissellement se précipite dans les cours d’eau dont le flux torrentiel est parfois ralenti par le niveau élevé de la mer, gonflé par la surcote. Cela favorise les inondations à marée haute, lesquelles s’ajoutent ainsi à la submersion par la mer et les vagues qui partent alors de plus élevé et détruisent d’autant plus le littoral.

 

 

En 1702, le cartographe Claude Masse consigne dans son Mémoire abrégé sur l’isle d’Oléron relatif à la carte ci-jointe que l’île est « si basse au nord de Dolus que l’on craint que la grande mer ne la coupe un jour en deux par le marais de La Perroche au marais d’Arceau, ce qui lui serait très préjudiciable ». Il le confirme sur le détail présenté ici de la Carte topographique de l’île d’Oléron (1702) : « Ce marais est presque toujours inondé et [il] est si bas que l’on craint que la mer ne communique un jour dans les marais salants d’Arceau et ne sépare l’île en deux. » (manuscrit original au 1 : 28 800, 1 080 X 710 millimètres). (© Olivier Chapuis, Cartes des côtes de France, Chasse-marée/Glénat, 2ème éd., 2009)

 

 

À l’échelle de l’histoire planétaire, le réchauffement climatique est une fraction de seconde… pour sa composante d’origine humaine en tout cas. Dans l’histoire de l’humanité, il en va de même pour cette phase très récente de l’urbanisation du littoral. Tous ceux qui ont navigué dans la décennie mil neuf cent soixante-dix se souviennent avoir vu les constructions fleurir sur des côtes jusque là parsemées d’amers moins amers.

 

Réelle depuis quelques années – notamment avec la mise au point d’outils cartographiques de modélisation du terrain comme Litto 3D -, la prise de conscience des pouvoirs publics a été accélérée après le tsunami du 26 décembre 2004 dans l’océan Indien puis la tempête Xynthia du 28 février 2010. Elle a été rapidement suivie de la création de la vigilance Vagues-submersion qui a été activée un nombre considérable de fois cet hiver par Météo-France, en particulier pour les zones côtières les plus basses (voir la litanie des principales tempêtes annoncées par www.voilesetvoiliers.com : 1, 2, 3, 4 et 5).

 

Pour donner une idée de l’ampleur de la tâche, à l’échelle cartographique du 1 : 50 000, le trait de côte de la France métropolitaine, plus les îles et les îlots qui la bordent (Corse comprise), est de 5 715 kilomètres, dont 4 021 kilomètres pour la façade occidentale (671 entre la frontière belge et le cap de la Hague, 950 entre le cap de la Hague et la pointe Saint-Mathieu, 1 143 entre la pointe Saint-Mathieu et Nantes, 821 de Nantes à la Gironde et 436 de la Gironde à la frontière espagnole) et 1 694 kilomètres pour toute la côte française de Méditerranée (Corse incluse).

 

 

De tout temps, l’entrée du bassin d’Arcachon a été une des zones du littoral français soumise aux plus grands changements. Due à l’ingénieur hydrographe Paul Monnier en 1835, cette [Comparaison des] passes et [de] la rade intérieure du bassin d’Arcachon [...] en 1826 [et...] 1835 n’est pas directement destinée aux navigateurs mais aux hydrographes (ici un extrait). C’est l’un des premiers documents d’étude scientifique de l’évolution des passes du bassin, en l’occurrence par rapport à la Carte particulière des côtes de France. Bassin d’Arcachon levée en 1826 et publiée en 1829 sous la direction de Charles-François Beautemps-Beaupré. Hommage au banc mauritanien où se perdit la Méduse (2 juillet 1816), le banc d’Arguin apparaît ici pour la première fois sous son nom, face au Pyla, dans le Sud-Est du cap Ferret. Celui-ci a lui-même considérablement bougé en seulement neuf ans ! Quant à Arguin, il prendra bientôt la place et le nom du banc de Matoc (imprimé original au 1 : 50 000 environ, 350 X 532 millimètres). (© SHOM)

 

 

Près d’un quart du littoral métropolitain recule à cause de l’érosion côtière. Les communes concernées doivent ainsi prévoir de déplacer nombre de constructions et d’activités, ce qui va coûter une fortune. À l’image de la région Aquitaine, les collectivités territoriales appellent à l’aide l’État. Mi-janvier, celui-ci a confirmé qu’il faisait établir une cartographie nationale avec des simulations à 10, 40 et 90 ans, basées sur des témoins homogènes permettant de suivre en temps réel l’évolution du trait de côte et de programmer les déménagements par ordre d’urgence.

 

Dans le Sud-Ouest, le rivage a régressé cet hiver de plus de 10 mètres en moyenne, en quelques semaines. Le recul du trait de côte le plus spectaculaire des dernières décennies est loin de cette valeur, certes instantanée alors que ce qui suit est une moyenne sur une plus longue période. Sur la côte occidentale du Cotentin, il a été d’un peu plus de 4 mètres par an entre 1947 et 1994. En Aquitaine, le recul moyen était de 2,5 mètres par an au début des années 2000, en accélération sur la fin de la décennie. Cet hiver aurait donc valu à lui seul plus de quatre années. L’avenir dira s’il s’agit d’une anomalie ou d’une tendance. Et si l’argent continue de se croire plus fort que l’océan.

 

O.C.

 

PS. Retrouvez un dossier complet sur les tempêtes de cet hiver et les questions qu’elles soulèvent (avec les réponses de Jean-Yves Bernot, Éric Mas et Sylvain Mondon), plus les chiffres de la montée du niveau moyen global des océans depuis deux cents ans et une prospective pour le siècle à venir, ainsi que les fondamentaux de marégraphie relatifs au niveau moyen de la mer et au zéro hydrographique de nos cartes marines, dans le numéro 518 d’avril 2014 de Voiles et voiliers.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Niveau d’eau

Par

 

L’eau monte ces derniers temps. À La Réunion où le cyclone Bejisa a été l’un des plus destructeurs de ces dernières décennies pour cette île de l’océan Indien. En métropole où la succession des perturbations du tournant de l’année a généré des houles considérables et a également eu un effet très sensible sur le niveau de la mer (voir les deux liens précités se rapportant à des images à la hune très parlantes, publiées sur www.voilesetvoiliers.com).

 

Dans les deux cas, le Service hydrographique et océanographique de la Marine (SHOM) a produit des articles très largement illustrés sur son site Refmar (Réseau de référence des observations marégraphiques) dédié aux marégraphes. Le premier article est à voir ici et le second là.

 

 

Du 1er au 3 janvier 2014, lors du passage du cyclone Bejisa, le graphique du haut montre en bleu les hauteurs d’eau enregistrées par le marégraphe de Sainte-Marie, au Nord-Est de La Réunion (en mètres, rapportées au zéro hydrographique). La hauteur d’eau maximale atteint 1,70 m environ, le 2 janvier à 09h40 UTC. Le graphique du bas figure les surcotes, c’est-à-dire la différence entre l’observation (en bleu sur le graphique du haut) et la prédiction de marée (en rouge sur le graphique du haut). La surcote maximale est de 0,75 m environ, et elle est concomitante avec la pleine mer, ce même 2 janvier à 09h40 UTC, pire moment puisque la mer énorme peut d’autant mieux déferler à l’intérieur des terres et les submerger que la marée est haute (même si le marnage est ici plutôt faible).  Notez les décotes (voir ci-dessous) au creux des courbes du 1er janvier 2014 à 03h00 et 15h00 UTC, et du 3 janvier 2014 vers 04h30 : la courbe bleue des observations sur le graphique du haut passe au-dessous de celle des prédictions, en rouge sur ce même graphique du haut. (© SHOM / Refmar)

 

 

J’ai souvent souligné l’importance de ce réseau des marégraphes, que ce soit à l’occasion de Xynthia, d’un super typhon comme Haiyan (voir la série Cyclones et cycle, épisodes 1, 2 et 3) ou de l’alerte en temps réel des tsunamis. Car, le point commun des phénomènes météorologiques et d’un raz-de-marée d’origine sismique (voir mes deux articles consacrés à celui de mars 2011 au Japon, ici et ) reste la mesure de la hauteur d’eau.

 

Dans le second cas, l’objectif est de disposer de repères fiables afin de déterminer en temps réel si un tremblement de terre est susceptible de donner ou non un raz-de-marée. Dans le premier cas, il s’agit plutôt de définir la surcote, c’est-à-dire une observation du niveau de la mer supérieure à la hauteur prédite.

 

Ce soulèvement de la surface océanique – dont le pic est souvent qualifié d’onde de tempête -, y résulte de l’effet combiné de la chute de la pression atmosphérique (la variation du niveau de la mer est d’environ 1 cm/hPa : -1 hPa = +1 cm), d’un vent très fort soufflant du large, poussant une forte mer totale (houles et mer du vent) déferlant à terre, et du site, c’est-à-dire de l’hydrographie du plateau continental et de la topographie de la côte. La situation la pire est évidemment lorsque la surcote la plus importante survient au moment de la pleine mer, autrement dit si le plus fort de la dépression passe à ce moment là.

 

 

Le réseau RONIM comporte 35 marégraphes en métropole (dont la Corse et 1 à Monaco) et 8 outre-mer. (© SHOM)

 

 

Lorsqu’on est en marée de vive-eau (coefficient supérieur ou égal à 95), la surcote à la pleine mer dépasse ainsi la plus haute mer astronomique (PHMA, coefficient 120). Avec un anticyclone très puissant (+1 hPa = -1 cm) et un fort vent de terre, la décote peut au contraire, descendre à la basse mer au dessous du zéro hydrographique, le zéro des cartes correspondant aux plus basses mers astronomiques possibles. Dans ce cas, gare aux mauvaises surprises en navigation mais ce n’est pas le sujet du jour…

 

Mis en place en 1992, pour servir de base à la réduction des sondes (c’est-à-dire pour les rapporter aux plus basses mers possibles et au zéro hydrographique) et aux calculs des prédictions de marées (détermination des constantes harmoniques), le Réseau d’observation du niveau de la mer (RONIM) géré par le SHOM (avec de nombreux partenaires) est constitué de 43 marégraphes, dont 34 en métropole, 1 à Monaco, 7 outre-mer et 1 à Madagascar (les premiers sont installés sur nos côtes depuis 1844, l’observation régulière de la marée ayant débuté dès le XVIIIème siècle comme je le raconte notamment dans mon livre Cartes des côtes de France).

 

Parmi les très nombreuses autres applications des données marégraphiques RONIM, on note entre autres l’étude statistique des surcotes, des décotes et des niveaux extrêmes, la mise au point des modèles numériques de prévision s’y rapportant, les paramètres servant à alimenter les nombreux modèles océaniques ou d’hydrodynamique côtière, la contribution à l’analyse de la circulation océanique, l’unification des réseaux de nivellements ou la calibration des radars altimétriques des satellites (Topex-Poséidon, ERS, Jason)…

 

 

Du 2 au 5 janvier 2014, lors du passage de la tempête, le graphique du haut montre en bleu les hauteurs d’eau enregistrées par le marégraphe de Saint-Nazaire (en mètres, rapportées au zéro hydrographique). La hauteur d’eau maximale atteint 6,80 m environ le 5 janvier vers 05h30 UTC, alors que la plus haute mer astronomique est de 6,59 m à Saint-Nazaire (PHMA : coefficient 120), les coefficients de marée étant supérieurs à 100 sur la période. Le graphique du bas figure les surcotes, c’est-à-dire la différence entre l’observation (en bleu sur le graphique du haut) et la prédiction de marée (en rouge sur le graphique du haut). On voit que la surcote maximale est double le 4 janvier 2014, atteignant presque 0,80 m (cette valeur étant atteinte à Port-Tudy à l’île de Groix, surcote maximale sur les côtes françaises lors de cette dépression). On observe un premier pic, à 07h10 UTC au début de la marée descendante, et un second pic à 12h20 UTC à l’étale de basse mer, celui-ci étant bien entendu beaucoup moins problématique quant au risque de submersion. (© SHOM / Refmar)

 

 

Réchauffement climatique oblige, RONIM a été adapté pour prendre en compte la prévention des risques de submersion des zones côtières les plus basses (où les précipitations et les crues des fleuves jouent aussi leur rôle). Une base de données a été constituée avec les mesures des marégraphes et avec d’autres observations collectées notamment au sein du Système d’observation du niveau des eaux littorales (SONEL). Ce portail fournit les niveaux moyens de la mer (journaliers, mensuels et annuels) ainsi que les données du réseau géodésique permanent, localisant dans un système géodésique mondial les principaux observatoires de marée, les trois dimensions contribuant ainsi à l’étude de la variation absolue du niveau de la mer. Depuis 2010, le SHOM est le référent national pour l’observation de celui-ci, la gestion des données s’y rapportant et leur diffusion.

 

Au niveau international, les marégraphes de près d’une centaine d’organismes nationaux sont connectés au site de l’Intergovernmental Oceanographic Commission (IOC), la Commission océanographique intergouvernementale de l’UNESCO. Celle-ci – en partenariat avec la Joint Technical Commission for Oceanography and Marine Meteorology (JCOMM) de l’Organisation météorologique mondiale (OMM) -, conduit aussi le programme Global Sea Level Observing System (GLOSS) dont le Global Core Network (GCN) comporte 290 stations dans le monde pour le suivi à long terme du niveau de la mer en relation avec les changements climatiques. On n’a pas fini de parler du niveau de l’eau.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.