Skip to Content

Category Archives: Océanographie

Maréevolution

Par

 

Point de sous-entendu électoral à ce néologisme capillotracté. C’est bien de marée qu’il s’agit ici. Sans crier au loup, elle pourrait vivre sinon une révolution (qu’elle connaît déjà et pour cause), du moins une évolution. Telle est la conclusion d’une étude menée par des chercheurs du Bureau de recherches géologiques et minières (BRGM) dont les résultats viennent d’être publiés dans la revue Continental Shelf Research (on peut lire l’article en ligne ou le télécharger ici).

 

 

L’augmentation du niveau moyen global des océans modifie la marée. Ici, dans le golfe du Morbihan, au Passage, à l’embouchure de la rivière de Noyalo. (© Olivier Chapuis)

 

 

La hausse du niveau moyen de la mer due au réchauffement climatique aurait ainsi des effets divers sur les côtes européennes de l’Espagne à la Norvège. Dans certaines régions, le marnage serait renforcé, par exemple du Cotentin au Pas-de-Calais. Pour d’autres, il diminuerait, notamment en baie du Mont-Saint-Michel. Ces modifications de la hauteur de la pleine mer et de la basse mer par rapport au niveau moyen pourraient être de l’ordre de 15 % de la remontée du niveau marin, soit 15 centimètres en plus ou en moins si la mer montait d’un mètre.

 

 

Les courants de marée seraient eux aussi modifiés et la sédimentation avec eux. (© Olivier Chapuis) 

 

 

Mais ces valeurs seraient fortement influencées par les caractéristiques du littoral et des fonds côtiers d’où l’importance de prendre en compte les modélisations étudiées par les auteurs de l’article dans la définition des stratégies de défense du trait de côte contre l’érosion. Le risque de submersion serait lui aussi concerné. De quoi nourrir l’indispensable révolution des mentalités dans l’aménagement du littoral.

 

O.C.

 

 

Comme le faisaient les anciens qui ne construisaient pas en zone inondable, l’aménagement du littoral doit intégrer cette modification de la marée par la hausse du niveau moyen de la mer. (© Olivier Chapuis)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Tambora

Par

 

Un été pourri, une année pourrie, une année sans été. L’année sans été n’est pas seulement une expression pour désigner l’an 1816 aux États-Unis, c’est aussi le titre du passionnant livre de Gillen D’Arcy Wood qui vient de paraître à La Découverte (24 X 15 cm, 304 p, 22 €). Il est sous-titré Tambora, 1816. Le volcan qui a changé le cours de l’histoire, ce qui est peut-être un tout petit peu excessif. L’édition originale, parue à Princeton University Press en 2014, s’intitule Tambora. The Eruption that Changed the World : c’est plus exact puisque cet événement changea bel et bien sinon l’Histoire, du moins le monde, temporairement, en l’occurrence le climat d’une bonne partie du globe pendant près de trois années.

 

 

Le beau livre de Gillen D’Arcy Wood revisite l’histoire des dérèglements climatiques consécutifs à l’explosion du Tambora en avril 1815. (© La Découverte)

 

 

Il faudra attendre la mise au point d’instruments capables de mesurer les retombées radioactives au temps des essais nucléaires intensifs de la Guerre froide pour que l’on commence à quantifier les aérosols d’origine volcanique dans l’atmosphère, en l’occurrence les sulfates filtrant le soleil. Le 5 avril 1815, dans l’île indonésienne de Sumbawa, le volcan Tambora entre en éruption puis explose, projetant une quantité considérable de particules en altitude jusque dans la stratosphère. Les magmas s’écoulant vers la mer intensifient les nuages lorsque les laves brûlantes entrent au contact de l’eau.

 

La plus dévastatrice éruption volcanique – digne de l’Atlantide et du Vésuve dans les mémoires (celle, pourtant fameuse, du Krakatoa en 1883, aura une magnitude deux fois moindre que celle du Tambora) -, fait environ cent mille morts alentour dans les semaines suivantes. Les conséquences plus lointaines donnent tout autant le vertige, même si elles ne seront expliquées qu’avec les carottes glaciaires pratiquées à partir des années mil neuf cent soixante. L’on découvrira alors qu’une autre éruption majeure d’un volcan resté inconnu avait chargé l’atmosphère de sulfates en 1809 et qu’avec celle de 1815, les années 1810-1819 furent ainsi les plus froides jamais enregistrées avec une baisse de 1 °C de la température sur cette décennie pour l’ensemble du monde, en plein petit âge glaciaire (1250-1850).

 

 

Weymouth Bay est peinte par John Constable (1776-1837) en 1816. Cette huile sur toile (203 X 247 mm) reflète bien l’ambiance crépusculaire de l’année 1816 où le soleil apparaît rarement derrière les amas nuageux, une image romantique par excellence. (© Victoria and Albert Museum)

 

 

Les conséquences climatiques du Tambora furent multiples un peu partout dans le monde, l’ouvrage reconstituant a posteriori la connexion entre autant d’événements et le volcan. En Europe, l’année 1816 fut ainsi marquée par une météo particulièrement tempétueuse (en ce qui concerne la France, non évoquée dans ce livre, où les ingénieurs hydrographes débutent en 1816 leurs levés des côtes dans des conditions bien mauvaises, voir le très intéressant article de Météo-France). Bien que documentés, certains exemples de l’ouvrage de D’Arcy Wood n’échappent pas à des assimilations manifestement abusives, un cumulonimbus dantesque par ci ou un coup de sirocco par là. Les mêmes réserves peuvent à mon avis être apportées à la mise en avant du choléra (né de l’humidité au Bengale, elle-même due aux conséquences de l’éruption) dans les révolutions européennes du XIXème siècle dont les causes sont autrement nombreuses et complexes, tandis que les famines aux quatre coins du monde sont bel et bien en relation directe avec les effets climatiques de l’éruption.

 

Fort pertinent est le parallèle fait par l’auteur, spécialiste de l’art et de la littérature de la période, entre des créations telles que les ciels chargés de William Turner ou le Frankenstein de Mary Shelley (1818) et le caractère crépusculaire de l’année 1816. Les artistes le subissent comme les autres, sinon un peu plus puisqu’ils ont la chance de voyager et qu’ils constatent ainsi le même dérèglement climatique dans les Alpes suisses, en Italie ou en Grande-Bretagne.

 

 

William Turner (1775-1851) sera profondément marqué par l’atmosphère trouble des années suivant l’éruption du Tambora, ici une étude de ciel vers 1816-1818, aquarelle sur papier, l’une des nombreuses contenues dans son carnet d’études de ciel (125 X 247 mm). (© Tate)

 

 

Les météores observés à cette époque sont une aubaine pour la météorologie moderne en train de naître (même s’il faudra encore attendre un peu). Mais il n’est pas exact de considérer que le mauvais temps issu du Tambora en est le déclencheur, les besoins croissants à satisfaire tandis que la révolution industrielle décolle en Grande-Bretagne et que les sciences et techniques sont en plein essor y suffisent amplement. C’est là l’écueil que n’évite pas le livre, tout revisiter à l’aune de son sujet, par un prisme nécessairement réducteur.

 

L’un des chapitres les plus riches est consacré au passage du Nord-Ouest. En effet, la quête effrénée d’une route maritime plus courte vers l’Asie devient centrale à l’Amirauté britannique juste après la fin des guerres de l’Empire, pendant que le Tambora fait neiger dans le Nord-Est des États-Unis les 6 et 7… juin 1816 ! Au même moment, l’Arctique radoucit à la faveur de la circulation globale thermohaline qui réchauffe les eaux autour du Groenland – la circulation méridienne de retournement Atlantique (AMOC pour Atlantic Meridional Overturning Circulation) -, plus intense après l’éruption (sans que l’auteur, soit très clair ni très convaincant sur les liens de causalité, n’y aurait-il pas également une concomitance dans le cycle de l’AMOC ?). Quoi qu’il en soit, la banquise connaît une débâcle aussi soudaine que prometteuse. Dans les colonnes de la prestigieuse Quarterly Review, le télescopage, au sens propre comme au sens figuré, de la propagande pour les expéditions polaires et de la critique virulente de Frankenstein est à cet égard l’un des rapprochements savoureux de ce livre qui en comporte d’autres.

 

 

Bien après les années Tambora, Turner restera le peintre du soleil couchant dans un ciel chargé en particules, ici vers 1840 : Sun Setting over a Lake, huile sur toile, 911 x 1 226 mm. Il sera ainsi non seulement l’inspirateur de l’impressionnisme (notamment de Claude Monet) mais aussi d’une quasi abstraction, comme avec ce coucher de soleil sur un lac. (© Tate)

 

 

Ironie tragique de l’histoire, l’ouverture provisoire de cette fenêtre dans les glaces de l’Arctique aura des conséquences fâcheuses dès qu’elle se refermera à la fin des années 1810 et jusque trente-sept ans plus tard pour l’homme qui mangea ses bottes. Ces pages sont d’autant plus passionnantes à lire au regard du réchauffement climatique en cours et de l’ouverture du passage du Nord-Ouest (à condition de ne pas verser dans l’anachronisme, jamais très loin). L’auteur conclut judicieusement en rappelant les projets de la géo-ingénierie visant à modérer le réchauffement climatique à coups d’aérosols de sulfate injectés artificiellement dans la stratosphère. Les apprentis sorciers feront-ils autant de bruit que le Tambora quand il explosa ?

 

O.C.

 

P.S. Il a construit en bois et composite époxy le trimaran sur lequel il a réalisé un tour de l’Atlantique avec sa compagne, après une belle carrière de Ministe (il avait entre autres terminé quatrième de la Mini-Transat 1997 sur le proto Pierre Rolland, construit en contreplaqué/époxy par Ollivier Bordeau, qu’Alessandro di Benedetto avait ensuite modifié pour son incroyable tour du monde en solo par les Quarantièmes, en 2009-2010). Pierre-Marie Bourguinat, ancien rédacteur en chef adjoint de Voiles et voiliers, a entamé une nouvelle vie débutée par un passage à la prestigieuse école Boulle. Allez voir le site élégant et sobre de sa nouvelle société Craft (ébénisterie créative et agencements sur mesure). Outre le petit bateau qu’il pourrait vous construire, ses meubles et ses aménagements sont superbes. Pierre-Marie a de l’or dans les mains.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Gaston

Par

 

Gaston n’est pas au téléphone mais en route sur l’Atlantique Nord. C’est le septième phénomène cyclonique baptisé de la saison 2016. Celle-ci vient d’être réévaluée à la hausse par la National Oceanic and Atmospheric Administration (NOAA) comme on peut le lire ici.

 

 

Ce 25 août, la prévision de trajectoire laisse espérer que Gaston s’éteindra de lui-même sur des eaux moins chaudes de l’Atlantique Nord. À moins qu’elle stagne au Nord-Ouest des Açores sur la route des Figaro Bénéteau de Douarnenez/Horta (une porte vient d’être créée au cap Finisterre pour anticiper cette éventualité) ou qu’elle revienne vers l’Europe dans la circulation d’Ouest… (© Météo-France)

 

L’on verra aussi avec profit la prévision saisonnière synthétisée par Météo-France Antilles-Guyane que l’on peut télécharger au bas de la page consacrée à l’activité cyclonique en cours. Le tableau des statistiques y présente les prévisions des différentes sources.

 

 

Selon les sources, les prévisions diffèrent quelque peu pour la saison cyclonique en cours. (© Météo-France)

 

Le document est également intéressant parce qu’il rappelle les paramètres (dont l’envers d’El Niño, la Niña) pris en compte pour tenter de prévoir si la saison des cyclones sera ou non intense, autrement dit si l’ACE (Accumulated Cyclone Energy ou Énergie accumulée d’un cyclone) sera élevé ou non. Pour l’heure, celui de Gaston reste assez faible, tant mieux.

 

 

Les principaux facteurs pris en compte pour l’établissement de la prévision sont résumés ici. (© Météo-France)

 

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Marégrammes

Par

 

La prédiction de marée a migré. Dit comme ça, ce n’est pas très clair, je vous l’accorde. Depuis le lundi 2 mai 2016, les prédictions de marées fournies par le Service hydrographique et océanographique de la Marine (SHOM) – l’organisme officiel en charge de la marée dans notre pays -, sont passées du site institutionnel au portail de diffusion des produits SHOM.

 

 

Parmi les modes de présentation possibles pour le tableau en haut de page, on peut sélectionner celui des hauteurs d’eau heure par heure. (© SHOM)

 

 

 

C’était déjà le cas pour le Groupe d’avis aux navigateurs (GAN) et les Informations nautiques tandis que le catalogue des cartes n’a pas bougé. En pratique, la prédiction de marée dispose désormais d’un site dédié sur le modèle de ce qui existait pour le suivi en temps réel du niveau de la mer avec Refmar, le Réseau de référence des observations marégraphiques  (voir mon article Niveau d’eau).

 

Sauf que les données de ce dernier ont été transférées vers le portail de l’Information géographique maritime et littorale de référence, data.shom.fr tandis que les informations générales demeurent sur Refmar. Ouf, vous me suivez toujours ? Cela peut paraître un brin louvoyant, c’est vrai, mais en mettant à jour vos Favoris avec les liens que je vous donne ci-dessus, vous accédez à une masse de données dont l’utilisation est facilitée, quel que soit votre outil de consultation, ordinateur, tablette ou téléphone.

 

 

Sur le marégramme, on peut définir le seuil par la saisie d’une valeur numérique dans la case du bas ou par un clic dans le graphe et déplacement vertical de la barre de seuil rouge sur celui-ci (ici : 3,47 m). S’affichent alors les quatre heures correspondant au passage de la courbe de marée sur la valeur approchante. (© SHOM)

 

 

 

Tel est donc le cas pour la marée dont la présentation a bénéficié en même temps d’une simplification très ergonomique. Tout commence avec une carte de France où l’on zoome et clique sur le port de son choix. Les horaires de marée y sont consultables gratuitement jusqu’à un an à l’avance et depuis le 1er janvier 1001 dans le passé, ce qui est notamment intéressant pour les historiens (il n’est pas possible de modifier la date par saisie mais par l’icône Calendrier, cliquez plusieurs fois sur le bandeau de la date afin d’afficher des périodes de plus en plus larges - années, décennies, siècles – permettant ensuite de sélectionner l’année).

 

Sous l’onglet Horaires de marées, un tableau comporte les classiques heures de la basse mer et de la pleine mer avec le coefficient correspondant et les hauteurs d’eau s’y rapportant. Sous l’onglet Hauteur d’eau heure par heure, ce tableau devient horaire et l’on se déplace dedans par des flèches gauche/droite.

 

 

 

En sélectionnant l’option Hauteur d’eau, le marégramme affiche pour l’heure choisie (03h20) la hauteur d’eau correspondante (2,83 m) ainsi que pour 5 minutes plus tard (2,69 m). On peut soit déplacer horizontalement le repère rouge par pas de 5 minutes soit se contenter de déplacer le curseur sans cliquer sur la courbe, soit faire les deux comme ici (on voit qu’on atteint le bas de la courbe à 05h10 avec 1,01 m). (© SHOM)

 

 

Au-dessous de ces tableaux, l’amélioration considérable réside dans le marégramme (graphique dynamique et interactif). En effet, d’un simple clic, on y définit un seuil qui indique les heures s’y rapportant ou on visualise les hauteurs en déplaçant le pointeur de cinq minutes en cinq minutes. Enfin, il est également possible d’afficher sur le graphique les créneaux horaires pour une hauteur d’eau donnée ou inversement la hauteur d’eau précise pour une heure donnée.

 

L’onglet Grandes marées permet de les repérer, pour les mois en cours et à venir, sur une échelle de couleurs très lisible. On peut aussi créer son propre calendrier de grandes marées. Plusieurs filtres sont ainsi paramétrables, afin de connaître les dates où un certain niveau de coefficient est atteint ou au contraire, celles qui ne connaissent pas de dépassement de cette valeur.

 

 

Avec ses teintes très lisibles allant du froid (morte-eau) au chaud (vive-eau), le calendrier des coefficients est réussi. On y visualise bien les grandes marées que l’on peut aussi personnaliser avec des filtres dans la fenêtre au-dessus du présent tableau. C’est bien pratique pour préparer ses remontées de rias ou pour aller aux coquillages. (© SHOM)

 

 

Enfin, sous le menu Générer une vignette (widget), on peut paramétrer des vignettes préformatées qui sont intégrables directement dans des sites internet. Les ports, clubs de voile, associations et autres sites locaux disposent ainsi gratuitement de cette ergonomie du SHOM sur leurs pages web. Sous certaines conditions consultables ici, le marégramme est à la portée de tous (dans une version simplifiée).

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

La dernière frontière

Par

 

Sera-t-elle un jour soumise à des règles, hormis celles déjà existantes qui se rapportent essentiellement à la sauvegarde de la vie humaine ? Du 28 mars au 7 avril, la haute mer est au coeur des discussions au siège de l’ONU, plus précisément la protection et l’usage durable de sa biodiversité. L’objectif du Comité préparatoire, établi par la résolution 69/292 du 19 juin 2015, est de présenter un rapport auprès de l’assemblée générale des Nations unies en 2017, avec en ligne de mire un traité international d’ici cinq à dix ans, si tout va bien.

 

Outre la surexploitation par la pêche industrielle et la collecte des nodules polymétalliques ou autres richesses minières, sans oublier les ressources génétiques, les enjeux sont considérables pour la protection des océans soumis à rude épreuve (voir notamment ici et ) tandis que les technologies progressent à grande vitesse. Au-delà des espaces soumis aux juridictions nationales ou au contrôle des pays sur leurs plateaux continentaux, la colonne d’eau, le sol et le sous-sol restent à protéger même si l’on a déjà proclamé “ patrimoine commun de l’humanité ” la Zone internationale des fonds marins.

 

 

La haute mer couvre près des deux tiers des océans soit un peu moins de la moitié de la surface du globe. (© Olivier Chapuis)

 

 

Suivant la Convention des Nations unies sur le droit de la mer – dite Convention de Montego Bay parce qu’elle fut signée à Kingston (Jamaïque), le 10 décembre 1982 -, l’espace maritime international, autrement dit la haute mer d’un point de vue juridique, englobe tout ce qui se trouve au-delà des 200 milles des lignes de base, donc de la Zone économique exclusive (ZEE) de chaque état (voir les définitions ici ; ou là en ce qui concerne les dénominations et les délimitations des mers et des océans).

 

La haute mer attise bien des convoitises qui ne se situent pas toujours là où on les attendrait. Déjà très impliquées dans la création et la gestion des Aires marines protégées (AMP), des fondations prétendument désintéressées voient dans la financiarisation des océans un nouvel eldorado où certaines ONG (organisations non gouvernementales) deviennent des conseillères en placement pour de grandes multinationales qui soignent ainsi leur image à peu de frais tout en achetant du crédit carbone. La dernière frontière n’est pas seulement indigo. Elle tient aussi du jade, celui du roi dollar.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Vous avez dit Pacifique ?

Par

 

El Niño oblige, l’année 2015 a été celle de tous les records en matière de cyclones dans l’océan Pacifique. Depuis la mi-décembre, le phénomène est arrivé à pleine maturité sur le Pacifique équatorial, le centre de celui-ci étant tout particulièrement surveillé. Cette zone est appelée “ boite Niño 3.4 ” par les climatologues et les océanographes. L’anomalie de température de la mer en surface y a temporairement dépassé +3 °C à la fin novembre, pour une moyenne sur le mois de +2.9 °C. Alors qu’il devrait commencer à décroître, El Niño version 2015-2016 est ainsi au niveau record de l’édition 1997-1998, jusqu’ici la plus intense depuis qu’on a commencé les mesures dans les années 1950.

 

 

Cette carte montre l’anomalie de température de surface de l’océan (Sea surface temperature ou SST) pour le mois de novembre 2015, en degrés Celsius (échelle de couleur allant de -4 °C à +4 °C pour cette anomalie par rapport à la normale). El Niño est parfaitement visible dans l’Est et le centre du Pacifique, à cheval sur l’équateur. La boite Niño 3.4 sert à la surveillance du phénomène. (© Mercator Océan)

 

 

El Niño évoquait à l’origine l’incursion d’eau chaude que l’on  observa très tôt dans l’Histoire, à Noël (au solstice de l’été austral), le long des côtes du Pérou et de l’Équateur, El Niño désignant en Espagnol l’enfant Jésus. Lorsqu’on a su l’expliquer, le terme a ensuite été utilisé pour nommer plus largement le phénomène climatique correspondant au réchauffement accentué des eaux de surface le long de l’Amérique du Sud, là où agissent en temps normal les remontées d’eau froide (upwelling).

 

Celles-ci sont d’autant plus actives que l’alizé de Sud-Est est bien établi sur la face septentrionale de l’anticyclone de l’île de Pâques. Les eaux chaudes à la surface du Pacifique Sud sont alors entraînées vers l’Ouest et remplacées le long du Pérou et du Nord du Chili par des eaux venues des profondeurs. Si le phénomène est particulièrement marqué et que sévit au-dessus des eaux anormalement froides et sur la côte proche un air descendant et sec, on parle de La Niña, par opposition à El Niño.

 

Lorsque l’anticyclone de l’île de Pâques s’affaiblit, l’alizé s’essouffle voire se renverse. Les eaux chaudes de surface, réchauffant un air ascendant qui donne nuages et précipitations, refluent de l’Ouest vers l’Est. Ce phénomène qui se produit selon un cycle irrégulier allant de 2 à 7 ans, commence en milieu d’année lorsque le soleil est au zénith sur l’équateur et il peut durer de 6 à 18 mois même s’il atteint son apogée vers Noël, d’où le maintien du nom. Les derniers épisodes d’El Niño ont eu lieu en 1997-1998, 2002-2003, 2004-2005, 2006-2007, 2009-2010 et 2015-2016 en cours.

 

Si l’influence d’El Niño est planétaire – tant au niveau climatologique que météorologique -, elle est immédiate et directe sur la formation des cyclones. Lorsque la température de surface de la mer dépasse 27 °C, tandis que survient au-dessus, de l’air relativement froid, générant une très forte instabilité dans de l’air déjà très humide (dû notamment à une forte évaporation), les conditions de la naissance d’un éventuel futur cyclone sont réunies (elles le sont par le bas, contrairement à une tempête de zone tempérée qui naît, par le haut, des perturbations d’écoulement des courants-jets).

 

D’énormes cumulonimbus se forment ainsi au-dessus de l’océan. Ils transportent la chaleur en altitude par convection. La forte humidité y assure une condensation qui libère de la chaleur. D’où un gradient de pression d’origine thermique, entre l’extérieur et l’intérieur du nuage. Ainsi naît une dépression à centre chaud. Sous l’effet conjugué de la force de Coriolis, un tourbillon apparaît au coeur de la colonne nuageuse, créant une importante force centrifuge, compensée par une nouvelle baisse de pression, d’origine dynamique, encore plus forte.

 

C’est ce qui arrive avec El Niño dans la moitié Est du Pacifique Nord dont l’activité annuelle suivie par la National Oceanic and Atmospheric Administration (NOAA) est visible ici (tandis qu’avec seulement 11 phénomènes cycloniques baptisés, la saison a été modérée en Atlantique Nord dont on peut consulter le rapport d’activité de la NOAA ici pour l’annuel et là pour les rapports mensuels, la synthèse mensuelle des deux bassins étant ici). Les eaux chaudes en surface s’étendant vers l’Est du Pacifique équatorial, les tempêtes tropicales et les ouragans se forment alors beaucoup plus à l’Est qu’en temps normal.

 

En 2015, 26 ouragans majeurs – c’est-à-dire de catégorie 3 à 5 – ont existé pour tout le Pacifique, contre 13 en moyenne chaque année. Dans sa moitié Est (par rapport à l’antiméridien), on dénombre 18 phénomènes cycloniques baptisés, dont 13 cyclones parmi lesquels 9 sont devenus des ouragans majeurs (catégorie supérieure ou égale à 3), ce dernier chiffre étant une première depuis le début des statistiques de la NOAA en 1971.

 

 

La carte 2015 des phénomènes cycloniques baptisés pour l’Est du Pacifique Nord recense 18 trajectoires, du 28 mai au 28 novembre, chacune avec la position de l’oeil à 00h00 UTC (point noir) et 12h00 UTC avec la date (point blanc). En vert, le phénomène n’est encore qu’une dépression tropicale, en jaune il est devenu tempête tropicale, en rouge il se fait cyclone (ouragan, hurricane en anglais) et en magenta ouragan majeur. (© NOAA)

 

 

Même première dans le Pacifique central où l’on compte 14 phénomènes cycloniques baptisés, dont 8 cyclones parmi lesquels 5 sont devenus des ouragans majeurs. On a même vu trois de ces derniers sévir en même temps à l’Est de la ligne de changement de date (International Date Line) ! Cela n’avait jamais été enregistré dans les archives…

 

Rappelons que sur l’échelle de Saffir-Simpson, la catégorie 1 regroupe les cyclones dont le vent soutenu (vent moyenné sur une minute) est entre 119 et 153 km/h (arrondi à la fourchette 64-82 noeuds), la catégorie 2 entre 154 et 177 km/h (83-95 noeuds), la catégorie 3 entre 178 et 208 km/h (96-112 noeuds), la catégorie 4 entre 209 et 251 km/h (113-136 noeuds) et la catégorie 5 au-dessus de 252 km/h (137 noeuds).

 

Le doublement des ouragans majeurs par rapport à la moyenne de tout le Pacifique s’explique essentiellement par la part importante prise par l’Est de celui-ci. Or, indépendamment d’El  Niño et au niveau global des zones intertropicales de la planète, on sait que le réchauffement climatique n’entraîne pas une augmentation du nombre de cyclones mais bel et bien celui des super cyclones, ceux de catégorie 5 (voir la série Cyclones et cycle, épisodes 1, 2 et 3). Le Pacifique n’a pas fini de ne plus l’être.

 

O.C.

 

 

Le 23 octobre 2015 à 01h45 UTC, le super cyclone Patricia (n° 16 de la carte précédente) est par 16° 05′ N / 106° 10′ W. Avec un oeil à 879 hPa – contre 870 hPa pour le typhon Tip qui détient toujours le record -, et un vent soutenu maximal de 174 noeuds dépassant les 168 noeuds de Tip en 1979 dans le Pacifique Ouest, Patricia qui a frappé le Mexique est le plus puissant cyclone jamais mesuré dans l’Est du Pacifique. (© NOAA)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Coef

Par

 

Tout a déjà été écrit sur la marée du siècle de ce 21 mars 2015. Vous en trouverez ainsi le pourquoi du comment sous la plume de Dominic Bourgeois, ici, sans oublier les risques de surcote et de décote,  tels qu’on les a notamment connus avec Xynthia. Mais ce que l’on dit rarement, c’est d’où vient le sacro-saint coefficient de marée (119 ce 21 mars pour un maximum possible de 120). Il n’est d’ailleurs guère employé hors de France. Cela tient à l’histoire de la connaissance du phénomène.

 

 

Pierre-Simon de Laplace (1749-1827) en habit de chancelier du Sénat sous l’Empire (automne 1803). Huile sur toile de Jean-Baptiste Paulin Guérin (© RMN / Château de Versailles / Franck Raux)

 

 

Le coefficient de marée découle des travaux de l’astronome, mathématicien et physicien, Pierre-Simon de Laplace (1749-1827). Le savant compara les observations de la hauteur d’eau effectuées au port de Brest entre juin 1806 et juillet 1815 avec celles réalisées depuis un siècle (elles servirent à définir le premier zéro hydrographique de nos cartes marines comme je l’ai déjà raconté ici et ). Laplace fut le premier à envisager la marée comme un problème d’hydrodynamique et non plus un phénomène statique tel que l’avait pensé Newton (on trouvera ici un bon résumé de l’histoire de la connaissance de la marée et là, un survol de l’oeuvre pléthorique de Laplace, fondamentale dans l’histoire scientifique mondiale).

 

Afin de comparer les marnages des ports, Laplace a inventé l’unité de hauteur qu’il définit – ainsi que le rapporte Bernard Simon, grand spécialiste de l’histoire de la marée au Service hydrographique et océanographique de la Marine (SHOM) -, comme “ la valeur moyenne de l’amplitude (demi marnage) de la plus grande marée qui suit d’un jour et demi environ l’instant de la pleine lune ou de la nouvelle lune, vers les syzygies d’équinoxe ”.

 

 

En France, dès le XVIIe siècle, nombres de cartes font référence aux plus basses mers d’équinoxe pour l’établissement des sondes, « comme il parait de basse mer dans les plus grandes des marées ». Tel est le cas de cette Carte topographique de l’Aunis, l’île de Ré, partie de l’île d’Oléron et des entrées de la Charente par Pierre Massiac de Sainte-Colombe (1676), manuscrite à l’encre, seulement rehaussée de bleu sur la mer (1 : 46 965, 1 470 X 1 140 millimètres). Contrairement à ce que son titre pourrait laisser croire, c’est une remarquable carte marine. Elle est ainsi l’une des premières à figurer la fosse de Chevarache comme le montre cet extrait consacré à l’île de Ré (la fosse est juste au-dessus de la rose des vents, le Nord est en bas comme l’indique la fleur de lys). Elle donne aussi des indications précises sur la nature des fonds. Non seulement les bancs présentant un danger pour la navigation, mais aussi les grands fonds du large, où l’auteur, soucieux que le plomb suiffé aide la navigateur à se positionner, distingue le « gros sable rouge », le « sable vazard », la « vase noire », la « vase ferme », etc. Il mentionne aussi plusieurs fois des « grouails d’huîtres » et il est ainsi l’un des premiers à évoquer l’exploitation de l’espace maritime. (© Olivier Chapuis, Cartes des côtes de France, Chasse-marée/Glénat, 2ème éd., 2009 pour le texte / Bibliothèque nationale de France pour l’image)

 

 

La notion de coefficient de marée découle de cette définition afin de caractériser les variations du marnage, donc de l’amplitude. En attribuant par convention le coefficient 100 au marnage moyen des vives-eaux qui suivent la syzygie d’équinoxe, le coefficient est égal à la différence entre la hauteur de la pleine mer au-dessus du zéro hydrographique et la hauteur du niveau de mi-marée au-dessus de ce même zéro, divisée par l’unité de hauteur, le tout étant multiplié par cent.

 

On obtient ainsi des coefficients de 20 (marées de morte eau les plus faibles) à 120 (marées de vive eau les plus fortes), lesquels n’ont jamais été atteints depuis qu’on utilise la référence des coefficients. Cela souligne le caractère exceptionnel du 119 de ce 21 mars 2015 que l’on n’avait pas revu depuis le 10 mars 1997.

 

Le coefficient permet de calculer la hauteur à la pleine mer dans un port dont on connaît l’unité de hauteur. Elle est égale à la hauteur du niveau de mi-marée au-dessus du zéro hydrographique que l’on ajoute au produit de l’unité de hauteur par le coefficient, ce produit étant divisé par cent. Pour la hauteur de la basse mer, on retranche ce même produit divisé par cent de la hauteur du niveau de mi-marée au-dessus du zéro hydrographique.

 

 

En 1693, le Neptune françois – ici un extrait concernant la baie de Douarnenez de la 5ème carte particulière des costes de Bretagne contenant les environs de la rade de Brest (1693), due à Denis de La Voye (1 : 100 000, 600 X 805 millimètres, carte gravée coloriée) – marque la volonté de définir des symboles, légendés dans des Remarques (à droite). C’est l’origine des signes conventionnels actuels. La dernière ligne précise que « Les chiffres marquent les brasses d’eau dans la basse mer aux plus grandes marées » (© Olivier Chapuis, À la mer comme au ciel, Presses de l’université de Paris-Sorbonne, 1999)

 

 

Le succès de la notion de coefficient de marée dans notre pays vient du fait qu’il est calculé pour Brest. C’est en effet le port où l’on a observé le phénomène en France depuis le plus longtemps, en l’occurrence depuis le règne de Louis XIV (soutenue en 2008, la thèse de doctorat de Nicolas Pouvreau – l’un des meilleurs experts du SHOM qui est le référent national pour l’observation du niveau de la mer – y fait référence avec son titre Trois cents ans de mesures marégraphiques en France ; elle peut être téléchargée gratuitement ici).

 

Or, ce coefficient peut être utilisé avec une précision correcte (quant au coefficient, pas quant à la hauteur d’eau) pour l’ensemble des côtes occidentales de France, à condition de tenir compte du décalage entre la pleine mer de Brest et celle du port concerné (exemple : l’onde de marée met à peu près huit heures pour se propager en Manche, de Brest à Dunkerque). La formule de calcul du coefficient est l’amplitude semi-diurne divisée par 3,05 – qui est l’unité de hauteur à Brest -, le tout multiplié par cent.

 

En connaissant l’unité de hauteur de n’importe quel port et le coefficient de marée, on peut donc se livrer à des calculs rapides de hauteur d’eau à pleine mer et basse mer, et du marnage (égal en centimètres à deux fois le produit de l’unité de hauteur par le coefficient). Mais ces calculs ne peuvent être utilisés en navigation. Ils sont si imprécis que pour un même coefficient, la hauteur d’eau prédite en un port donné n’est pas identique. En effet, les coefficients pour la pleine mer de Brest ne sont calculés qu’avec les composantes semi-diurnes de la marée. Or, les hauteurs prédites le sont avec toutes : longues périodes, diurnes, semi-diurnes, quart-diurnes…

 

C’est justement parce que les marées ne sont pas semi-diurnes partout que la notion de coefficient ne s’est guère imposée ailleurs (voir la carte). En France même, elle a mis du temps à s’inscrire dans l’annuaire des marées comme on va le voir. Mais elle est devenue si populaire que lorsque les équations de Laplace (1776) – qui ne permettaient au début de prédire que la pleine mer et la basse mer – ont cédé la place à la méthode actuelle des harmoniques au milieu du XIXème siècle, la formule de Laplace a néanmoins été conservée pour le calcul du coefficient de marée tel qu’il est encore proposé aujourd’hui dans les annuaires.

 

 

En bleu, les zones de marées semi-diurnes telles qu’elles existent sur les côtes occidentales de la France métropolitaine. En vert, les zones de marées semi-diurnes à inégalités diurnes. En jaune, les zones de marées de type mixte. En rouge, les zones de marées diurnes. (© SHOM)

 

 

L’Annuaire des marées des côtes de France – le premier annuaire au monde digne de ce nom – est dû à l’ingénieur hydrographe Antoine-Marie Chazallon (1802-1872). Celui-ci s’impose au Dépôt général de la Marine (le SHOM actuel) comme le grand spécialiste de la question, inventeur à la fois du marégraphe et de la méthode des harmoniques telle qu’elle a été utilisée jusqu’à la fin du XXème siècle (elle n’est autre qu’un prolongement de celle de Laplace).

 

Cet annuaire est établi pour l’année 1839, alors que le projet est né en 1831-1832, lors des levés de l’archipel de Chausey, réputé pour ses marnages considérables. Les coefficients n’y figurent pas tandis qu’ils étaient déjà donnés pour les périodes des syzygies par le Bureau des longitudes. Mais il faudra attendre 1868 pour que les coefficients de marée soient insérés dans l’annuaire des marées, grâce à l’ingénieur hydrographe Pierre-Louis Gaussin. De nos jours comme depuis des générations, que l’on utilise ou pas des logiciels ou des applications, on ne saurait se passer de ce sacro-saint coef.

 

O.C.

 

 

Le premier Annuaire des marées des côtes de France est établi en 1838 pour l’année 1839. Il ne comporte pas encore les coefficients de marée qui y seront insérés en 1868. (© SHOM)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Pour mémoire

Par

 

Tandis que s’ouvre aux Sables d’Olonne, ce 15 septembre 2014, le procès non de Xynthia mais de l’aménagement du territoire, voici une revue de liens rappelant les articles – sur ce blog et sur le site de Voiles & voiliers -, consacrés à la submersion du littoral, qu’elle soit d’origine météorologique (surcote) ou sismique (raz-de-marée).

 

 

Le 28 février 2010, Xynthia frappe le littoral atlantique, essentiellement en Vendée et en Charente-Maritime, et cause la mort de 53 personnes. (© Jacques Archambaud / SAEMSO Port-Olona) 

 

 

Chronologiquement, c’est le tsunami du 26 décembre 2004 dans l’océan Indien (confirmé depuis par celui de mars 2011 au Japon, ici et ) qui a accéléré la prise de conscience des pouvoirs publics sur la nécessité d’un système d’alerte des raz-de-marée en France métropolitaine, notamment en Méditerranée. Cela a favorisé la mise au point d’outils cartographiques de modélisation du terrain comme Litto 3D alors que la prise en compte de l’importance du suivi du niveau de la mer dans la durée était déjà une longue histoire.

 

Puis, la tempête Xynthia du 28 février 2010 a été rapidement suivie de la création de la vigilance Vagues-submersion – dont nous réclamions le principe alors que la première vigilance rouge concernant le vent avait été déclenchée le 24 janvier 2009, soit un peu plus de sept ans après le lancement de la carte de vigilance en octobre 2001, suite aux tempêtes de décembre 1999 -, et qui a été activée un nombre considérable de fois l’hiver 2013-2013 par Météo-France.

 

 

Avec la tempête d’octobre 1987 et les deux tempêtes de décembre 1999, Xynthia est celle dont les effets ont le plus marqué les esprits. (© Jacques Archambaud / SAEMSO Port-Olona)

 

 

Gonflée par la surcote, une dépression (notamment un cyclone : voir la série Cyclones et cycle, épisodes 1, 2 et 3) favorise les inondations à marée haute, lesquelles s’ajoutent ainsi à la submersion par la mer et les vagues qui partent alors de plus élevé et détruisent d’autant plus le littoral.

 

D’où le recul du trait de côte qui s’est manifesté de façon spectaculaire au cours de ces mêmes tempêtes de l’hiver dernier. Je montrais dans ce dernier article combien les errements de l’aménagement du littoral des cinquante dernières années, liés à la pression démographique et financière, avaient non seulement perdu le bon sens mais aussi – pourtant étayée par au moins sept siècles d’archives -, la mémoire de ce bon sens.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Poubelle l’abysse (2)

Par

 

La mer n’est pas une poubelle ? Bien sûr que si. En novembre 2010, un article de ce blog s’intitulait déjà Poubelle l’abysse, à propos des conteneurs “ perdus ” et de leurs contenus disséminés. Trois ans et demi plus tard, je ne vois pas titre plus pertinent pour vous entretenir des résultats d’une étude qui vient de paraître dans la revue en ligne PLOS ONE.

 

 

Dans le canyon supérieur Whittard, le robot sous-marin Genesis filme une canette de bière par 950 mètres de fond… (© PLOS ONE)

 

 

Intitulée Marine litter distribution and density in European seas, from the shelves to deep basins (La répartition des détritus en milieu marin et leur densité dans les mers européennes, des plateaux continentaux aux bassins profonds), elle émane d’un collectif de chercheurs internationaux, dont François Galgani de l’Institut français de recherche pour l’exploitation de la mer (Ifremer).

 

On trouve aujourd’hui des déchets de notre société de consommation depuis l’estran jusqu’aux points les plus reculés des océans. J’ajoute d’ailleurs aux résultats publiés qu’outre les biens connus “ continents de plastique ” dans l’océan Pacifique et en cours d’étude dans l’océan Atlantique, on en a eu un exemple frappant qui n’a pas été souligné de ce point de vue, lors des recherches de l’épave de l’avion de la Malaysia Airlines dans le Sud de l’océan Indien.

 

 

Au-dessus des Quarantièmes rugissants de l’océan Indien, le satellite Taichote prend cette image le 24 mars 2014. Analysée le 27 mars par Geo-Informatics and Space Technology Development Agency (GISTDA), près de 300 points blancs plus ou moins grands laissent espérer qu’il s’agit des restes de l’avion malaysien. Après des survols aériens, la plupart se révéleront être des déchets flottants, révélant ainsi l’état de saleté des mers du Sud dans les hautes latitudes. (© AP Photo/Geo-Informatics and Space Technology Development Agency)

 

 

Les images satellitaires puis les photographies aériennes ont révélé la présence de débris de toutes tailles, y compris considérables, jusque dans les Quarantièmes rugissants. Il est désormais clair que les glaces ne sont plus le seul danger que devront affronter les coureurs autour du monde, lors des prochaines tentatives de records, ou de la Volvo Ocean Race, de la Barcelona World Race et du Vendée Globe. Le paradoxe des portes des glaces (voir articles www.voilesetvoiliers.com 1, 2, 3 et 4) deviendrait de renvoyer ainsi les bateaux vers des eaux moins australes et plus soumises aux objets flottants non identifiés (OFNI).

 

Je ferme la parenthèse et reviens à la publication précitée. Trente-deux sites témoins ont été étudiés sur les fonds des mers d’Europe, de l’Arctique à la Méditerranée – la plus atteinte à proximité de ses grandes agglomérations (ce qui n’est guère surprenant compte tenu de la densité de population qui l’avoisine et de son caractère de mer fermée) -, en passant par l’Atlantique et ses mers adjacentes, avec des levés par 588 chalutages ou images vidéo. Des détritus ont été trouvés jusque dans les fractures de la zone Charlie-Gibbs qui, en plein Atlantique Nord, traversent la dorsale médio-atlantique entre les Açores et l’Islande.

 

Les concentrations les plus élevées se trouvent dans les canyons, parfois jusqu’à des milliers de mètres de profondeur (limite de l’étude à 4 500 mètres), et les moins fortes sur les dorsales et les plateaux continentaux ce qui peut sans doute s’expliquer (c’est mon hypothèse) par la conjugaison de la topographie sous-marine et de l’action des courants sous-marins. Mais partout, ces plastiques sont ingérés par des tortues et des mammifères qui en meurent ou sous la forme de micro particules par des poissons. Ils reviennent ainsi dans le cycle alimentaire de l’homme avec les effets sanitaires que l’on imagine.

 

 

Une boîte de riz « qui ne colle jamais » sur le mont sous-marin Darwin, par 967 mètres de profondeur, photographié par le ROV (Remotely Operated Vehicle ou robot sous-marin téléguidé) Lynx du National Oceanography Centre du Royaume-Uni. (© PLOS ONE)

 

 

Les matières plastiques sont les déchets les plus fréquents sur les fonds marins, avec des conséquences particulièrement nuisibles sur les organismes qui y vivent. Contrairement à une idée largement répandue, car statistiquement exacte quant à leur plus grand nombre, tous ces plastiques ne viennent pas des activités terrestres via le ruissellement et les fleuves ou les envols sur le littoral. On en trouve ainsi beaucoup qui proviennent de la pêche, tels que des débris de lignes et de filets sur les monts sous-marins, les bancs et les dorsales. Ces filets continuent de prendre des animaux au piège pendant des décennies…

 

J’y ajoute les poubelles encore allègrement balancées par-dessus bord sur certains bateaux de commerce et de guerre et hélas, par quelques plaisanciers, accidentellement ou volontairement. Sans oublier une époque pas si lointaine de la course au large où nombre d’équipements passaient à l’eau (je voudrais être sûr que ces temps et ces pratiques lamentables soient révolus, je crains de ne pouvoir l’affirmer, c’est de toute façon toujours vrai en cas d’accident type démâtage).

 

 

Sur le même mont sous-marin Darwin, par 967 mètres de profondeur, un débris de filet de pêche entrave le développement du corail. (© PLOS ONE)

 

 

Or, l’article en question ne traite que de quelques exemples emblématiques d’un océan d’ordures, c’est le cas de le dire. Je n’oublie pas les conséquences de tous les accidents (dont les marées noires), des délits type dégazages, et autres véritables scandales. Et je ne parlerai pas ici des dépôts chimiques ou radioactifs que les militaires de tant de pays (dont la France), les mafias et des industriels véreux ont “confié” à la mer… Les abysses recèlent bien des secrets honteux.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Zéro initial (2/2)

Par

 

Il y a zéro et zéro. Dans son Mémoire sur les marées des côtes de France (1831), l’ingénieur hydrographe Pierre Daussy (1792-1860) témoigne de la difficulté à déterminer le zéro hydrographique : “ Les cartes des côtes de France [...] donnent la profondeur de l’eau rapportée au niveau des plus basses mers observées.

 

 

Si les annuaires des marées tels que nous les connaissons datent du début du XIXe siècle, la représentation des marées est bien plus ancienne, à l’image de celle que propose ici Guillaume Brouscon (1548) pour le Sud de la Manche et le golfe de Gascogne. Les lignes relient certains ports, bien répartis sur la côte, à des roses des vents. Celles-ci renvoient elles-mêmes à des cadrans horaires dans le Manuel de pilotage à l’usage des marins bretons d’où provient cette carte. Ces cadrans fournissent graphiquement l’heure de la marée à n’importe quel jour du mois, selon un procédé très ingénieux basé sur une mémorisation liée au cycle de la lune. (© Olivier Chapuis, Cartes des côtes de France, Chasse-marée/Glénat, 2ème éd., 2009 pour le texte / Bibliothèque nationale de France pour l’image)

 

 

[...] Ce niveau, le seul qui puisse être employé pour les cartes marines, n’est donné quelquefois que par une circonstance accidentelle et il serait impossible de le retrouver avec précision, ou du moins on ne pourrait y parvenir qu’en prenant pour point de comparaison la hauteur de quelque roche qu’on serait sûr n’avoir point éprouvé de changement. Mais, s’il s’agissait de constater si le niveau de la mer n’a pas varié, on serait dans l’impossibilité de le faire. Le niveau moyen, au contraire, peut s’obtenir par toutes les observations, et donne la facilité de s’assurer au bout d’un laps de temps, si le niveau de la mer a varié sur nos côtes.

 

J’ai donc pensé qu’il pourrait être intéressant de déterminer, pour chacun des points où il a été fait des observations de marée, la quantité dont le zéro de l’échelle se trouvait au dessous du niveau moyen. On pourra toujours alors rapporter à ce niveau les sondes portées sur les cartes, en leur ajoutant la quantité donnée pour l’échelle qui a servi à la réduction des sondes, et qui se trouve toujours ou la plus proche ou proportionnelle entre les deux plus proches. ” (Mémoire sur les marées des côtes de France, 1831, p. 81).

 

Cependant, “ les diverses époques auxquelles ces plus basses mers avaient été observées et les différentes grandeurs de la marée, suivant les lieux, ne permettaient pas de comparer entre eux, d’une manière rigoureuse, les niveaux qui servaient de base à chaque carte. ” (Notice sur les travaux scientifiques de M. Daussy, 1854, p. 2-3 ; cela se rapporte à 1829).

 

 

Le premier annuaire des marées moderne est établi par le Dépôt général de la Marine pour l’année 1839. (© SHOM)

 

 

L’hydrographe détermine donc “ pour chacun des points où des observations de marées avaient été faites, la différence de hauteur entre le point le plus bas qui servait de zéro et le niveau moyen des eaux déterminé par toutes les observations. En sorte que l’on peut, avec cette différence, rapporter toutes les sondes portées sur les différentes cartes, au niveau moyen de la mer. Il détermine en même temps, pour les mêmes points, l’unité de hauteur de la marée et l’heure de l’établissement ”, en ces différents lieux où les cartographes ont placé des observateurs pendant six mois chaque année, à raison d’une observation tous les quarts d’heure.

 

Daussy s’efforce ainsi d’obtenir “ avec quelque rigueur l’heure de l’établissement des différents points de la côte de France, depuis l’île d’Ouessant jusqu’à la frontière d’Espagne, ainsi que la valeur de la marée moyenne. ” (Mémoire sur les marées des côtes de France, 1831, p. 74). Il faut entendre par établissement, “ à quelle heure arrive la pleine mer, les jours de nouvelle et pleine lune. ” Cet horaire est déterminé à trois ou quatre minutes près pour les points ayant fait l’objet du plus grand nombre d’observations, “ tels que Ouessant, Brest, l’île de Sein et Cordouan. ”

 

Découlant de ce qui précède, le premier annuaire des marées des côtes de France, digne de ce nom, est dû à l’ingénieur hydrographe Antoine-Marie Chazallon (1802-1872) qui s’impose comme le grand spécialiste de la question. Il est établi pour l’année 1839, alors que le projet est né en 1831-1832, lors des levés de l’archipel de Chausey, réputé pour ses marnages considérables. Son objet est de donner les horaires des marées et les hauteurs d’eau correspondantes (donc les amplitudes) dans un certain nombre de ports de référence.

 

 

Début 2013, l’Oeuvre du marin breton rééditait l’édition originale de l’Almanach du marin breton parue en 1899 (10 euros sur le site www.marinbreton.com ; en achetant les publications de l’Oeuvre du marin breton, vous contribuez à aider concrètement des familles de marins). (© Oeuvre du marin breton)

 

 

Ce sont prioritairement les grands ports militaires dans lesquels Chazallon installe progressivement les marégraphes de son invention, soit à Toulon (1844), Brest (1845) et Cherbourg (1847). Puis, Marseille (1849 mais il ne s’agit pas encore du grand marégraphe auquel Alain Coulomb consacre son livre même s’il parle des prémices dont Chazallon fait partie), Le Havre et Saint-Malo (1850) sont successivement dotés de cet appareil destiné à enregistrer automatiquement la variation verticale de la mer.

 

Ces ports servent de référence en matière d’horaires et de courants de marées. L’ouvrage doit aussi permettre d’en déduire ces valeurs dans des havres de moindre importance, pour affiner les calculs de marée. Ce mode d’organisation sera développé par le Dépôt général de la Marine et son successeur le Service hydrographique et océanographique de la Marine qui alimentent toutes sortes de publications (et d’applications désormais), dont le célèbre Almanach du marin breton.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.