Skip to Content

La mer est vraiment noire

Par

 

Miraculée à la mer en 2011, emportée dans les airs le 9 mars 2015, à 57 ans. Avant de partir pour l’Argentine, Florence Arthaud avait bouclé, en collaboration avec Jean-Louis Bachelet, le manuscrit de Cette nuit, la mer est noire que les éditions Arthaud ont sorti le 19 mars (192 pages, 16 euros).

 

Ses obsèques ont eu lieu lundi 30 mars après-midi en l’église Saint-Séverin, à Paris, où nombre de navigateurs et d’anonymes entouraient la famille et les proches. Un nouvel hommage lui sera rendu par ses amis marins, le 28 avril, dans l’archipel de Lérins au large de Cannes, devant l’île Saint-Honorat. Puis les cendres de Florence seront inhumées dans l’intimité familiale, avec celles de son père, sur l’île Sainte-Marguerite, auprès de son frère Jean-Marie.

 

Tandis que nous retraçons la carrière de Florence dans le numéro d’avril de Voiles & voiliers, actuellement en kiosque, nous publierons les bonnes feuilles de l’ouvrage dans le numéro de mai, à paraître le 16 avril.

 

 

Les mémoires de Florence Arthaud ont cela d’étrange et de poignant qu’ils relatent une mort promise, le 30 octobre 2011, et qu’ils sont finalement publiés à titre posthume. (© Arthaud)

 

 

Ce livre bref est construit autour de l’interminable nuit du 29 au 30 octobre 2011 où Florence Arthaud est tombée à la mer de son voilier de croisière, au large du cap Corse. Dédié à son père, Jacques, décédé le 26 novembre 2014, le texte est construit en alternant le récit au coeur de ces ténèbres où elle aurait dû mourir et des retours sur sa vie y faisant écho.

 

La partie nocturne est si j’ose dire la plus intéressante, le reste ayant déjà été livré pour une large part dans son livre précédent. Si le travail éditorial n’était vraisemblablement pas achevé avant l’accident (d’où la collaboration du susnommé Bachelet), le témoignage est sincère et touchant, nourri de cette expérience très proche de la fin.

 

Florence en avait retiré l’envie d’aider des femmes à naviguer, projet qu’elle n’aura pu mettre à exécution. Le fait que le livre soit publié posthume ajoute évidemment beaucoup à l’étrangeté et à l’émotion de ce texte relatant une nuit d’agonie sous la voûte étoilée et de renaissance sous le projecteur de l’hélico salvateur. Hélas, un miracle dans une vie, c’est déjà inespéré.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Coef

Par

 

Tout a déjà été écrit sur la marée du siècle de ce 21 mars 2015. Vous en trouverez ainsi le pourquoi du comment sous la plume de Dominic Bourgeois, ici, sans oublier les risques de surcote et de décote,  tels qu’on les a notamment connus avec Xynthia. Mais ce que l’on dit rarement, c’est d’où vient le sacro-saint coefficient de marée (119 ce 21 mars pour un maximum possible de 120). Il n’est d’ailleurs guère employé hors de France. Cela tient à l’histoire de la connaissance du phénomène.

 

 

Pierre-Simon de Laplace (1749-1827) en habit de chancelier du Sénat sous l’Empire (automne 1803). Huile sur toile de Jean-Baptiste Paulin Guérin (© RMN / Château de Versailles / Franck Raux)

 

 

Le coefficient de marée découle des travaux de l’astronome, mathématicien et physicien, Pierre-Simon de Laplace (1749-1827). Le savant compara les observations de la hauteur d’eau effectuées au port de Brest entre juin 1806 et juillet 1815 avec celles réalisées depuis un siècle (elles servirent à définir le premier zéro hydrographique de nos cartes marines comme je l’ai déjà raconté ici et ). Laplace fut le premier à envisager la marée comme un problème d’hydrodynamique et non plus un phénomène statique tel que l’avait pensé Newton (on trouvera ici un bon résumé de l’histoire de la connaissance de la marée et là, un survol de l’oeuvre pléthorique de Laplace, fondamentale dans l’histoire scientifique mondiale).

 

Afin de comparer les marnages des ports, Laplace a inventé l’unité de hauteur qu’il définit – ainsi que le rapporte Bernard Simon, grand spécialiste de l’histoire de la marée au Service hydrographique et océanographique de la Marine (SHOM) -, comme “ la valeur moyenne de l’amplitude (demi marnage) de la plus grande marée qui suit d’un jour et demi environ l’instant de la pleine lune ou de la nouvelle lune, vers les syzygies d’équinoxe ”.

 

 

En France, dès le XVIIe siècle, nombres de cartes font référence aux plus basses mers d’équinoxe pour l’établissement des sondes, « comme il parait de basse mer dans les plus grandes des marées ». Tel est le cas de cette Carte topographique de l’Aunis, l’île de Ré, partie de l’île d’Oléron et des entrées de la Charente par Pierre Massiac de Sainte-Colombe (1676), manuscrite à l’encre, seulement rehaussée de bleu sur la mer (1 : 46 965, 1 470 X 1 140 millimètres). Contrairement à ce que son titre pourrait laisser croire, c’est une remarquable carte marine. Elle est ainsi l’une des premières à figurer la fosse de Chevarache comme le montre cet extrait consacré à l’île de Ré (la fosse est juste au-dessus de la rose des vents, le Nord est en bas comme l’indique la fleur de lys). Elle donne aussi des indications précises sur la nature des fonds. Non seulement les bancs présentant un danger pour la navigation, mais aussi les grands fonds du large, où l’auteur, soucieux que le plomb suiffé aide la navigateur à se positionner, distingue le « gros sable rouge », le « sable vazard », la « vase noire », la « vase ferme », etc. Il mentionne aussi plusieurs fois des « grouails d’huîtres » et il est ainsi l’un des premiers à évoquer l’exploitation de l’espace maritime. (© Olivier Chapuis, Cartes des côtes de France, Chasse-marée/Glénat, 2ème éd., 2009 pour le texte / Bibliothèque nationale de France pour l’image)

 

 

La notion de coefficient de marée découle de cette définition afin de caractériser les variations du marnage, donc de l’amplitude. En attribuant par convention le coefficient 100 au marnage moyen des vives-eaux qui suivent la syzygie d’équinoxe, le coefficient est égal à la différence entre la hauteur de la pleine mer au-dessus du zéro hydrographique et la hauteur du niveau de mi-marée au-dessus de ce même zéro, divisée par l’unité de hauteur, le tout étant multiplié par cent.

 

On obtient ainsi des coefficients de 20 (marées de morte eau les plus faibles) à 120 (marées de vive eau les plus fortes), lesquels n’ont jamais été atteints depuis qu’on utilise la référence des coefficients. Cela souligne le caractère exceptionnel du 119 de ce 21 mars 2015 que l’on n’avait pas revu depuis le 10 mars 1997.

 

Le coefficient permet de calculer la hauteur à la pleine mer dans un port dont on connaît l’unité de hauteur. Elle est égale à la hauteur du niveau de mi-marée au-dessus du zéro hydrographique que l’on ajoute au produit de l’unité de hauteur par le coefficient, ce produit étant divisé par cent. Pour la hauteur de la basse mer, on retranche ce même produit divisé par cent de la hauteur du niveau de mi-marée au-dessus du zéro hydrographique.

 

 

En 1693, le Neptune françois – ici un extrait concernant la baie de Douarnenez de la 5ème carte particulière des costes de Bretagne contenant les environs de la rade de Brest (1693), due à Denis de La Voye (1 : 100 000, 600 X 805 millimètres, carte gravée coloriée) – marque la volonté de définir des symboles, légendés dans des Remarques (à droite). C’est l’origine des signes conventionnels actuels. La dernière ligne précise que « Les chiffres marquent les brasses d’eau dans la basse mer aux plus grandes marées » (© Olivier Chapuis, À la mer comme au ciel, Presses de l’université de Paris-Sorbonne, 1999)

 

 

Le succès de la notion de coefficient de marée dans notre pays vient du fait qu’il est calculé pour Brest. C’est en effet le port où l’on a observé le phénomène en France depuis le plus longtemps, en l’occurrence depuis le règne de Louis XIV (soutenue en 2008, la thèse de doctorat de Nicolas Pouvreau – l’un des meilleurs experts du SHOM qui est le référent national pour l’observation du niveau de la mer – y fait référence avec son titre Trois cents ans de mesures marégraphiques en France ; elle peut être téléchargée gratuitement ici).

 

Or, ce coefficient peut être utilisé avec une précision correcte (quant au coefficient, pas quant à la hauteur d’eau) pour l’ensemble des côtes occidentales de France, à condition de tenir compte du décalage entre la pleine mer de Brest et celle du port concerné (exemple : l’onde de marée met à peu près huit heures pour se propager en Manche, de Brest à Dunkerque). La formule de calcul du coefficient est l’amplitude semi-diurne divisée par 3,05 – qui est l’unité de hauteur à Brest -, le tout multiplié par cent.

 

En connaissant l’unité de hauteur de n’importe quel port et le coefficient de marée, on peut donc se livrer à des calculs rapides de hauteur d’eau à pleine mer et basse mer, et du marnage (égal en centimètres à deux fois le produit de l’unité de hauteur par le coefficient). Mais ces calculs ne peuvent être utilisés en navigation. Ils sont si imprécis que pour un même coefficient, la hauteur d’eau prédite en un port donné n’est pas identique. En effet, les coefficients pour la pleine mer de Brest ne sont calculés qu’avec les composantes semi-diurnes de la marée. Or, les hauteurs prédites le sont avec toutes : longues périodes, diurnes, semi-diurnes, quart-diurnes…

 

C’est justement parce que les marées ne sont pas semi-diurnes partout que la notion de coefficient ne s’est guère imposée ailleurs (voir la carte). En France même, elle a mis du temps à s’inscrire dans l’annuaire des marées comme on va le voir. Mais elle est devenue si populaire que lorsque les équations de Laplace (1776) – qui ne permettaient au début de prédire que la pleine mer et la basse mer – ont cédé la place à la méthode actuelle des harmoniques au milieu du XIXème siècle, la formule de Laplace a néanmoins été conservée pour le calcul du coefficient de marée tel qu’il est encore proposé aujourd’hui dans les annuaires.

 

 

En bleu, les zones de marées semi-diurnes telles qu’elles existent sur les côtes occidentales de la France métropolitaine. En vert, les zones de marées semi-diurnes à inégalités diurnes. En jaune, les zones de marées de type mixte. En rouge, les zones de marées diurnes. (© SHOM)

 

 

L’Annuaire des marées des côtes de France – le premier annuaire au monde digne de ce nom – est dû à l’ingénieur hydrographe Antoine-Marie Chazallon (1802-1872). Celui-ci s’impose au Dépôt général de la Marine (le SHOM actuel) comme le grand spécialiste de la question, inventeur à la fois du marégraphe et de la méthode des harmoniques telle qu’elle a été utilisée jusqu’à la fin du XXème siècle (elle n’est autre qu’un prolongement de celle de Laplace).

 

Cet annuaire est établi pour l’année 1839, alors que le projet est né en 1831-1832, lors des levés de l’archipel de Chausey, réputé pour ses marnages considérables. Les coefficients n’y figurent pas tandis qu’ils étaient déjà donnés pour les périodes des syzygies par le Bureau des longitudes. Mais il faudra attendre 1868 pour que les coefficients de marée soient insérés dans l’annuaire des marées, grâce à l’ingénieur hydrographe Pierre-Louis Gaussin. De nos jours comme depuis des générations, que l’on utilise ou pas des logiciels ou des applications, on ne saurait se passer de ce sacro-saint coef.

 

O.C.

 

 

Le premier Annuaire des marées des côtes de France est établi en 1838 pour l’année 1839. Il ne comporte pas encore les coefficients de marée qui y seront insérés en 1868. (© SHOM)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Anton a cogné fort

Par

 

Le gradient de pression était considérable. La dépression Anton s’est creusée sur la mer Tyrrhénienne, le mercredi 4 mars 2015 en soirée. Nous valant le beau temps actuel sur toute la moitié Nord de la France, un puissant anticyclone se centrait sur le golfe de Gascogne et l’Ouest du pays, montant à 1042 hPa le jeudi 5 à la mi-journée, tandis qu’à l’Est de la Sardaigne, cela chutait à 995 hPa. Le couloir isobarique entre les deux centres de pression a généré un très fort flux de Nord sur la Méditerranée occidentale et l’Adriatique.

 

 

Dans sa carte de prévision à 36 heures des isobares et des fronts pour le jeudi 5 mars à 12h00 UTC sur la base du réseau du 04.03.15 à 00h00 UTC, le Deutscher Wetterdienst annonce clairement le très fort gradient de pression entre l’anticyclone Karin et la dépression Anton. (© Deutscher Wetterdienst – DWD)

 

 

Le jeudi 5 mars, outre une violente tramontane et un mistral musclé, on a ainsi enregistré des rafales à plus de 150 km/h (81 noeuds) en mer Tyrrhénienne. Des valeurs records ont été atteintes sur la côte orientale de la Corse (vent de Nord-Est, le gregale), avec 185 km/h (100 noeuds) à La Chiappa, près de Porto-Vecchio.

 

Elles ont dépassé les 200 km/h (108 noeuds) sur les collines de la Toscane, alors que la tempête se décalait le vendredi 6 mars vers les Balkans et les Carpates. La différence de pression entre le Nord et le Sud des Alpes a favorisé le vent de Nord-Est ainsi qu’un effet de foehn dans le Valais. En altitude, le courant jet établi de la Scandinavie au Maghreb atteignait 140 noeuds.

 

 

L’image satellitaire Meteosat-9-HRV du jeudi 5 mars à 12h00 UTC montre bien l’enroulement dépressionnaire d’Anton. (© Météo Suisse)

 

 

C’est en Croatie que les effets d’accélération dus au relief ont été les plus impressionnants. La bora (vent du Nord-Est) a soufflé des sommets dalmates vers l’Adriatique avec une rare violence, de Trieste au Nord-Ouest à Dubrovnik au Sud-Est. Des rafales à 166 km/h (90 noeuds) ont été relevées à Split, 210 km/h (113 noeuds) près de Zadar et 214 km/h (116 noeuds) un peu plus au Nord-Ouest, à Prizna.

 

Les précipitations ont également été considérables avec de la pluie sur la côte et de la neige sur l’arrière-pays et les états voisins, ainsi que sur les Apennins et les Abruzzes en Italie. Plus de 100 noeuds dans les rafales et un vent moyen de force 12 (plus de 64 noeuds), autant dire l’ouragan. Anton ? Un sacré cogneur.

 

O.C.

 

 

Dès le jeudi 5 mars, l’Adriatique s’est déchaînée en Croatie sous les effets de la bora (ici à Ražanac près de Zadar). (© Leo Banic)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Métro, à l’eau, crado

Par

 

Métro blues… On veille à ne rien jeter à l’eau, dégoûté de croiser des détritus de toutes tailles dans la moindre baie ou au grand large, et puis on découvre ces images sur le site du photographe américain Stephen Mallon. Depuis des années, la Metropolitan Transportation Authority (MTA) de New York balance dans l’Atlantique des rames entières de son métro, soit plus de 2 500 wagons à ce jour.

 

 

Les wagons de ce genre sont balancés dans l’Atlantique au prétexte de protéger les poissons… L’économie de dépollution et de recyclage est en réalité considérable pour la MTA de New York. (© Stephen Mallon / www.stephenmallon.com)

 

 

Stockés sur des barges, ils sont immergés au large, à la verticale de fonds de sable où ils sont censés faire office de récifs artificiels afin d’y attirer les poissons et de les protéger. Bref, le cynisme n’ayant pas de limites, l’opération est soi disant un modèle écologique favorisant la reconstitution d’un écosystème sous-marin. No comment, comme ils disent !

 

Les petits poissons profiteraient donc de l’amiante dont sont encore truffées les voitures au moment de leur immersion pour se réchauffer ? Et pour s’éclairer, ils peuvent remercier la MTA de leur laisser des câbles électriques ? Ça ferait bien rigoler Zazie. Autant de polluants qui seront renvoyés à l’envoyeur comme le sont les plastiques que l’homme ingère dans son alimentation maritime. Comme s’il n’y avait déjà pas assez des conteneurs et autres objets “ perdus ” par dessus bord au nom de la rentabilité que l’on déguise trop souvent en fortunes de mer.

 

 

 

Comme dans cette voiture, l’amiante est omniprésente et n’est pas retirée avant l’immersion. On peut d’ailleurs s’interroger sur la sécurité des ouvriers manipulant les wagons. (© Stephen Mallon / www.stephenmallon.com

 

 

Ces pratiques sont interdites et plus ou moins stoppées en Europe. Même si les marines militaires ont encore la possibilité d’envoyer par le fond des coques pour tester leurs armes. Et si certaines autorités y recourent parfois, à l’instar du préfet de la Martinique récemment, avec le cargo Cosette, sur la base de l’article L218-45 du Code de l’environnement, considérant qu’il y avait un péril grave et imminent, ce qui a été contesté. Mais retournons outre Atlantique ou plutôt restons-y puisque nous étions à Fort-de-France.

 

Admettons que l’amiante et le plastique soient en quantités infimes comme l’affirment certains. L’exemple pour le citoyen lambda n’en est pas moins dramatique. D’autant plus qu’il ne s’agit pas d’un cas isolé mais de la règle aux États-Unis qui ont une vieille tradition d’immersion, non seulement de leurs navires mais aussi de leurs biens de consommation tels que les voitures, les machines à laver ou les frigos…

 

 

Empilées sur la barge, ce sont des rames entières qui partent à la mer. Une tradition pour nombre d’équipements et de biens de consommation aux États-Unis. (© Stephen Mallon / www.stephenmallon.com)

 

 

Il paraît que certains pêcheurs amateurs sont ravis de ces spots artificiels où le poisson revient. Que leurs associations les encouragent même. C’est merveilleux ce qu’on est capable d’inventer au nom de la “ civilisation ” des loisirs. Je préfère encore mariner dans le métro que de manger de ce maquereau là.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

GFS refait surface (2/2)

Par

 

La nouvelle version de GFS que j’évoquais dans mon premier article devrait améliorer très sensiblement les prévisions. Mais de là à l’utiliser dans les zones côtières de notre façade occidentale où les effets de site et les phénomènes de brises sont importants, ou dans une mer fermée comme la Méditerranée où l’influence des terres et surtout des reliefs est aussi considérable que la multiplicité des îles, il y a un pas optimiste que je ne franchirai pas.

 

 

Sur la Méditerranée occidentale, l’Italien LaMMA propose une déclinaison régionale de GFS avec son modèle WRF. Ici le vent moyen à 10 m, à 5 jours avec une résolution de 12 km. (© LaMMA)

 

 

 

Avec cette mise à jour de GFS, Arpège qui est le modèle mondial de Météo-France avec des prévisions à 4 jours dont la maille horizontale est optimisée à 10 kilomètres sur l’Europe de l’Ouest (sur 70 niveaux au total) n’est plus aussi compétitif. Ce modèle Arpège HR (pour haute résolution, 10 km) est visible ici sur Previmer (simple visualisation sur petite carte à 3 jours).

 

En effet, une déclinaison régionale de GFS telle que le modèle WRF (Weather Research and Forecasting) qui prend bien en compte la topographie (en particulier les reliefs de la côte et de l’arrière-pays) devrait bénéficier directement de l’amélioration de GFS (en l’occurrence du modèle proprement dit d’une part et de sa hausse de résolution d’autre part) alors que nombre de sites météo utilisent ses ressources, notamment dans sa version NMM (Nonhydrostatic Mesoscale Model) qui offre une résolution horizontale fine (jusqu’à 4 km), un exemple ici avec Meteociel (5 km) ou pour la Méditerranée occidentale, ici avec le très bon LaMMA (mais 12 km seulement dans sa version moyenne résolution).

 

Cela dit, pour la courte échéance, les vrais modèles à maille fine - qui réalisent l’assimilation à haute résolution -, sont à privilégier, tout particulièrement en Méditerranée où il faut utiliser en priorité ceux développés par les services locaux. En voici quelques exemples que j’utilise régulièrement, sans aucune prétention d’exhaustivité. En Italie, on trouve ainsi l’excellent modèle LaMMA HR qui n’est autre qu’un WRF utilisant le modèle CEP sur 3 jours avec une résolution horizontale de 3 km, hélas pas sur tout le pourtour de l’Italie et de ses îles.

 

 

Développé par l’université d’Athènes, Poseidon est un excellent modèle à maille fine pour la Grèce (en dépit d’un affichage dont le graphisme et le positionnement gagneraient à être plus précis), ici les Cyclades avec le vent moyen à 10 m, à 3 jours. (© Poseidon)

 

 

En Grèce, c’est le fort bon système Poseidon pour toutes les zones en mer Ionienne et en mer Égée (utiliser la visualisation zoomée sur chaque bassin en passant par l’onglet Sailing Forecast). Sa résolution horizontale est de 1/30 degré, soit 0,03 degré. Dans les deux cas (italien et grec), les données sont gratuites mais il ne s’agit que de visualisations sans fichiers Grib. Tandis que OpenSkiron permet de télécharger des Grib lisibles sur zyGrib, proposés par zones de la Méditerranée (exemple : mer Égée, mais la résolution de calcul et d’affichage aux points de grille n’est plus que de 0,1 degré). Leur provenance est l’université d’Athènes qui réalise et gère le service Poseidon.

 

Côté Météo-France, le modèle numérique de prévision Arome offre une maille de calcul de 2,5 kilomètres (qui doit passer à 1,3 km en ce début 2015 !). Il intègre les données issues des observations locales, par exemple celles des vents doppler des radars météo, et il peut prendre en compte des éléments au sol plus précis, afin de modéliser les îlots de chaleur.

 

Arome voit beaucoup plus le relief littoral et les autres effets de sites qu’un modèle global comme GFS, y compris les brises thermiques, les effets de pointe ou les effets venturi. Enfin, il prend mieux en compte les mouvements verticaux et la modélisation des phénomènes convectifs aux abords des côtes, en particulier les orages. Pour la courte échéance, de une à trente-six heures, la finesse est très supérieure à GFS.

 

 

Le même modèle Poseidon, exploité en grib via le site OpenSkiron et affiché ici sous zyGrib sur les seuls points de grille pour la mer Égée. La résolution (0,1 degré) est trois fois inférieure à celle proposée en affichage simple sur le site Poseidon (0,03 degré). (© zyGrib /Olivier Chapuis)

 

 

Mais ce modèle n’est accessible qu’avec Navimail 2.1.3, lequel propose ainsi une maille jusqu’à 0,025° avec Arome, soit un point de grille tous les 1,5 milles (ou 2,78 kilomètres), ce qui est de la très haute résolution (Navimail 2.1.3 à télécharger ici pour le côtier et ici pour le large) Ces données sont payantes. Celles du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF) le sont aussi.

 

Je ne suis pas un partisan de la libéralisation à outrance, c’est un euphémisme, mais on peut s’interroger – comme le faisait l’an dernier Francis Fustier dans son remarquable blog Navigation Mac -, sur le fait de savoir jusqu’à quand ce sera tenable vis-à-vis des citoyens et contribuables européens qui en financent une large partie. Ouvrir ces données aux développeurs qui veulent y ajouter de la valeur serait effectivement une bonne idée. À condition qu’elles le soient aussi aux utilisateurs lambda en libre accès, au minimum à un format brut exploitable comme les fichiers Grib. Ce serait d’autant plus judicieux que CEP était reconnu meilleur que GFS… en tout cas jusqu’à la mise à jour majeure que vient de connaître ce dernier.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

GFS refait surface (1/2)

Par

 

D’accord, mon titre est quelque peu provocateur. Le modèle numérique de prévision GFS (Global Forecast System) n’a jamais sombré. Mais de l’aveu même des Américains qui le produisent, il était en retard sur son concurrent européen, le modèle IFS (Integrated Forecast System) du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF), couramment appelé modèle CEP en France et utilisé notamment par Météo-France et les autres services européens (Royaume-Uni, Allemagne…).

 

 

Une requête avec zyGrib du GFS maille 0,25 degré (spécifiée en haut à gauche). (© zyGrib / Olivier Chapuis)

 

 

L’américain GFS et l’européen CEP sont les modèles numériques de prévision les plus utilisés au large. Leur couverture est globale pour des échéances à moyen et long terme tandis que les autres modèles globaux sont limités à la courte échéance, à l’instar d’Arpège de Météo-France (mais avec un pas de temps de 10 minutes dans son cas). Parce qu’ils divergent souvent, GFS et CEP sont complémentaires.

 

Développé par le National Centers for Environmental Prediction (NCEP), dépendant du National Weather Service (NWS) de la National Oceanic and Atmospheric Administration (NOAA) des États-Unis, le modèle GFS propose une nouvelle version qui est opérationnelle depuis le 14 janvier 2015. Parmi toutes les améliorations apportées dont on trouvera le détail exhaustif ici – aussi bien pour l’assimilation que pour le mode de calcul de l’algorithme, en ne parlant que du modèle atmosphérique, indépendamment du modèle océanique d’état de la mer -, l’évolution la plus marquante pour le public concerne la résolution horizontale proposée dans les fichiers Grib (Gridded binary).

 

 

MaxSea Time Zero, via son serveur, ne prend pas encore en compte la nouvelle résolution : ici la maille 0,50 degré le 29 janvier 2015 sur le golfe de Gascogne (base 00h00 UTC, prévision à 18h00 UTC ici, 19h00 locale). (© MaxSea Time Zero / Olivier Chapuis)

 

 

Elle passe à 0,25 degré contre 0,5 degré auparavant. Sa densité est donc quatre fois supérieure. La résolution 0,5 degré est toujours disponible ce qui est une bonne chose car les fichiers à 0,25 degré sont quatre fois plus gros et cela peut coûter cher pour les télécharger par satellite au large. Mais à terre, ce n’est que bénéfice.

 

Le 29 janvier 2015 au même point 47° 23’ N / 06° 40’ W, avec le GFS 0,25 degré, on retrouve le même vent moyen à 10 m au 309° / 39, 2 N contre 306° / 39,5 N pour le GFS 0,5 degré de l’image précédente (toujours base 00h00 UTC, prévision à 18h00 UTC). (© zyGrib / Olivier Chapuis)

 

 

Cette résolution en sortie de modèle ne doit pas être confondue avec celle en entrée de modèle, dans la phase d’assimilation des données (pour le NCEP il s’agit du Global Data Assimilation System, GDAS, qui connaît lui aussi des améliorations avec cette mise à jour). La résolution horizontale de calcul GFS Global Spectral Model vient de passer de 27 kilomètres (14,58 milles) à 13 kilomètres (7,02 milles) et de 192 heures (8 jours) à 240 heures (10 jours) pour les prévisions à court et moyen terme (10 jours est aussi l’échéance maximale pour un fichier Grib 0,25 degré). Pour les prévisions à long terme, elles sont passées de 70 kilomètres (129,64 milles) à 35 kilomètres (155,57 milles), entre 240 et 384 heures (16 jours).

 

Le pas de temps le plus fin reste de 3 heures et sur 64 niveaux verticaux (sommet à 0,2 hPa) avec 366 variables par point de grille (chaque point de grille fait référence à une position géographique à un niveau donné définissant un quadrillage en trois dimensions qui découpe l’atmosphère en cubes ; on passe à quatre dimensions lorsque le modèle tourne, en ajoutant une dimension de temps). GFS calcule une prévision toutes les 6 heures, aux heures synoptiques principales (en anglais, le run servant de base au calcul), soit 00h00, 06h00, 12h00 et 18h00 UTC (avec des performances différentes, les meilleures étant celles de 00h00 et 12h00 UTC). Les fichiers Grib sont mis en ligne quatre fois par jour, cinq heures après les heures synoptiques principales (toujours avec des pas de 3 heures jusqu’à 10 jours et des mailles horizontales à choisir entre 0,25, 0,5, 1 et 2,5 degrés).

 

 

Avec la maille 0,25 degré, la visualisation de GFS présente une densité quatre fois supérieure à la maille 0,50 degré telle qu’à l’image 2. (© zyGrib / Olivier Chapuis)

 

 

Les sorties du modèle numérique de prévision GFS sont proposées gratuitement à tous les utilisateurs (dont les développeurs des programmes de sélection, de téléchargement et de visualisation des Grib, avec ou sans routage à la clé) via les serveurs NOMADS (NOAA Operational Model Archive and Distribution System), au format Grib 2, par exemple celui-ci pour le GFS de maille 0,25 degré. Ces serveurs sont utilisables directement mais leur ergonomie est bien moins agréable que celle des meilleurs programmes. Ainsi, l’excellent zyGrib (à télécharger ici) – programme gratuit de visualisation simple – intègre déjà cette maille à 0,25 degré comme le non moins réputé Weather 4D (application payante de visualisation des Grib mais aussi de routage) qui le fait depuis novembre pour son application Android (alors que la maille 0,25 était en phase de test au NCES) et depuis le 15 janvier sous iOS (mobiles Apple) pour les zones France et Europe, tandis que d’autres programmes ne proposent encore que les Grib GFS à 0,5 degré (c’est le cas de Grib.us pour Ugrib et de MaxSea Time Zero ce 29 janvier).

 

Le gros travail entrepris sur cette mise à jour de GFS est notamment dû à quelques ratés de prévision qui s’étaient produits en octobre 2012 lors du cyclone Sandy qui, après les Grandes Antilles dont Haïti, avait frappé très durement la côte Est des États-Unis jusqu’à New York. On peut en voir l’analyse du NCEP ici.

 

 

Pour ne pas accréditer la fausse illusion d’une haute résolution qui n’en est pas une, il est recommandé de n’afficher que les flèches de vent correspondant aux points de grille Grib, autrement dit de désactiver l’interpolation spatiale. (© zyGrib / Olivier Chapuis)

 

 

Suite la semaine prochaine avec l’impact sur la pseudo haute résolution comparée à la vraie haute résolution.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Continuer pour la France

Par

 

C’était la Whitbread 1973-1974, première édition de la course autour du monde en équipage qui est aujourd’hui la Volvo Ocean Race. Pen Duick VI démâtait et adolescent, j’affichais ceci dans ma chambre, mort de rire par la coupe en brosse de l’officier de Marine Tabarly et tout l’attirail. Morts de rire.

 

O.C.

 

 

 

Le 7 janvier 1974 paraissait ce numéro culte pour les voileux de l’époque, 41 ans jour pour jour avant les assassinats du 7 janvier 2015.

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Planète plastique, plastique pas net

Par

 

Pas une plage qui n’en soit tapissée pour peu qu’elle soit exposée. La mer ne rend ainsi à la terre qu’une toute petite partie de ce que nous lui “ donnons ”. Le plastique est partout dans l’océan, jusque dans les abysses. La nouveauté est qu’on en découvre aussi aux hautes latitudes de l’hémisphère Sud que l’on croyait préservées.

 

 

Densité des plastiques (nombre d’unités observées au kilomètre carré), classés en quatre catégories suivant leurs dimensions en millimètres. Les données proviennent de 1 571 stations dont 891 observations visuelles et 680 relevés au filet. (© Eriksen M, Lebreton LCM, Carson HS, Thiel M, Moore CJ, et al. (2014) Plastic Pollution in the World’s Oceans: More than 5 Trillion Plastic Pieces Weighing over 250,000 Tons Afloat at Sea. PLoS ONE 9(12): e111913. doi:10.1371/journal.pone.0111913)

 

 

Dans un article publié le 10 décembre 2014, la revue en ligne PLOS ONE estime que les océans comprennent actuellement 5,25 milliers de milliards de particules de plastiques pour 268 940 tonnes. Rapporté au volume des océans, ce n’est donc pas cette masse qui constitue le problème – ce n’est jamais que celle d’un très gros navire -, mais sa dissémination dans la chaîne du vivant (commentaire personnel).

 

La modélisation se base sur les données observées par 24 expéditions, entre 2007 et 2013, dans les cinq gyres océaniques des zones subtropicales (gigantesques tourbillons à la surface des océans, zones de convergence des courants), autour de l’Australie, dans le golfe du Bengale et en Méditerranée (où les concentrations sont considérables comme le confirme la dernière mission de Tara), soit une distance totale parcourue de 50 000 milles. Ces observations ont été visuelles pour les plus gros déchets et ont fait appel à des filets pour les plus petits.

 

 

La baie Vayia au Nord de l’île Fimaina (archipel grec des Fournoi), dans l’Est de la mer Égée, est très exposée au meltem. Ce vent dominant y ramène tous les déchets flottant en surface. Si bien que la plage et les fonds avoisinants sont tapissés de matières plastiques, ce que ne laisse pas deviner cette image idyllique. Un cache misère que l’on retrouve trop souvent en Méditerranée : cette mer fermée est proportionnellement la plus atteinte du globe. (© Olivier Chapuis)

 

 

Les plastiques viennent essentiellement de la terre, portés par les fleuves ou le vent, mais aussi des équipages de trop nombreux navires en tous genres qui continuent de les balancer par dessus bord, sans oublier les pertes de conteneurs. On peut avoir une idée vertigineuse de l’étendue des dégâts en consultant la carte interactive mise en ligne avec cette étude internationale pilotée par l’Institut 5 Gyres. Y a notamment contribué François Galgani de l’Institut français de recherche pour l’exploitation de la mer (Ifremer) que l’on retrouvait déjà parmi les auteurs de l’article précédent consacré à la pollution des abysses.

 

Moins touchés qu’on ne l’a dit ces dernières années, les gyres attirent les plastiques au gré des courants mais ils finissent aussi par les rejeter à un stade plus ou moins avancé de dégradation. Outre qu’elles blessent ou tuent nombre d’animaux marins selon leur grosseur (poissons, oiseaux, tortues, mammifères…), ces particules touchent les organismes marins tels que les filtreurs, le zooplancton ou ceux qui vivent dans les sédiments. Ils concentrent aussi les polluants organiques et altèrent le fonctionnement des chaînes alimentaires. Enfin, ils transportent des organismes (bactéries ou espèces invasives) sur de très longues distances avec des conséquences encore mal connues.

 

 

Modélisation numérique de la densité des plastiques (nombre d’unités observées au kilomètre carré), classés en quatre catégories suivant leurs dimensions en millimètres. Cette modélisation est calée sur les données observées à l’image 1 du présent article. (© Eriksen M, Lebreton LCM, Carson HS, Thiel M, Moore CJ, et al. (2014) Plastic Pollution in the World’s Oceans: More than 5 Trillion Plastic Pieces Weighing over 250,000 Tons Afloat at Sea. PLoS ONE 9(12): e111913. doi:10.1371/journal.pone.0111913)

 

 

J’ajoute à l’étude que plus encore que ce bilan spatial, le facteur temps est préoccupant. Ces plastiques n’ont commencé à gagner les océans que depuis le milieu du XXème siècle et de façon massive il y a à peine plus de quarante ans. C’est une microscopique goutte d’eau à l’échelle de l’histoire de la planète bleue. Mais c’est une bombe à retardement dont l’allumage est déclenché depuis belle lurette si l’on songe à l’ingestion de ces plastiques par nombre d’échelons de la chaîne alimentaire… jusqu’à l’homme (qui en absorbe aussi via les produits cosmétiques, également pollués). L’effet en sera terriblement long puisqu’il faut plusieurs centaines d’années pour qu’un plastique se désagrège totalement.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Zoom

Par

 

Une langue de bois digne de l’ère soviétique. C’est ainsi que je qualifie la com’ insupportable de la Volvo Ocean Race dans le numéro de janvier de Voiles et voiliers qui vient de paraître, à propos de l’échouement le plus spectaculaire de ces dernières années en course au large (voir aussi l’édito bien senti de Didier Ravon). Celui de Team Vestas, survenu le 29 novembre au coeur de l’océan Indien, sur un récif proche de l’Île du Sud dans l’archipel Saint-Brandon (Cargados Carajos Shoals), à 230 milles au Nord-Nord-Est de l’île Maurice.

 

 

La carte scannée (raster) montre que même à très petite échelle (1 : 3 600 000, soit une diagonale d’écran couvrant 666,5 milles), les Cargados Carajos Shoals sont parfaitement visibles le long de la dorsale de l’océan Indien (Ridge), dans le Nord-Nord-Est de l’île Maurice et dans l’Est de l’îlot Tromelin. Madagascar est à l’Ouest du cadre. Côté bathymétrie, on voit qu’en arrivant par le Sud-Sud-Ouest, on passe rapidement de l’isobathe 3000 à moins de 50 mètres. Comme cela doit se faire systématiquement lorsqu’on prépare une route, en navigation hauturière comme en navigation côtière, le zoom est donc indispensable pour vérifier tout au long de celle-ci (même si c’est fastidieux sur plus de 5 000 milles) que la trajectoire programmée (y compris celles proposées par les routages) ne passe pas sur des dangers. Il faut donc afficher la plus grande échelle disponible (mais ne pas dépasser celle-ci : voir l’image 3), tracer la route pour une navigation aux plus basses mers, les waypoints devant être si possible à proximité d’amers, faciles à identifier et permettant un relèvement visuel, à une largeur de pouce (à l’échelle de la carte) du côté libre de danger (eaux saines) et sans utiliser un waypoint fourni par un fabriquant que l’on n’aura pas soi-même visualisé sur la carte, l’idée étant aussi d’éviter que tout le monde navigue avec les mêmes waypoints d’où des risques de collision (surtout si le pilote automatique est en mode GPS)… (© MaxSea Time Zero / Olivier Chapuis)

 

 

Depuis notre bouclage s’est tenue la conférence de presse à Abu Dhabi qui m’oblige à corriger mon premier jugement. Parce qu’il a été calibré pour vendre les héros du tour du monde comme les meilleurs marins de la planète et que le cas d’une erreur de débutant n’est pas prévu dans les éléments de langage formatés, le discours de la Volvo traduit plutôt le pire du business is business, celui qui ne fait jamais amende honorable et dont l’arrogance n’a d’égale que l’inconscience de sa propre vacuité.

 

Cette erreur est humaine – puisque contrairement à ce qui nous est vendu, les dits héros sont bel et bien des hommes et des femmes -, et elle mérite à ce titre l’indulgence. Mais ce qui tient du perseverare diabolicum, c’est bien la poursuite de la parole officielle dans laquelle les communicants de l’épreuve et de l’écurie concernée ont sans nul doute tenu les clés des multiples verrous tandis que les navigants avaient d’autres coraux à fouetter. La seule chose digne dans cette histoire tient dans le fait que l’Australien Chris Nicholson a aussitôt endossé sa responsabilité de skipper et qu’il n’a pas chargé outre mesure son navigateur, le Néerlandais Wouter Verbraak. Il est vrai que les faits l’ont fait pour lui mais un patron qui assume vraiment, c’est assez rare dans le monde d’aujourd’hui pour être souligné.

 

 

Au 1 : 1 200 000, bien qu’étant trois fois plus détaillée que la carte électronique de l’écran précédent (ici, la diagonale couvre 223,4 milles), la carte vectorielle (C-Map Jeppesen dans le cas présent) ne détaille nullement les Cargados Carajos Shoals. Il est donc impératif de zoomer si on prétend entrer dans cette zone ou même seulement la tangenter. C’est d’autant plus indispensable que l’on peut y observer des erreurs importantes sur des cartes dont une partie des levés date ici de… 1825. Cela, sans même parler des décalages considérables (plusieurs centaines de mètres) pouvant exister entre les systèmes géodésiques locaux et le WGS 84. Bref, même si Wouter Verbraak avait zoomé sur sa cartographie électronique, il n’aurait pu s’engager dans cette zone sans des précautions redoublées nécessitant notamment de croiser les sources d’information – GPS et cartographie mais aussi sondeur (tout en sachant que l’instrument a ses limites sur une barrière de corail qui remonte d’un coup, la vision avec des verres polarisants de jour et l’ouïe de nuit sont plus fiables… les oiseaux pouvant aussi aider), radar (mais les îlots très bas renvoient un faible écho)… -, et surtout de largement augmenter les marges de sécurité. (© MaxSea Time Zero / Olivier Chapuis)

 

 

Quid de l’erreur de navigation ? Nicholson : “ Dans les deux jours précédant l’accident, Wouter et moi-même avions noté qu’il y aurait des hauts-fonds sur la route planifiée par le routage. Je lui ai donc demandé quelles seraient les profondeurs, ainsi que les courants et l’état de la mer ”. Et le skipper de continuer : “ Wouter m’a répondu qu’on passerait de 3 000 à 40 mètres – que ce seraient les deux limites bathymétriques en l’espèce -, que le courant était négligeable et que pour les vagues, on en reparlerait en s’approchant ”.

 

Verbraak : “ Avec le recul, nous aurions dû zoomer beaucoup plus sur la zone. Ne pas l’avoir fait constitue la grosse erreur que j’ai commise. Mais le bon côté c’est que nous n’en avons plus fait [des erreurs]. ” Vous avez bien lu. Ce “ but the good thing is that we did not make any more ” est-il de l’humour ? Pourquoi pas ? Après tout, il n’y a même pas eu de blessé léger, à 19 noeuds ! Tout en étant amorti par le corail (au moment de monter dessus), c’était loin d’être gagné, une rupture des cervicales est vite arrivée. Est-ce du fatalisme : maintenant que le bateau ne bouge plus de sa patate de corail, pas de danger de faire une autre bêtise ? Verbraak veut-il plutôt rendre hommage à son skipper et à la manière dont il a mené l’équipage pour évacuer en sécurité (concernant l’impact écologique, voir les avis des commentateurs) ?

 

 

Au 1 : 75 000 (la diagonale d’écran couvre 13,66 milles), la carte vectorielle (C-Map Jeppesen) offre ici un détail de la partie Sud-Ouest des Cargados Carajos Shoals : Vestas s’est échoué par 16° 48.30’ S / 059° 34.53’ E, dans le coin inférieur droit de cet écran. Notez qu’il y a du courant indiqué, jusqu’à 2 noeuds dans l’Ouest du banc. Cette carte me permet d’attirer l’attention sur deux autres dangers liés au zoom. L’hyperzoom est nécessaire pour détailler un passage mais il ne doit pas être systématique comme beaucoup trop de gens le pratiquent en naviguant sur de très petits écrans qui les condamnent à ce niveau de détail. En effet, pour conserver une vision synoptique de sa navigation et avoir une idée juste de son environnement à moyen et long terme autant que dans l’immédiatement à vue, il est indispensable de zoomer arrière. Ne serait-ce que pour rester pénétré de ces « relèvements mentaux » qui font une bonne nav’ et permettent à l’esprit (assisté du compas, de la règle Cras et de la carte papier) de prendre le relais de l’électronique à tout moment. Enfin, le plus dangereux est l’overzoom, c’est-à-dire le zoom au-delà de l’échelle réelle de la carte la plus détaillée : l’absence de pixellisation sur la carte vectorielle est en effet un piège (qu’ont résolu nombre de fabricants en bloquant celui-ci ou en le signalant en rouge) car sans vous en rendre compte, vous dépassez l’échelle à laquelle les hydrographes ont levé la carte, donc la réalité qu’ils ont mesurée sur le terrain. Cette virtualité est d’autant plus risquée que vous êtes en train de progresser sur une mer mal pavée de dangers bien réels… Ultime conseil, ne négligez pas de contrôler régulièrement dans le menu adéquat de votre récepteur, l’état de précision du système GPS, liée à la configuration géométrique des satellites visibles. Dans une zone aussi dangereuse que celle évoquée ici, cela peut vous sauver la vie. Le sens marin – mélange d’analyse réfléchie de toutes les informations du bord, d’observation de l’environnement maritime et de veille sensorielle permanente – consiste d’abord à ne jamais se reposer sur un seul instrument. Lorsque les récifs surgissent devant l’étrave, il est trop tard pour se demander si la position affichée à l’écran est bien exacte… (© MaxSea Time Zero / Olivier Chapuis)

 

 

Ou bien est-ce encore un effet collatéral d’une com’ qui ne s’entend même plus parler ? Elle s’adresse au grand public via les médias généralistes – genre “ après tout ce n’est qu’un incident de parcours ”. J’avoue que je privilégie cette dernière hypothèse quand je vois que le communiqué de presse d’où proviennent ces informations s’intitule “ Nous reviendrons ” et que la phrase suivant ce que je viens de rapporter ne parle déjà plus de “ crash ” mais d’un “ incident ” ce qui se traduit par “ péripétie ”…

 

Résumons. L’euphorie de la régate a pris le pas sur la nav’ au point d’en oublier de zoomer sur la carte… Et peu importe si cet archipel était initialement dans la zone d’exclusion, ce n’est pas une circonstance atténuante. Clin d’oeil de l’Histoire, ce naufrage a eu lieu non loin de l’îlot Tromelin, cadre d’une catastrophe aux conséquences autrement funestes. À un peu plus de trois cents milles dans l’Est de celui-ci, pour être précis. Autant dire une poussière… que l’on efface d’un zoom arrière.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Bob & Jacques

Par

 

Ils n’ont pas grand chose en commun sinon d’être morts à deux jours d’intervalle, d’avoir eu la mer pour passion – ce n’est pas rien -, et d’avoir joué un rôle dans ma vie. C’est nettement plus anecdotique, j’en conviens, mais pas mal de gens étant dans mon cas, cela justifie amplement de rendre ici hommage à ces deux hommes.

 

L’Anglais Bob Salmon a appareillé le 24 novembre, suite à un cancer du poumon. Il avait 78 ans. Il restera dans l’Histoire comme le génial inventeur de la Mini-Transat. C’était en 1977, l’année suivant le gigantisme du Club Méditerranée d’Alain Colas dans la Transat anglaise 1976 à laquelle Salmon avait participé. Les Britanniques allaient limiter la taille des bateaux à 60 pieds et cela devait amener la création de la Route du Rhum en 1978. De son côté, Bob avait choisi 21 pieds arrondis à 6,50 mètres pour sa nouvelle course.

 

 

English Harbour à Antigua, en 1981. Bob Salmon (au centre) préside la remise des prix effectuée par le Premier ministre de l’île. (© Collection Olivier Chapuis)

 

 

Je l’appelle Bob même si je ne l’ai pas revu depuis longtemps, c’était l’une des fois où il était venu saluer ses successeurs, coureurs et organisateurs puisqu’il avait passé la main aux Français en 1985, en la personne de Jean-Luc Garnier. Ayant été le benjamin de la Mini-Transat 1981, à 21 ans, je garde le souvenir d’un Britannique pur jus, digne jusque dans l’ébriété, à bord de son voilier de croisière avec lequel il suivit les deux éditions auxquelles j’ai participé (1981 et 1983), alors qu’il avait couru les deux premières tout en les organisant.

 

Si nous étions tous fort occupés à Penzance (Cornouailles anglaises) qui était le port de départ, l’escale de Santa-Cruz de Tenerife (Canaries) était l’occasion de refaire le monde jusque tard dans la nuit. Nous bénéficions du bar bien garni de son Moody, tenu par Beryl sa femme, quand celui du yacht-club local en avait assez de recevoir dans son atmosphère guindée, encore très marquée par l’époque de Franco, ces “ skippers ” hirsutes et chahuteurs.

 

 

Penzance (toujours en 1981). Dans ce petit port des Cornouailles anglaises – proche de leur Mont-Saint-Michel et du redoutable cap Lizard où certains concurrents ont perdu la vie en ralliant le départ -, l’ambiance était chaleureuse et amicale. La Mini l’est restée jusqu’à aujourd’hui, faute d’avoir jamais intéressé les grands médias. Quant aux quelques gros budgets, ils ont rarement gagné et c’est tant mieux. L’épreuve s’est ainsi imposée comme l’incontournable premier rendez-vous du large pour une foule d’anonymes, expérience initiatique pour certains, tremplin espéré pour d’autres. Nombre de skippers célèbres y ont fait leurs premières armes. La liste en est beaucoup trop longue pour les citer ici. J’ai un faible pour un certain Loïck Peyron, récent vainqueur du Rhum, qui m’a fait découvrir le Mini avec son Alcor, sur plan Laurent Cordelle, qu’il préparait avec des bouts de ficelle à La Rochelle en 1979, après que son père, alors commandant du plus grand pétrolier du monde, lui avait rendu le grand service de le foutre (momentanément) dehors. Belles parties de rigolade assurées avec Loïck et Vincent Lévy. Le succès de la Mini-Transat est tel que la course refuse du monde depuis des années, la Classe Mini ayant mis au point un mode de sélection aussi juste que rigoureux pour les 84 skippers admis au total (protos et séries dont l’importance a considérablement augmenté ces dernières années). (© Collection Olivier Chapuis)

 

 

L’idée répondait à un vrai besoin qui n’a fait que croître puisque la 20ème édition de cette course magique aura lieu en 2015 et que depuis sa création il y a 37 ans, ce sont pas moins de 1 010 femmes et hommes qui doivent à Salmon d’avoir traversé l’Atlantique en course et en solitaire (solo essentiellement même si une catégorie double a aussi existé un temps) ! Et ce, à bord de bateaux fantastiques : les Minis 6.50 sont très tôt devenus le laboratoire de la course au large et de beaucoup d’innovations majeures que l’on a retrouvées ensuite sur des voiliers de toutes tailles, notamment les 60 pieds IMOCA.

 

Après ses années Mini-Transat, Bob Salmon s’est tourné vers la Whitbread Round the World Race (devenue la Volvo Ocean Race). Il y a skippé le maxi Norsk Data en 1985-86 (il y a fini douzième) puis Liverpool Enterprise dans celle de 1989-90 (quinzième). Il continuait de vivre sur Mewstone Avenue, à Wembury près de Plymouth, une adresse restée gravée dans la mémoire de tous ceux qui lui ont écrit entre la fin des années mil neuf cent soixante-dix et le milieu des années mil neuf cent quatre-vingt.

 

 

S’élancer seul sur l’Atlantique à bord d’un voilier de 6,50 mètres (ici le départ de l’édition 1993 remportée par l’excellent Thierry Dubois mais marquée par la tempête et la disparition d’un grand régatier, Pascal Leys) est une expérience inoubliable, de celles qui vous révèlent à vous-même et vous forgent une vie, qu’elle s’éloigne ensuite de l’océan ou qu’elle lui soit vouée corps et âme. À l’école du soi, il est des surfs existentiels qui valent bien au-delà d’une ligne d’arrivée au soleil. Il faut avoir connu l’ivresse de se sentir vivre si frêle au milieu des éléments immenses, un petit rien du tout – implorant Dieu sait qui de le sortir de ce gigantesque merdier -, souriant aux étoiles dans des glissades à n’en plus finir, le coeur en fête, le dos en vrac, les fesses en feu et les pieds pourris de mariner dans leur jus. À force de tenir le manche jour et nuit pour ne pas amener le spi, on finit par halluciner de fatigue et l’on se retrouve les barres de flèche dans l’eau, à pouvoir marcher sur sa quille, dessalé comme en voile légère mais à mille milles de la première plage, larguant la toile, la ramenant plus ou moins intacte et repartant de plus belle jusqu’au prochain distribil. Cela vous forge le caractère et vous trempe la manière de naviguer pour toute une vie ! (© Olivier Chapuis)

 

 

L’autre disparu de la semaine est Jacques Arthaud qui s’est éteint le 26 novembre. Je n’ai pas connu personnellement le père de Florence Arthaud mais je me souviens l’avoir souvent aperçu, avec sa femme, aidant à préparer les bateaux de leur fille sur les grandes courses au large des années mil neuf cent quatre-vingt. Il restera comme le fondateur de la mythique collection “ Mer ” des éditions Arthaud qui a fait rêver tant de générations d’apprentis navigateurs, dont je fus, dévorant Tabarly, Moitessier, Colas, Janichon, Chichester et beaucoup d’autres…

 

 

L’une des couvertures les plus fortes et les plus connues de la collection « Mer » de la grande époque. Dans le genre, on n’a jamais fait mieux ! (© Arthaud)

 

 

Y travaillant depuis les années cinquante, tout en s’évadant le  temps d’une expédition en Arctique avec Roger Frison-Roche qu’il a racontée dans Nomades du grand Nord (1956), Jacques a dirigé la maison d’édition de 1974 à 1977, à la suite de son propre père Benjamin (1896-1983) – fondateur en 1924 des éditions Arthaud, nées de la fusion de la librairie grenobloise éponyme et des éditions Jules Rey spécialisées en beaux livres sur les Alpes (Benjamin étant le gendre de Jules) -, et jusqu’à la cession à Flammarion.

 

Eu égard aux origines dauphinoises de la maison de la rue de Mézières dans le sixième arrondissement de Paris, Benjamin s’intéresse d’abord à la montagne. Avec Maurice Herzog et son très controversé Annapurna, premier 8000 (1951) commence une série de récits des exploits des grands alpinistes français et étrangers. Le père s’étant accaparé les cimes, le fils surfera les vagues.

 

Grand pratiquant lui-même, Jacques est aussi celui qui a initié ses enfants à la voile. Deux d’entre-eux sont devenus des professionnels. Jean-Marie, qui s’est suicidé en mer Méditerranée en 2001, et Florence qui a commencé sa carrière dans la Route du Rhum 1978. La victoire historique dans l’édition 1990 est sans nul doute l’un des titres maison dont son père fut le plus fier.

 

O.C.

 

 

Jacques Arthaud sur son bateau, vers 1974, avec Florence à la barre. (© Collection Florence Arthaud, extrait de Florence Arthaud, Un vent de liberté, Arthaud, 2009)

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.