Skip to Content

Category Archives: High-tech

Sic transit

Par

 

Si vous le croisez, arrondissez votre route. Le Pioneering Spirit  – d’abord nommé Pieter Schelte mais aussitôt débaptisé parce que Pieter Schelte Heerema, le père, fut un SS criminel de guerre  -, est l’un des plus grands navires de travail  au monde. Pour son transit à travers le Bosphore, le 2 mai dernier, les autorités turques ont fermé le détroit au trafic international. Il faut dire que ses mensurations ont de quoi impressionner.

 

 

À la proue, la superstructure mobile sert à poser les canalisations. Elle déborde la longueur de coques (382 mètres) de 95 mètres (477 mètres hors-tout). (© SeaNews Turkey).

 

 

Lancé en 2014, ce catamaran de la société néerlandaise Allseas (fondée en 1985 par Edward Heerema, fils de Pieter Schelte et frère de Pieter Hugo Heerema qui est président du groupe Heerema, également dans l’assistance à l’industrie offshore, connu dans le milieu de la voile pour avoir disputé le Vendée Globe 2016) est spécialisé dans la pose ou la dépose de pipelines et autres gazoducs, ainsi que des plateformes pétrolières et gazières, avec des performances qui donnent le tournis et que l’on peut lire ici .

 

 

Lorsqu’il est en configuration de travail, le Pioneering Spirit développe une surface considérable avec une barge entre ses deux coques à l’avant et des installations tout autour, comme ici, le jour de son inauguration. (© Allseas).

 

 

D’une longueur hors-tout de 477 mètres pour 124 mètres de largeur, son déplacement atteint le million de tonnes en charge !  Pas moins de 571 personnes peuvent travailler à son bord, ce qu’elles viennent de faire en mer Noire durant un an pour poser un gazoduc entre la Russie et la Turquie, destiné à alimenter l’Europe en gaz russe contournant l’Ukraine. À une dizaine de noeuds (quatorze au maximum), le monstre est désormais en route pour la mer du Nord où il a déjà à son tableau de chasse le démantèlement d’une plateforme de vingt mille tonnes en une seule fois. Il reviendra en mer Noire cet automne pour la pose d’un second gazoduc. Sic transit auria  mundi.

 

O.C.

 

 

Au plus étroit, le Bosphore ne mesure que 697 mètres entre Europe et Asie. Sur les 32 kilomètres de longueur du détroit entre la mer Noire et la mer de Marmara, le Pioneering Spirit a été précédé d’une armada de navires de sécurité et de remorqueurs, tout au long de la traversée de la province d’Istanbul. (© SeaNews Turkey).

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.
Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com .

Rusé

Par

 

Dans la série les petits bateaux qui ont des jambes, le Seafox 5 se pose là. Plus les éoliennes grandissent – à l’instar de celle que prépare General Electric dans ses usines françaises de Saint-Nazaire, Nantes et Cherbourg (260 mètres de hauteur et des pâles de 107 mètres pour une puissance de 12 mégawatts)  -, plus les navires auto-élévateurs de type jack-up qui les posent au fond de l’eau doivent se hisser haut dans les airs.

 

 

 Le Seafox 5 lors de ses essais récents à Rotterdam, après ses modifications (© Damen).

 

 

Ainsi, le Seafox 5 de la compagnie néerlandaise Seafox (immatriculé à l’île de Man) vient de bénéficier de modifications au chantier Damen Verolme de Rotterdam. Lancé en 2012, long de 151 mètres de long pour 50 mètres de largeur et 9,75 mètres de tirant d’eau, ses quatre pieds et sa grue d’une capacité de 1 200 tonnes lui permettent désormais de travailler jusqu’à 68 mètres de profondeur.

 

 

Notez les quatre pods de propulsion, orientables sur 360 degrés. (© Damen).

 

 

Cent cinquante personnes peuvent vivre à bord et évoluer sur le pont de 3 750 mètres carrés du Seafox 5. Celui-ci est tantôt flottant, tantôt perché aussi haut que ses jambes de 106 mètres émergent de l’océan. Mieux vaut ne pas l’oublier quand on s’accoude au parapet du renard des mers…

 

 

O.C.

 

 

S’il n’y a toujours pas la moindre éolienne opérationnelle dans les eaux territoriales françaises de métropole, la construction navale n’en est pas moins considérablement augmentée, depuis des décennies, dans nombre de pays d’Europe du Nord, tandis que le Danemark vient de démanteler le premier champ éolien du monde, inauguré il y a vingt-cinq ans… (© Damen).

 

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Micmac en mer Noire

Par

 

C’est une guerre secrète qui touche le GPS et à laquelle Galileo n’échappera pas plus que les autres systèmes GNSS (Global Navigation Satellite System). Le brouillage ou, plus grave encore, le piratage de la navigation par satellite sont inhérents à la mise à disposition du Global Positioning System américain sur l’ensemble de la planète et à la géolocalisation qui a envahi l’économie mondiale.

 

 

Pas de satellite reçu ! Votre antenne ou votre récepteur ne sont pas en cause ? C’est vraisemblablement un brouillage du système GPS ! Si vous avez activé l’alarme de perte de position sur votre récepteur, votre logiciel de navigation ou votre traceur, vous en serez immédiatement averti (un buzzer en sortie peut être bien utile pour entendre la sonnerie dans le bruit ambiant). Un piratage sera beaucoup plus difficile à déceler (voir ci-dessous)… (© Garmin / Olivier Chapuis)

 

 

Je l’avais raconté en détail voici huit ans, un code M – moins vulnérable -, est en préparation pour les forces armées américaines. Son lancement initial était prévu pour 2016 mais, de même que l’Europe, les États-Unis ont pris du retard. Le GPS III ne devrait voir son premier satellite lancé qu’au printemps 2018, le bloc 0 (lancement et contrôles) venant de commencer ses tests finaux en ce mois d’octobre, tandis que le bloc 2 du Next-Generation Operational Control Segment (OCX) se rapportant aux usages militaires ne sera livré à l’US Air Force qu’en avril 2022.

 

S’il en était besoin, un événement survenu le 22 juin dernier en mer Noire justifie pleinement ce développement de la troisième génération du GPS. L’officier de quart à la passerelle d’un bâtiment devant Novorossiisk (Russie) a vu son point GPS transporté… à l’aéroport, à vingt-cinq milles de sa position. Vingt autres équipages de navires auraient rapporté la même aberration dans leur positionnement GPS (visible sur l’AIS). Il n’est pas exclu qu’un test d’attaque électronique ait été effectué ce jour là, peut-être par les Russes, en relation avec la guerre qu’ils mènent en Ukraine.

 

 

Même si le mode GPS est rarement utilisé à la voile sous pilote automatique (contrairement aux bateaux à moteur qui l’emploient énormément avec toutes les conséquences que cela peut engendrer… y compris en termes de risque de collision lorsqu’ils naviguent tous vers un même waypoint issu d’une base de données fournisseur…), le brouillage ou le piratage du signal GPS peuvent avoir des effets dramatiques si l’on ne surveille pas régulièrement l’adéquation de sa position à l’écran avec ce qu’on relève à vue autour de soi. Que l’on soit sous pilote ou pas. (© Olivier Chapuis)

 

 

Pour être précis, il ne s’agissait pas d’un bruit sur le signal empêchant la réception GPS – brouillage classique qui a au moins le mérite d’être détectable par une alarme de perte de position -, mais d’un leurre envoyé aux récepteurs, vraisemblablement depuis une station terrestre. Plutôt qu’à “ mourir ” en se taisant dans le cas d’un simple brouillage, le piratage conduit le récepteur GPS à “ mentir ” tout en affichant une réception normale du signal, ce qui est autrement insidieux et dangereux si l’on ne surveille pas de près ses écrans et l’environnement sur le terrain…

 

Cet incident a été identifié par Todd Humphreys (Université du Texas à Austin) comme étant très proche de ce qu’il avait délibérément provoqué au cours d’une expérience. Avec son équipe, il avait démontré qu’il pouvait leurrer le système de navigation d’un super yacht et prendre ainsi le contrôle de sa route s’il était sous pilote automatique en mode GPS. L’article qu’il a publié à cet égard, en mars 2017 dans la revue américaine Navigation, est consultable ici. Ce piratage du signal GPS par des hackers (crackers), qu’ils soient mafieux, terroristes ou plaisantins, serait d’une relative simplicité. A fortiori par des états.

 

 

La précision du système GPS est liée à la configuration géométrique des satellites visibles, mesurée par un coefficient d’affaiblissement de la précision du positionnement, le Position Dilution of Precision (PDOP), dont seule la composante horizontale (l’Horizontal Dilution of Precision : HDOP) intéresse les navigateurs (l’altitude étant considérée quasi constante en mer). Le PDOP doit être inférieur à 6 pour être acceptable ce qui correspond à une précision horizontale de 30 mètres. Après l’arrêt de la dégradation systématique du signal GPS pour les civils, le 1er mai 2000, on pouvait compter sur une précision horizontale de 20 mètres, avec une configuration moyenne de 4 satellites (PDOP égal à 4) et une probabilité de 95 %. Cette précision pouvait atteindre 5 à 10 mètres dans les meilleurs cas. C’est désormais 1 à 5 mètres de façon non permanente (mieux avec l’aide du différentiel) mais attention, la précision de la cartographie ne suit pas ! Cette précision pouvait se dégrader à 60 mètres environ dans les moins bonnes conditions normales de fonctionnement (PDOP égal à 12). Ici, le PDOP de 1.5 est de 1.5/12 de ce maximum admissible. L’ECP (Écart circulaire probable) – équivalent de l’Accuracy (Précision) -, est ainsi égal à 2 mètres, c’est-à-dire que 50 % des positions calculées sont dans un cercle de 2 mètres de rayon ! Dorénavant, avec le piratage du signal GPS, vous pouvez avoir de tels paramètres à l’écran de votre récepteur tout en ayant une position erronée à plusieurs dizaines de milles près ! Si vous deviez constater une telle aberration que vous n’expliqueriez pas par vos propres investigations sur la qualité de votre réception (critère désormais insuffisant comme je viens de l’expliquer), le bon réglage du système géodésique de votre cartographie électronique et la bonne qualité de celle-ci, il vous faudrait la signaler ici (U.S. Coast Guard Navigation Center). (© Thales / Olivier Chapuis)

 

 

Quoi qu’il en soit, pour pallier l’écran noir ou le micmac assuré (à terre ou dans les airs avec des conséquences également apocalyptiques, à la hauteur de la géolocalisation généralisée… mais c’est notre navigation maritime que j’évoque ici), le bon sens – entendez le sens marin -, impose de contrôler systématiquement la qualité et la fiabilité de son positionnement par satellite. Et, de conserver à bord un jeu de cartes papier, une règle Cras, un compas de relèvement (voire un sextant et les tables afférentes pour une navigation au long cours). Pratiquer mon tout relève du bon vieux soliloque du navigateur. Il consiste aussi à échanger avec son récepteur GPS, Galileo ou autre…

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

À la recherche du temps perdu

Par

 

Longtemps, il s’est annoncé de bonne heure. Galileo, le système européen de navigation par satellites, n’en finit pas d’avoir des problèmes. Après un retard et un surcoût considérables, guère surprenants pour un projet international de cette ampleur, dont quelques flops retentissants à l’instar d’une mauvaise mise sur orbite en 2014, ce sont ses précieuses horloges atomiques qui s’avèrent fragilisées, ainsi que cela a été révélé mi-janvier 2017.

 

 

Sur les trente prévus à terme (en comptant les six de secours), dix-huit satellites Galileo sont déployés en orbite circulaire… avec un défaut sur leurs horloges atomiques qui ne pourra pas être repris à distance pour les horloges au rubidium mais qui sera corrigé sur les douze satellites restant à lancer. (©  ESA / P. Carril)

 

 

Soit, un mois après la date à laquelle Galileo est devenu partiellement opérationnel, le 15 décembre 2016… huit ans au-delà de la date prévue. Pour mémoire, le programme avait été décidé en 1999 et le premier satellite mis sur orbite en décembre 2005. Le 17 novembre 2016, les satellites numéros 15 à 18 ont été lancés d’un coup, avec succès depuis Kourou en Guyane, par une fusée Ariane 5.

 

Avec 18 satellites en orbite circulaire à 23 222 kilomètres d’altitude, Galileo prenait enfin sa place au sein du GNSS mondial (Global Navigation Satellite System), aux côtés du GPS américain, du GLONASS russe et du Beidou chinois. La constellation de 24 satellites devrait être complète en 2020 pour un système alors pleinement opérationnel (il y en aura 6 supplémentaires en secours, soit 30 au total).

 

Bien que considérable, ce délai n’a pas eu que des inconvénients : Galileo a pu s’adapter au boom de la géolocalisation, des drones, des véhicules autonomes et des objets connectés nécessitant une précision de quelques centimètres qu’offriront à terme les services payants. Depuis l’hiver dernier, outre la recherche et le sauvetage (SAR ou Search and Rescue), les services gratuits sont accessibles avec un positionnement au mètre près.

 

Hormis les balises de détresse (ce qui n’est pas rien) et la course au large où les pilotes automatiques ont besoin de données très précises, la navigation de plaisance n’a que faire d’une telle précision, si ce n’est pour l’alarme de mouillage… à condition de ne pas trop éviter ! Encor faut-il disposer d’un récepteur GPS, d’une tablette ou d’un téléphone intégrant un jeu de puces (chipset) de localisation compatible Galileo, ce qui est loin d’être généralisé pour les équipements grand public.

 

 

Le positionnement à moins d’un mètre près n’est pas une préoccupation essentielle en navigation de plaisance. Même pas au mouillage, sous peine d’être réveillé sans cesse pour cause d’évitage… (©  Olivier Chapuis)

 

 

En effet, si les systèmes GNSS sont bien compatibles, les récepteurs ne le sont qu’à cette condition. Tant qu’à faire, contrôlez aussi leur compatibilité avec GLONASS et assurez vous de bien disposer du différentiel par satellite pour l’augmentation de la précision (WAAS pour Wide Area Augmentation System ou EGNOS pour European Geostationary Navigation Overlay Service). Enfin, quoi qu’il en soit, n’oubliez surtout pas que la plupart des cartes marines ne permettent pas une navigation sûre au mètre près…

 

Mais je reviens à ce problème d’horloge. Chaque satellite Galileo compte quatre horloges atomiques. Deux sont des masers à hydrogène passif (dont l’un en redondance inactive) d’une précision d’environ une nanoseconde (un milliardième de seconde) par vingt-quatre heures (une seconde en… trois millions d’années). Ces masers sont la fierté de Galileo qui revendique ainsi une précision horaire supérieure à celle du GPS. Elle sera entre autres valorisée dans la synchronisation des systèmes pour les transactions financières, l’énergie ou les télécommunications.

 

Deux autres sont des horloges au rubidium d’une précision de dix nanosecondes par jour. L’une, en redondance active, prend immédiatement la relève du maser à hydrogène en cas de panne de celui-ci, afin d’éviter toute interruption du signal. L’autre est en redondance passive. Sur les soixante-douze horloges des dix-huit satellites en orbite, près de vingt seraient touchées par un dysfonctionnement et neuf seraient même hors service, trois au rubidium et six à l’hydrogène. Un seul satellite serait victime d’une panne de deux de ses quatre horloges.

 

La Commission européenne vient de révéler qu’un composant défectueux – coûtant quelques dollars ou plutôt quelques euros :) -, aurait été identifié par l’Agence spatiale européenne (European Space Agency ou ESA) comme le responsable d’un court-circuit sur les horloges au rubidium, incident que l’Inde aurait également subi sur son système régional de navigation par satellites.

 

 

Ici en cours d’intégration dans un satellite Galileo, les deux masers sont à gauche et les deux horloges au rubidium au centre. (© Philip Davies / Surrey Satellite Technology Ltd)

 

 

 

Une difficulté aurait aussi été analysée dans le mode d’utilisation des masers en orbite, lequel aurait été modifié depuis. Dans les deux cas, les services Galileo ne seraient pas affectés par ces avaries, en cours de correction sur les prochains satellites dont quatre doivent être lancés en décembre par Arianespace. Derrière le diagnostic et ses solutions, la guerre économique fait rage entre recalés et reçus aux appels d’offres, certains étant reconduits en dépit de ces défaillances. Le temps perdu n’a pas la même valeur pour tout le monde.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Maman les p’tits bateaux

Par

 

Il y a les bateaux qui volent et ceux qui font du stationnaire au-dessus de la surface. Leurs jambes descendent jusqu’à se poser au fond de la mer pour leur donner la stabilité nécessaire à de grands travaux tels que la pose d’éoliennes. Il y a trois ans et demi, je vous avais présenté le plus grand navire du genre. Mais on n’a guère l’occasion de les observer en mer puisque la navigation est interdite au milieu des champs éoliens, comme ici au Danemark où est basée la société DBB. Bientôt, l’on verra pourtant se multiplier ces scènes insolites au large de nos côtes. D’où l’intérêt du reportage photo qu’elle nous propose.

 

 

Au port, le Jack-Up (navire auto-élévateur) Wind Server – 79,30 X 32,30 mètres à la flottaison – remonte au maximum ses quatre jambes de 75,10 mètres. (© DBB)

 

 

Arrivé sur zone, le Wind Server descend ses quatre jambes jusqu’au fond et s’élève alors d’un mètre par minute. (© DBB)

 

 

Le navire stabilisé hors de l’eau, en position de travail, la grue peut être déployée ; ici, pour démonter une éolienne réformée. (© DBB)

 

 

Avec un autre bâtiment de la compagnie, notez l’échelle fournie par les hommes d’équipage, sur le pont à côté de la grue. Les dimensions et la masse des mâts et des pales d’éoliennes imposent de grandes précautions pour les manutentions. (© DBB)

 

 

Le même, de profil, avec la passerelle permettant les va-et-vient entre le navire et la plateforme à la base de l’éolienne. (© DBB)

 

 

L’éolienne réformée est en cours de dépose sur le pont du Wind Server. L’homme d’équipage donne l’échelle devant le pied de la machine. (© DBB)

 

 

Le Wind Server est totalement hissé sur ses jambes, lors de ses essais aux chantiers allemands Nordic Yards en 2014. (© DBB)

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.
Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Mini bombes

Par

 

Quelques tableaux valent mieux qu’un long discours. J’ai récemment parlé de ceux proposés par Géovoile sur la Mini-Transat. Au vu des performances hallucinantes réalisées par les leaders de la course en approche de la Guadeloupe, j’y reviens en quatre captures d’écran afin de bien en prendre toute la mesure.

 

 

Rapportée à la distance effectivement parcourue en orthodromie ce 10 novembre à 08h00 UTC, soit 2140,53 milles pour le leader des protos (77,12 % de la distance totale de cette seconde étape), la moyenne de celui-ci est de 9,2 noeuds. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

Sur le fond, ce même leader a parcouru au même moment 2567,59 milles, soit une moyenne effective de 11 noeuds ! Le deux leaders en série affichent quant à eux 10 noeuds de moyenne sur leur route fond… mon tout sur des bateaux de 6,50 mètres. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

Si le record des 24 heures n’est pas encore tombé chez les protos avec 295,57 milles à 12,3 noeuds (sauf erreur de ma part, il appartient toujours à Bertrand Delesne sur Les Sables/Açores/Les Sables en 2010 avec 304,9 milles), il vient d’être battu en séries avec 278,77 milles à 11,6 noeuds pour Julien Pulvé (Novintiss) détrônant ainsi Xavier Macaire sur cette même édition de Les Sables/Açores/Les Sables. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

 Avec respectivement 56 et 41 pointages en tête, les chiffres proposés par Géovoile sont sans appel : Frédéric Denis (Nautipark) et Ian Lipinski (Entreprise(s) innovante(s)) sont les maîtres de cette seconde étape. Même si Frédéric Denis est le seul à avoir creusé un véritable écart (42,34 milles et c’est au classement de ce 10 novembre à 08h30). Les maîtres statistiques en tout cas, en attendant le classement final. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Elle a tout d’une grande

Par

 

J’ai déjà dit tout le bien que je pense du travail de Yann Groleau sur Géovoile. J’avais parlé pour la première fois de ce remarquable suivi cartographique au large, il y a près de cinq ans, lorsque j’avais analysé de ce point de vue les coulisses du record autour du monde en solitaire ou du Trophée Jules Verne en équipage. Depuis, Géovoile s’est imposée comme la référence, en France et à l’étranger, son Race Management System (RMS) étant utilisé par la plupart des directions de courses, comme je l’avais raconté l’an dernier ici et .

 

 

Adoptée par la majorité des grandes courses au large, dont la Mini-Transat, la cartographie Géovoile se reconnaît en un coup d’oeil. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

Je souhaite en reparler aujourd’hui à propos de la Mini-Transat avec laquelle tout avait commencé pour Yann (en ce qui concerne la voile), voici dix ans tout juste. Car le remarquable site internet de la Mini propose une cartographie très complète accompagnée de statistiques et de graphiques qu’on avait vu apparaître sur la Barcelona World Race l’hiver dernier.

 

Outre les fondamentaux qui sont la marque de la qualité Géovoile, un graphisme épuré et lisible (y compris pour le vent GFS) avec toutes les fonctionnalités souhaitées – dont l’outil de calcul de distance très pratique pour mesurer des décalages en latéral et le cercle de visibilité théorique permettant de savoir si des concurrents peuvent s’apercevoir -, l’algorithme de routage à cinq jours, très léger, peut être joué de manière tout à fait fluide pour les trois premiers de chaque flotte (protos et séries) comme l’on peut rejouer tout ou partie du parcours d’un skipper ou de la flotte avec la même facilité.

 

 

Où l’on voit sur les graphiques que l’avance de Davy Beaudart ne cesse de progresser depuis le 21 septembre. L’échelle des distances n’est pas assez détaillée sur une course où les écarts sont plus en dizaines qu’en centaines de milles. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

Sous l’onglet Classements, les données sont fort bien présentées et très complètes avec les données route fond et vitesse fond – et au-dessous la VMC (Velocity Made on Course) c’est-à-dire la vitesse de rapprochement vers la marque -, sur une heure, quatre heures et vingt-quatre heures. Auxquels s’ajoutent l’heure UTC de référence, la position et la distance au but ainsi que l’écart au premier. La cartographie est mise à jour six fois par jour, à 6, 9, 12, 15, 18 et 21 heures (heure française), soit 4, 7, 10, 13, 16 et 19 heures UTC.

 

Sous l’onglet Graphiques, les courbes d’analyse permettent de visualiser la vitesse fond point à point, sur quatre ou vingt-quatre heures, ainsi que les écarts et les places occupées au classement, le déplacement du curseur sur les courbes affichant les données correspondantes dans des étiquettes. Si les réponses sont pertinentes en tant que telles, elles deviennent encore plus intéressantes en les corrélant à la météo rencontrée et aux coups stratégiques et tactiques joués, ce qui nécessite d’afficher ces données en écrans multiples. La lisibilité des graphes n’est d’ailleurs pas évidente lorsque les couleurs sont trop ressemblantes et l’idéal serait que des teintes contrastées soient ici affectées aux rangs consécutifs et non à un coureur donné.

 

 

Vendredi 25 septembre à 15h00, le routage fait arriver Davy Beaudart en vainqueur ce samedi 26 à 16h26. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

 

Enfin, l’onglet Statistiques propose les données suivantes dans l’ordre de défilement de la page. Le pourcentage effectué et restant à couvrir sur la route théorique de l’étape, calculée en orthodromie avec, en temps quasi réel, la vitesse moyenne tenue sur le temps écoulé depuis le départ, rapporté à cette même distance théorique. S’y ajoutent la distance réellement parcourue sur le fond, la distance et la vitesse maxi sur 24 heures, le hit-parade des leaders, la chronologie de leurs prises de pouvoir et les écarts maximaux par rapport à eux. Toutes ces fonctionnalités n’ont donc rien à envier à celles proposées sur les autres épreuves. Mais ça on le savait déjà… la Mini, elle a tout d’une grande !

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Triple A

Par

 

Foin d’andouillette ou de notation financière. Ce triple A renvoie aux modèles numériques de prévision de Météo-France, Arpège, Arome et Aladin. Deux d’entre-eux ont connu des développements significatifs dont la phase opérationnelle a débuté le 13 avril 2015. Le troisième est progressivement appelé à disparaître.

 

Forte depuis l’an dernier d’un supercalculateur d’une puissance de calcul de 1 pétaFlop, soit 1 million de milliards d’opérations par seconde, Météo-France assimile près de 22 millions de données par jour pour ses différents modèles. Indépendamment de la prévision de 8 à 15 jours conduite avec le modèle du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) – dont j’ai déjà parlé afin de le comparer à son concurrent américain Global Forecast System (GFS) qui vient d’ailleurs de connaître des développements (ici et ) -, ce sont donc trois modèles que le service français utilise pour ses prévisions à courte échéance.

 

 

Depuis janvier 2014, c’est le supercalculateur Bull B 710 DLC qui est opérationnel chez Météo-France. Sa capacité de calcul est de 1,035 pétaFlops de puissance en crête totale (1 pétaFlop = un million de milliards d’opérations en virgule flottante par seconde). L’architecture parallèle des nouvelles machines offre l’avantage de décomposer les tâches en milliers de sous-tâches simultanées. Ainsi, une prévision à 24 heures sur la France avec le modèle à maille fine Arome ne nécessite plus qu’une demi-heure. (© Météo-France)

 

 

Avec une couverture mondiale, Arpège est utilisé pour prévoir les évolutions des phénomènes de grande échelle (dépressions, anticyclones) à 3 ou 4 jours sur la métropole, l’outremer et sur l’immense domaine maritime français, le second du monde juste derrière celui des États-Unis. Il est utilisé sous forme déterministe, mais aussi dans sa version probabiliste ou ensembliste (Prévision d’ensemble Arpège ou PEARP) afin de mieux tenir compte des incertitudes liées à chaque étape de la prévision (nombreuses simulations pour une même prévision). Sa résolution horizontale passe de 10 à 7,5 km sur l’Europe (de 15 km à 10 km pour la prévision d’ensemble) mais de 60 km à 36 km aux antipodes (de 90 km à 60 km pour la prévision d’ensemble), sur 105 niveaux verticaux au lieu de 70 dans la version précédente.

 

Couvrant la France métropolitaine et une bonne partie de l’Europe occidentale, Arome voit sa résolution horizontale doubler (1,3 au lieu de 2,5 km) et ses niveaux verticaux multipliés par un et demi (90 au lieu de 60). Alimenté par Arpège sur ses marges, Arome produit des prévisions très détaillées, jusqu’à 36 heures en moyenne. Les prévisionnistes l’utilisent pour affiner leurs prévisions à petite échelle des phénomènes dangereux.

 

Dans les deux modèles, les plus bas niveaux étaient depuis longtemps autour de 17 mètres. Ils sont désormais de 5 m dans Arome et de 10 ou 14 m dans Arpège selon qu’il est déterministe ou ensembliste. Les observations prises en compte pour déterminer l’état initial de l’atmosphère intègrent des données issues de nouveaux instruments ou de nouveaux canaux dans les instruments déjà en service (aux premiers rangs desquels les satellites).

 

Pour intégrer ces nouvelles données, les algorithmes d’assimilation ont été revus en profondeur de manière à mieux prendre en compte les informations pertinentes. Dans Arpège, la description des incertitudes a ainsi été considérablement améliorée avec 25 scénarios de prévisions à courte échéance pour l’ensemble d’assimilation au lieu de 6 précédemment. Ces estimations d’incertitudes permettent d’affecter un poids à chaque source de données et d’affiner la qualité de l’état initial des prévisions. Parmi les améliorations attendues sur Arpège, notons la modélisation des tempêtes et la représentation des cumulonimbus.

 

Sous Arome, ce sont justement les prévisions des orages avec leurs précipitations et leurs rafales qui devraient notamment profiter des modifications apportées. Le cycle d’assimilation de ce modèle est désormais basé sur 24 analyses quotidiennes au lieu de 8 dans la version antérieure ce qui permet d’intégrer trois fois plus d’observations radar. La base de données orographiques a été mise à jour vers une représentation plus réaliste des reliefs qui devrait être profitable sur les côtes élevées, par exemple en Méditerranée.

 

 

En ordonnée, le nombre de cellules convectives sur une journée et en abscisse leur surface en kilomètres carrés. La courbe bleue montre les observations par radar, la courbe verte les prévisions par Arome ancienne version et la rouge les prévisions Arome nouvelle version. On voit que celle-ci s’approche au plus près des observations du radar, témoignant du bond accompli dans la modélisation des cellules orageuses. (© Météo-France)

 

 

Visiblement, la ligne directrice de tous ces changements est de recentrer la prévision sur le court terme et la très haute résolution spatiale des risques liés aux phénomènes dangereux en métropole. En ce qui concerne spécifiquement le maritime (qui n’est qu’une toute petite partie des préoccupations nationales), cela devrait avoir indirectement une incidence sur une meilleure prévision des vagues.

 

Comme tout service public, Météo-France doit justifier ses crédits et donc ses résultats auprès des politiques. Le temps de calcul disponible est ainsi très fortement modifié en ce sens. Avant le 13 avril 2015, Arpège en mobilisait plus de 65 % à l’échelle moyenne sur le domaine mondial contre à peine plus de 20 % à l’avenir. Tandis qu’Arome ne va cesser de monter en puissance à l’échelle fine de la métropole, passant de 20 % à 40 % à la fin 2015, auxquels s’ajouteront mi 2016 les 20 % de la version ensembliste d’Arome (telle qu’elle existe aujourd’hui avec Arpège). Arome aura alors pris la place qu’occupait auparavant Arpège dans la mémoire vive du supercalculateur de Météo-France, les 20 % restants étant dévolus aux DOM-TOM et à la Défense.

 

Cependant, la puissance de calcul n’est pas tout. Les recherches sur les méthodes numériques font également leur part du travail. Ainsi, le simple doublement de la résolution horizontale d’Arome nécessiterait normalement une puissance de calcul 8 fois plus importante. Grâce aux dites recherches, le “ surcoût ” réel n’est que de 4,8, ce qui libère de la mémoire pour d’autres calculs. La prévision numérique progresse donc plus vite que la seule augmentation de la capacité de ses ordinateurs dont la hausse est pourtant vertigineuse.

 

 

Depuis janvier 2014, la puissance de calcul est douze fois plus importante qu’auparavant. Par rapport à 1992, elle a été multipliée par 500 000 ! Cela permet de gagner un jour de prévision tous les dix ans, la fiabilité à 4 jours de 2014 équivalant à celle à 3 jours de 2004. (© Météo-France)

 

 

Et le troisième A ? Pour faire écho à son nom, Aladin devrait disparaître. Ce modèle régional (résolution horizontale de 7,5 km) affine Arpège sur les Antilles, la Guyane, la Polynésie française, la Nouvelle-Calédonie, l’océan Indien pour la prévision cyclonique et dans les zones du monde où l’armée française mène des opérations. Dès 2015-2016, Aladin sera progressivement remplacé par Arome grâce au temps de calcul libéré par ailleurs (voir ci-dessus). La prévision des cyclones y gagnera de l’attention. Avec un grand A.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

GFS refait surface (2/2)

Par

 

La nouvelle version de GFS que j’évoquais dans mon premier article devrait améliorer très sensiblement les prévisions. Mais de là à l’utiliser dans les zones côtières de notre façade occidentale où les effets de site et les phénomènes de brises sont importants, ou dans une mer fermée comme la Méditerranée où l’influence des terres et surtout des reliefs est aussi considérable que la multiplicité des îles, il y a un pas optimiste que je ne franchirai pas.

 

 

Sur la Méditerranée occidentale, l’Italien LaMMA propose une déclinaison régionale de GFS avec son modèle WRF. Ici le vent moyen à 10 m, à 5 jours avec une résolution de 12 km. (© LaMMA)

 

 

 

Avec cette mise à jour de GFS, Arpège qui est le modèle mondial de Météo-France avec des prévisions à 4 jours dont la maille horizontale est optimisée à 10 kilomètres sur l’Europe de l’Ouest (sur 70 niveaux au total) n’est plus aussi compétitif. Ce modèle Arpège HR (pour haute résolution, 10 km) est visible ici sur Previmer (simple visualisation sur petite carte à 3 jours).

 

En effet, une déclinaison régionale de GFS telle que le modèle WRF (Weather Research and Forecasting) qui prend bien en compte la topographie (en particulier les reliefs de la côte et de l’arrière-pays) devrait bénéficier directement de l’amélioration de GFS (en l’occurrence du modèle proprement dit d’une part et de sa hausse de résolution d’autre part) alors que nombre de sites météo utilisent ses ressources, notamment dans sa version NMM (Nonhydrostatic Mesoscale Model) qui offre une résolution horizontale fine (jusqu’à 4 km), un exemple ici avec Meteociel (5 km) ou pour la Méditerranée occidentale, ici avec le très bon LaMMA (mais 12 km seulement dans sa version moyenne résolution).

 

Cela dit, pour la courte échéance, les vrais modèles à maille fine - qui réalisent l’assimilation à haute résolution -, sont à privilégier, tout particulièrement en Méditerranée où il faut utiliser en priorité ceux développés par les services locaux. En voici quelques exemples que j’utilise régulièrement, sans aucune prétention d’exhaustivité. En Italie, on trouve ainsi l’excellent modèle LaMMA HR qui n’est autre qu’un WRF utilisant le modèle CEP sur 3 jours avec une résolution horizontale de 3 km, hélas pas sur tout le pourtour de l’Italie et de ses îles.

 

 

Développé par l’université d’Athènes, Poseidon est un excellent modèle à maille fine pour la Grèce (en dépit d’un affichage dont le graphisme et le positionnement gagneraient à être plus précis), ici les Cyclades avec le vent moyen à 10 m, à 3 jours. (© Poseidon)

 

 

En Grèce, c’est le fort bon système Poseidon pour toutes les zones en mer Ionienne et en mer Égée (utiliser la visualisation zoomée sur chaque bassin en passant par l’onglet Sailing Forecast). Sa résolution horizontale est de 1/30 degré, soit 0,03 degré. Dans les deux cas (italien et grec), les données sont gratuites mais il ne s’agit que de visualisations sans fichiers Grib. Tandis que OpenSkiron permet de télécharger des Grib lisibles sur zyGrib, proposés par zones de la Méditerranée (exemple : mer Égée, mais la résolution de calcul et d’affichage aux points de grille n’est plus que de 0,1 degré). Leur provenance est l’université d’Athènes qui réalise et gère le service Poseidon.

 

Côté Météo-France, le modèle numérique de prévision Arome offre une maille de calcul de 2,5 kilomètres (qui doit passer à 1,3 km en ce début 2015 !). Il intègre les données issues des observations locales, par exemple celles des vents doppler des radars météo, et il peut prendre en compte des éléments au sol plus précis, afin de modéliser les îlots de chaleur.

 

Arome voit beaucoup plus le relief littoral et les autres effets de sites qu’un modèle global comme GFS, y compris les brises thermiques, les effets de pointe ou les effets venturi. Enfin, il prend mieux en compte les mouvements verticaux et la modélisation des phénomènes convectifs aux abords des côtes, en particulier les orages. Pour la courte échéance, de une à trente-six heures, la finesse est très supérieure à GFS.

 

 

Le même modèle Poseidon, exploité en grib via le site OpenSkiron et affiché ici sous zyGrib sur les seuls points de grille pour la mer Égée. La résolution (0,1 degré) est trois fois inférieure à celle proposée en affichage simple sur le site Poseidon (0,03 degré). (© zyGrib /Olivier Chapuis)

 

 

Mais ce modèle n’est accessible qu’avec Navimail 2.1.3, lequel propose ainsi une maille jusqu’à 0,025° avec Arome, soit un point de grille tous les 1,5 milles (ou 2,78 kilomètres), ce qui est de la très haute résolution (Navimail 2.1.3 à télécharger ici pour le côtier et ici pour le large) Ces données sont payantes. Celles du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF) le sont aussi.

 

Je ne suis pas un partisan de la libéralisation à outrance, c’est un euphémisme, mais on peut s’interroger – comme le faisait l’an dernier Francis Fustier dans son remarquable blog Navigation Mac -, sur le fait de savoir jusqu’à quand ce sera tenable vis-à-vis des citoyens et contribuables européens qui en financent une large partie. Ouvrir ces données aux développeurs qui veulent y ajouter de la valeur serait effectivement une bonne idée. À condition qu’elles le soient aussi aux utilisateurs lambda en libre accès, au minimum à un format brut exploitable comme les fichiers Grib. Ce serait d’autant plus judicieux que CEP était reconnu meilleur que GFS… en tout cas jusqu’à la mise à jour majeure que vient de connaître ce dernier.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

GFS refait surface (1/2)

Par

 

D’accord, mon titre est quelque peu provocateur. Le modèle numérique de prévision GFS (Global Forecast System) n’a jamais sombré. Mais de l’aveu même des Américains qui le produisent, il était en retard sur son concurrent européen, le modèle IFS (Integrated Forecast System) du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF), couramment appelé modèle CEP en France et utilisé notamment par Météo-France et les autres services européens (Royaume-Uni, Allemagne…).

 

 

Une requête avec zyGrib du GFS maille 0,25 degré (spécifiée en haut à gauche). (© zyGrib / Olivier Chapuis)

 

 

L’américain GFS et l’européen CEP sont les modèles numériques de prévision les plus utilisés au large. Leur couverture est globale pour des échéances à moyen et long terme tandis que les autres modèles globaux sont limités à la courte échéance, à l’instar d’Arpège de Météo-France (mais avec un pas de temps de 10 minutes dans son cas). Parce qu’ils divergent souvent, GFS et CEP sont complémentaires.

 

Développé par le National Centers for Environmental Prediction (NCEP), dépendant du National Weather Service (NWS) de la National Oceanic and Atmospheric Administration (NOAA) des États-Unis, le modèle GFS propose une nouvelle version qui est opérationnelle depuis le 14 janvier 2015. Parmi toutes les améliorations apportées dont on trouvera le détail exhaustif ici – aussi bien pour l’assimilation que pour le mode de calcul de l’algorithme, en ne parlant que du modèle atmosphérique, indépendamment du modèle océanique d’état de la mer -, l’évolution la plus marquante pour le public concerne la résolution horizontale proposée dans les fichiers Grib (Gridded binary).

 

 

MaxSea Time Zero, via son serveur, ne prend pas encore en compte la nouvelle résolution : ici la maille 0,50 degré le 29 janvier 2015 sur le golfe de Gascogne (base 00h00 UTC, prévision à 18h00 UTC ici, 19h00 locale). (© MaxSea Time Zero / Olivier Chapuis)

 

 

Elle passe à 0,25 degré contre 0,5 degré auparavant. Sa densité est donc quatre fois supérieure. La résolution 0,5 degré est toujours disponible ce qui est une bonne chose car les fichiers à 0,25 degré sont quatre fois plus gros et cela peut coûter cher pour les télécharger par satellite au large. Mais à terre, ce n’est que bénéfice.

 

Le 29 janvier 2015 au même point 47° 23’ N / 06° 40’ W, avec le GFS 0,25 degré, on retrouve le même vent moyen à 10 m au 309° / 39, 2 N contre 306° / 39,5 N pour le GFS 0,5 degré de l’image précédente (toujours base 00h00 UTC, prévision à 18h00 UTC). (© zyGrib / Olivier Chapuis)

 

 

Cette résolution en sortie de modèle ne doit pas être confondue avec celle en entrée de modèle, dans la phase d’assimilation des données (pour le NCEP il s’agit du Global Data Assimilation System, GDAS, qui connaît lui aussi des améliorations avec cette mise à jour). La résolution horizontale de calcul GFS Global Spectral Model vient de passer de 27 kilomètres (14,58 milles) à 13 kilomètres (7,02 milles) et de 192 heures (8 jours) à 240 heures (10 jours) pour les prévisions à court et moyen terme (10 jours est aussi l’échéance maximale pour un fichier Grib 0,25 degré). Pour les prévisions à long terme, elles sont passées de 70 kilomètres (129,64 milles) à 35 kilomètres (155,57 milles), entre 240 et 384 heures (16 jours).

 

Le pas de temps le plus fin reste de 3 heures et sur 64 niveaux verticaux (sommet à 0,2 hPa) avec 366 variables par point de grille (chaque point de grille fait référence à une position géographique à un niveau donné définissant un quadrillage en trois dimensions qui découpe l’atmosphère en cubes ; on passe à quatre dimensions lorsque le modèle tourne, en ajoutant une dimension de temps). GFS calcule une prévision toutes les 6 heures, aux heures synoptiques principales (en anglais, le run servant de base au calcul), soit 00h00, 06h00, 12h00 et 18h00 UTC (avec des performances différentes, les meilleures étant celles de 00h00 et 12h00 UTC). Les fichiers Grib sont mis en ligne quatre fois par jour, cinq heures après les heures synoptiques principales (toujours avec des pas de 3 heures jusqu’à 10 jours et des mailles horizontales à choisir entre 0,25, 0,5, 1 et 2,5 degrés).

 

 

Avec la maille 0,25 degré, la visualisation de GFS présente une densité quatre fois supérieure à la maille 0,50 degré telle qu’à l’image 2. (© zyGrib / Olivier Chapuis)

 

 

Les sorties du modèle numérique de prévision GFS sont proposées gratuitement à tous les utilisateurs (dont les développeurs des programmes de sélection, de téléchargement et de visualisation des Grib, avec ou sans routage à la clé) via les serveurs NOMADS (NOAA Operational Model Archive and Distribution System), au format Grib 2, par exemple celui-ci pour le GFS de maille 0,25 degré. Ces serveurs sont utilisables directement mais leur ergonomie est bien moins agréable que celle des meilleurs programmes. Ainsi, l’excellent zyGrib (à télécharger ici) – programme gratuit de visualisation simple – intègre déjà cette maille à 0,25 degré comme le non moins réputé Weather 4D (application payante de visualisation des Grib mais aussi de routage) qui le fait depuis novembre pour son application Android (alors que la maille 0,25 était en phase de test au NCES) et depuis le 15 janvier sous iOS (mobiles Apple) pour les zones France et Europe, tandis que d’autres programmes ne proposent encore que les Grib GFS à 0,5 degré (c’est le cas de Grib.us pour Ugrib et de MaxSea Time Zero ce 29 janvier).

 

Le gros travail entrepris sur cette mise à jour de GFS est notamment dû à quelques ratés de prévision qui s’étaient produits en octobre 2012 lors du cyclone Sandy qui, après les Grandes Antilles dont Haïti, avait frappé très durement la côte Est des États-Unis jusqu’à New York. On peut en voir l’analyse du NCEP ici.

 

 

Pour ne pas accréditer la fausse illusion d’une haute résolution qui n’en est pas une, il est recommandé de n’afficher que les flèches de vent correspondant aux points de grille Grib, autrement dit de désactiver l’interpolation spatiale. (© zyGrib / Olivier Chapuis)

 

 

Suite la semaine prochaine avec l’impact sur la pseudo haute résolution comparée à la vraie haute résolution.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.