Skip to Content

Category Archives: High-tech

Micmac en mer Noire

Par

 

C’est une guerre secrète qui touche le GPS et à laquelle Galileo n’échappera pas plus que les autres systèmes GNSS (Global Navigation Satellite System). Le brouillage ou, plus grave encore, le piratage de la navigation par satellite sont inhérents à la mise à disposition du Global Positioning System américain sur l’ensemble de la planète et à la géolocalisation qui a envahi l’économie mondiale.

 

 

Pas de satellite reçu ! Votre antenne ou votre récepteur ne sont pas en cause ? C’est vraisemblablement un brouillage du système GPS ! Si vous avez activé l’alarme de perte de position sur votre récepteur, votre logiciel de navigation ou votre traceur, vous en serez immédiatement averti (un buzzer en sortie peut être bien utile pour entendre la sonnerie dans le bruit ambiant). Un piratage sera beaucoup plus difficile à déceler (voir ci-dessous)… (© Garmin / Olivier Chapuis)

 

 

Je l’avais raconté en détail voici huit ans, un code M – moins vulnérable -, est en préparation pour les forces armées américaines. Son lancement initial était prévu pour 2016 mais, de même que l’Europe, les États-Unis ont pris du retard. Le GPS III ne devrait voir son premier satellite lancé qu’au printemps 2018, le bloc 0 (lancement et contrôles) venant de commencer ses tests finaux en ce mois d’octobre, tandis que le bloc 2 du Next-Generation Operational Control Segment (OCX) se rapportant aux usages militaires ne sera livré à l’US Air Force qu’en avril 2022.

 

S’il en était besoin, un événement survenu le 22 juin dernier en mer Noire justifie pleinement ce développement de la troisième génération du GPS. L’officier de quart à la passerelle d’un bâtiment devant Novorossiisk (Russie) a vu son point GPS transporté… à l’aéroport, à vingt-cinq milles de sa position. Vingt autres équipages de navires auraient rapporté la même aberration dans leur positionnement GPS (visible sur l’AIS). Il n’est pas exclu qu’un test d’attaque électronique ait été effectué ce jour là, peut-être par les Russes, en relation avec la guerre qu’ils mènent en Ukraine.

 

 

Même si le mode GPS est rarement utilisé à la voile sous pilote automatique (contrairement aux bateaux à moteur qui l’emploient énormément avec toutes les conséquences que cela peut engendrer… y compris en termes de risque de collision lorsqu’ils naviguent tous vers un même waypoint issu d’une base de données fournisseur…), le brouillage ou le piratage du signal GPS peuvent avoir des effets dramatiques si l’on ne surveille pas régulièrement l’adéquation de sa position à l’écran avec ce qu’on relève à vue autour de soi. Que l’on soit sous pilote ou pas. (© Olivier Chapuis)

 

 

Pour être précis, il ne s’agissait pas d’un bruit sur le signal empêchant la réception GPS – brouillage classique qui a au moins le mérite d’être détectable par une alarme de perte de position -, mais d’un leurre envoyé aux récepteurs, vraisemblablement depuis une station terrestre. Plutôt qu’à “ mourir ” en se taisant dans le cas d’un simple brouillage, le piratage conduit le récepteur GPS à “ mentir ” tout en affichant une réception normale du signal, ce qui est autrement insidieux et dangereux si l’on ne surveille pas de près ses écrans et l’environnement sur le terrain…

 

Cet incident a été identifié par Todd Humphreys (Université du Texas à Austin) comme étant très proche de ce qu’il avait délibérément provoqué au cours d’une expérience. Avec son équipe, il avait démontré qu’il pouvait leurrer le système de navigation d’un super yacht et prendre ainsi le contrôle de sa route s’il était sous pilote automatique en mode GPS. L’article qu’il a publié à cet égard, en mars 2017 dans la revue américaine Navigation, est consultable ici. Ce piratage du signal GPS par des hackers (crackers), qu’ils soient mafieux, terroristes ou plaisantins, serait d’une relative simplicité. A fortiori par des états.

 

 

La précision du système GPS est liée à la configuration géométrique des satellites visibles, mesurée par un coefficient d’affaiblissement de la précision du positionnement, le Position Dilution of Precision (PDOP), dont seule la composante horizontale (l’Horizontal Dilution of Precision : HDOP) intéresse les navigateurs (l’altitude étant considérée quasi constante en mer). Le PDOP doit être inférieur à 6 pour être acceptable ce qui correspond à une précision horizontale de 30 mètres. Après l’arrêt de la dégradation systématique du signal GPS pour les civils, le 1er mai 2000, on pouvait compter sur une précision horizontale de 20 mètres, avec une configuration moyenne de 4 satellites (PDOP égal à 4) et une probabilité de 95 %. Cette précision pouvait atteindre 5 à 10 mètres dans les meilleurs cas. C’est désormais 1 à 5 mètres de façon non permanente (mieux avec l’aide du différentiel) mais attention, la précision de la cartographie ne suit pas ! Cette précision pouvait se dégrader à 60 mètres environ dans les moins bonnes conditions normales de fonctionnement (PDOP égal à 12). Ici, le PDOP de 1.5 est de 1.5/12 de ce maximum admissible. L’ECP (Écart circulaire probable) – équivalent de l’Accuracy (Précision) -, est ainsi égal à 2 mètres, c’est-à-dire que 50 % des positions calculées sont dans un cercle de 2 mètres de rayon ! Dorénavant, avec le piratage du signal GPS, vous pouvez avoir de tels paramètres à l’écran de votre récepteur tout en ayant une position erronée à plusieurs dizaines de milles près ! Si vous deviez constater une telle aberration que vous n’expliqueriez pas par vos propres investigations sur la qualité de votre réception (critère désormais insuffisant comme je viens de l’expliquer), le bon réglage du système géodésique de votre cartographie électronique et la bonne qualité de celle-ci, il vous faudrait la signaler ici (U.S. Coast Guard Navigation Center). (© Thales / Olivier Chapuis)

 

 

Quoi qu’il en soit, pour pallier l’écran noir ou le micmac assuré (à terre ou dans les airs avec des conséquences également apocalyptiques, à la hauteur de la géolocalisation généralisée… mais c’est notre navigation maritime que j’évoque ici), le bon sens – entendez le sens marin -, impose de contrôler systématiquement la qualité et la fiabilité de son positionnement par satellite. Et, de conserver à bord un jeu de cartes papier, une règle Cras, un compas de relèvement (voire un sextant et les tables afférentes pour une navigation au long cours). Pratiquer mon tout relève du bon vieux soliloque du navigateur. Il consiste aussi à échanger avec son récepteur GPS, Galileo ou autre…

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

À la recherche du temps perdu

Par

 

Longtemps, il s’est annoncé de bonne heure. Galileo, le système européen de navigation par satellites, n’en finit pas d’avoir des problèmes. Après un retard et un surcoût considérables, guère surprenants pour un projet international de cette ampleur, dont quelques flops retentissants à l’instar d’une mauvaise mise sur orbite en 2014, ce sont ses précieuses horloges atomiques qui s’avèrent fragilisées, ainsi que cela a été révélé mi-janvier 2017.

 

 

Sur les trente prévus à terme (en comptant les six de secours), dix-huit satellites Galileo sont déployés en orbite circulaire… avec un défaut sur leurs horloges atomiques qui ne pourra pas être repris à distance pour les horloges au rubidium mais qui sera corrigé sur les douze satellites restant à lancer. (©  ESA / P. Carril)

 

 

Soit, un mois après la date à laquelle Galileo est devenu partiellement opérationnel, le 15 décembre 2016… huit ans au-delà de la date prévue. Pour mémoire, le programme avait été décidé en 1999 et le premier satellite mis sur orbite en décembre 2005. Le 17 novembre 2016, les satellites numéros 15 à 18 ont été lancés d’un coup, avec succès depuis Kourou en Guyane, par une fusée Ariane 5.

 

Avec 18 satellites en orbite circulaire à 23 222 kilomètres d’altitude, Galileo prenait enfin sa place au sein du GNSS mondial (Global Navigation Satellite System), aux côtés du GPS américain, du GLONASS russe et du Beidou chinois. La constellation de 24 satellites devrait être complète en 2020 pour un système alors pleinement opérationnel (il y en aura 6 supplémentaires en secours, soit 30 au total).

 

Bien que considérable, ce délai n’a pas eu que des inconvénients : Galileo a pu s’adapter au boom de la géolocalisation, des drones, des véhicules autonomes et des objets connectés nécessitant une précision de quelques centimètres qu’offriront à terme les services payants. Depuis l’hiver dernier, outre la recherche et le sauvetage (SAR ou Search and Rescue), les services gratuits sont accessibles avec un positionnement au mètre près.

 

Hormis les balises de détresse (ce qui n’est pas rien) et la course au large où les pilotes automatiques ont besoin de données très précises, la navigation de plaisance n’a que faire d’une telle précision, si ce n’est pour l’alarme de mouillage… à condition de ne pas trop éviter ! Encor faut-il disposer d’un récepteur GPS, d’une tablette ou d’un téléphone intégrant un jeu de puces (chipset) de localisation compatible Galileo, ce qui est loin d’être généralisé pour les équipements grand public.

 

 

Le positionnement à moins d’un mètre près n’est pas une préoccupation essentielle en navigation de plaisance. Même pas au mouillage, sous peine d’être réveillé sans cesse pour cause d’évitage… (©  Olivier Chapuis)

 

 

En effet, si les systèmes GNSS sont bien compatibles, les récepteurs ne le sont qu’à cette condition. Tant qu’à faire, contrôlez aussi leur compatibilité avec GLONASS et assurez vous de bien disposer du différentiel par satellite pour l’augmentation de la précision (WAAS pour Wide Area Augmentation System ou EGNOS pour European Geostationary Navigation Overlay Service). Enfin, quoi qu’il en soit, n’oubliez surtout pas que la plupart des cartes marines ne permettent pas une navigation sûre au mètre près…

 

Mais je reviens à ce problème d’horloge. Chaque satellite Galileo compte quatre horloges atomiques. Deux sont des masers à hydrogène passif (dont l’un en redondance inactive) d’une précision d’environ une nanoseconde (un milliardième de seconde) par vingt-quatre heures (une seconde en… trois millions d’années). Ces masers sont la fierté de Galileo qui revendique ainsi une précision horaire supérieure à celle du GPS. Elle sera entre autres valorisée dans la synchronisation des systèmes pour les transactions financières, l’énergie ou les télécommunications.

 

Deux autres sont des horloges au rubidium d’une précision de dix nanosecondes par jour. L’une, en redondance active, prend immédiatement la relève du maser à hydrogène en cas de panne de celui-ci, afin d’éviter toute interruption du signal. L’autre est en redondance passive. Sur les soixante-douze horloges des dix-huit satellites en orbite, près de vingt seraient touchées par un dysfonctionnement et neuf seraient même hors service, trois au rubidium et six à l’hydrogène. Un seul satellite serait victime d’une panne de deux de ses quatre horloges.

 

La Commission européenne vient de révéler qu’un composant défectueux – coûtant quelques dollars ou plutôt quelques euros :) -, aurait été identifié par l’Agence spatiale européenne (European Space Agency ou ESA) comme le responsable d’un court-circuit sur les horloges au rubidium, incident que l’Inde aurait également subi sur son système régional de navigation par satellites.

 

 

Ici en cours d’intégration dans un satellite Galileo, les deux masers sont à gauche et les deux horloges au rubidium au centre. (© Philip Davies / Surrey Satellite Technology Ltd)

 

 

 

Une difficulté aurait aussi été analysée dans le mode d’utilisation des masers en orbite, lequel aurait été modifié depuis. Dans les deux cas, les services Galileo ne seraient pas affectés par ces avaries, en cours de correction sur les prochains satellites dont quatre doivent être lancés en décembre par Arianespace. Derrière le diagnostic et ses solutions, la guerre économique fait rage entre recalés et reçus aux appels d’offres, certains étant reconduits en dépit de ces défaillances. Le temps perdu n’a pas la même valeur pour tout le monde.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

Maman les p’tits bateaux

Par

 

Il y a les bateaux qui volent et ceux qui font du stationnaire au-dessus de la surface. Leurs jambes descendent jusqu’à se poser au fond de la mer pour leur donner la stabilité nécessaire à de grands travaux tels que la pose d’éoliennes. Il y a trois ans et demi, je vous avais présenté le plus grand navire du genre. Mais on n’a guère l’occasion de les observer en mer puisque la navigation est interdite au milieu des champs éoliens, comme ici au Danemark où est basée la société DBB. Bientôt, l’on verra pourtant se multiplier ces scènes insolites au large de nos côtes. D’où l’intérêt du reportage photo qu’elle nous propose.

 

 

Au port, le Jack-Up (navire auto-élévateur) Wind Server – 79,30 X 32,30 mètres à la flottaison – remonte au maximum ses quatre jambes de 75,10 mètres. (© DBB)

 

 

Arrivé sur zone, le Wind Server descend ses quatre jambes jusqu’au fond et s’élève alors d’un mètre par minute. (© DBB)

 

 

Le navire stabilisé hors de l’eau, en position de travail, la grue peut être déployée ; ici, pour démonter une éolienne réformée. (© DBB)

 

 

Avec un autre bâtiment de la compagnie, notez l’échelle fournie par les hommes d’équipage, sur le pont à côté de la grue. Les dimensions et la masse des mâts et des pales d’éoliennes imposent de grandes précautions pour les manutentions. (© DBB)

 

 

Le même, de profil, avec la passerelle permettant les va-et-vient entre le navire et la plateforme à la base de l’éolienne. (© DBB)

 

 

L’éolienne réformée est en cours de dépose sur le pont du Wind Server. L’homme d’équipage donne l’échelle devant le pied de la machine. (© DBB)

 

 

Le Wind Server est totalement hissé sur ses jambes, lors de ses essais aux chantiers allemands Nordic Yards en 2014. (© DBB)

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.
Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Mini bombes

Par

 

Quelques tableaux valent mieux qu’un long discours. J’ai récemment parlé de ceux proposés par Géovoile sur la Mini-Transat. Au vu des performances hallucinantes réalisées par les leaders de la course en approche de la Guadeloupe, j’y reviens en quatre captures d’écran afin de bien en prendre toute la mesure.

 

 

Rapportée à la distance effectivement parcourue en orthodromie ce 10 novembre à 08h00 UTC, soit 2140,53 milles pour le leader des protos (77,12 % de la distance totale de cette seconde étape), la moyenne de celui-ci est de 9,2 noeuds. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

Sur le fond, ce même leader a parcouru au même moment 2567,59 milles, soit une moyenne effective de 11 noeuds ! Le deux leaders en série affichent quant à eux 10 noeuds de moyenne sur leur route fond… mon tout sur des bateaux de 6,50 mètres. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

Si le record des 24 heures n’est pas encore tombé chez les protos avec 295,57 milles à 12,3 noeuds (sauf erreur de ma part, il appartient toujours à Bertrand Delesne sur Les Sables/Açores/Les Sables en 2010 avec 304,9 milles), il vient d’être battu en séries avec 278,77 milles à 11,6 noeuds pour Julien Pulvé (Novintiss) détrônant ainsi Xavier Macaire sur cette même édition de Les Sables/Açores/Les Sables. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

 Avec respectivement 56 et 41 pointages en tête, les chiffres proposés par Géovoile sont sans appel : Frédéric Denis (Nautipark) et Ian Lipinski (Entreprise(s) innovante(s)) sont les maîtres de cette seconde étape. Même si Frédéric Denis est le seul à avoir creusé un véritable écart (42,34 milles et c’est au classement de ce 10 novembre à 08h30). Les maîtres statistiques en tout cas, en attendant le classement final. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Elle a tout d’une grande

Par

 

J’ai déjà dit tout le bien que je pense du travail de Yann Groleau sur Géovoile. J’avais parlé pour la première fois de ce remarquable suivi cartographique au large, il y a près de cinq ans, lorsque j’avais analysé de ce point de vue les coulisses du record autour du monde en solitaire ou du Trophée Jules Verne en équipage. Depuis, Géovoile s’est imposée comme la référence, en France et à l’étranger, son Race Management System (RMS) étant utilisé par la plupart des directions de courses, comme je l’avais raconté l’an dernier ici et .

 

 

Adoptée par la majorité des grandes courses au large, dont la Mini-Transat, la cartographie Géovoile se reconnaît en un coup d’oeil. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

Je souhaite en reparler aujourd’hui à propos de la Mini-Transat avec laquelle tout avait commencé pour Yann (en ce qui concerne la voile), voici dix ans tout juste. Car le remarquable site internet de la Mini propose une cartographie très complète accompagnée de statistiques et de graphiques qu’on avait vu apparaître sur la Barcelona World Race l’hiver dernier.

 

Outre les fondamentaux qui sont la marque de la qualité Géovoile, un graphisme épuré et lisible (y compris pour le vent GFS) avec toutes les fonctionnalités souhaitées – dont l’outil de calcul de distance très pratique pour mesurer des décalages en latéral et le cercle de visibilité théorique permettant de savoir si des concurrents peuvent s’apercevoir -, l’algorithme de routage à cinq jours, très léger, peut être joué de manière tout à fait fluide pour les trois premiers de chaque flotte (protos et séries) comme l’on peut rejouer tout ou partie du parcours d’un skipper ou de la flotte avec la même facilité.

 

 

Où l’on voit sur les graphiques que l’avance de Davy Beaudart ne cesse de progresser depuis le 21 septembre. L’échelle des distances n’est pas assez détaillée sur une course où les écarts sont plus en dizaines qu’en centaines de milles. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

Sous l’onglet Classements, les données sont fort bien présentées et très complètes avec les données route fond et vitesse fond – et au-dessous la VMC (Velocity Made on Course) c’est-à-dire la vitesse de rapprochement vers la marque -, sur une heure, quatre heures et vingt-quatre heures. Auxquels s’ajoutent l’heure UTC de référence, la position et la distance au but ainsi que l’écart au premier. La cartographie est mise à jour six fois par jour, à 6, 9, 12, 15, 18 et 21 heures (heure française), soit 4, 7, 10, 13, 16 et 19 heures UTC.

 

Sous l’onglet Graphiques, les courbes d’analyse permettent de visualiser la vitesse fond point à point, sur quatre ou vingt-quatre heures, ainsi que les écarts et les places occupées au classement, le déplacement du curseur sur les courbes affichant les données correspondantes dans des étiquettes. Si les réponses sont pertinentes en tant que telles, elles deviennent encore plus intéressantes en les corrélant à la météo rencontrée et aux coups stratégiques et tactiques joués, ce qui nécessite d’afficher ces données en écrans multiples. La lisibilité des graphes n’est d’ailleurs pas évidente lorsque les couleurs sont trop ressemblantes et l’idéal serait que des teintes contrastées soient ici affectées aux rangs consécutifs et non à un coureur donné.

 

 

Vendredi 25 septembre à 15h00, le routage fait arriver Davy Beaudart en vainqueur ce samedi 26 à 16h26. (© Mini-Transat Îles de Guadeloupe 2015 / Géovoile)

 

 

 

Enfin, l’onglet Statistiques propose les données suivantes dans l’ordre de défilement de la page. Le pourcentage effectué et restant à couvrir sur la route théorique de l’étape, calculée en orthodromie avec, en temps quasi réel, la vitesse moyenne tenue sur le temps écoulé depuis le départ, rapporté à cette même distance théorique. S’y ajoutent la distance réellement parcourue sur le fond, la distance et la vitesse maxi sur 24 heures, le hit-parade des leaders, la chronologie de leurs prises de pouvoir et les écarts maximaux par rapport à eux. Toutes ces fonctionnalités n’ont donc rien à envier à celles proposées sur les autres épreuves. Mais ça on le savait déjà… la Mini, elle a tout d’une grande !

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

Triple A

Par

 

Foin d’andouillette ou de notation financière. Ce triple A renvoie aux modèles numériques de prévision de Météo-France, Arpège, Arome et Aladin. Deux d’entre-eux ont connu des développements significatifs dont la phase opérationnelle a débuté le 13 avril 2015. Le troisième est progressivement appelé à disparaître.

 

Forte depuis l’an dernier d’un supercalculateur d’une puissance de calcul de 1 pétaFlop, soit 1 million de milliards d’opérations par seconde, Météo-France assimile près de 22 millions de données par jour pour ses différents modèles. Indépendamment de la prévision de 8 à 15 jours conduite avec le modèle du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) – dont j’ai déjà parlé afin de le comparer à son concurrent américain Global Forecast System (GFS) qui vient d’ailleurs de connaître des développements (ici et ) -, ce sont donc trois modèles que le service français utilise pour ses prévisions à courte échéance.

 

 

Depuis janvier 2014, c’est le supercalculateur Bull B 710 DLC qui est opérationnel chez Météo-France. Sa capacité de calcul est de 1,035 pétaFlops de puissance en crête totale (1 pétaFlop = un million de milliards d’opérations en virgule flottante par seconde). L’architecture parallèle des nouvelles machines offre l’avantage de décomposer les tâches en milliers de sous-tâches simultanées. Ainsi, une prévision à 24 heures sur la France avec le modèle à maille fine Arome ne nécessite plus qu’une demi-heure. (© Météo-France)

 

 

Avec une couverture mondiale, Arpège est utilisé pour prévoir les évolutions des phénomènes de grande échelle (dépressions, anticyclones) à 3 ou 4 jours sur la métropole, l’outremer et sur l’immense domaine maritime français, le second du monde juste derrière celui des États-Unis. Il est utilisé sous forme déterministe, mais aussi dans sa version probabiliste ou ensembliste (Prévision d’ensemble Arpège ou PEARP) afin de mieux tenir compte des incertitudes liées à chaque étape de la prévision (nombreuses simulations pour une même prévision). Sa résolution horizontale passe de 10 à 7,5 km sur l’Europe (de 15 km à 10 km pour la prévision d’ensemble) mais de 60 km à 36 km aux antipodes (de 90 km à 60 km pour la prévision d’ensemble), sur 105 niveaux verticaux au lieu de 70 dans la version précédente.

 

Couvrant la France métropolitaine et une bonne partie de l’Europe occidentale, Arome voit sa résolution horizontale doubler (1,3 au lieu de 2,5 km) et ses niveaux verticaux multipliés par un et demi (90 au lieu de 60). Alimenté par Arpège sur ses marges, Arome produit des prévisions très détaillées, jusqu’à 36 heures en moyenne. Les prévisionnistes l’utilisent pour affiner leurs prévisions à petite échelle des phénomènes dangereux.

 

Dans les deux modèles, les plus bas niveaux étaient depuis longtemps autour de 17 mètres. Ils sont désormais de 5 m dans Arome et de 10 ou 14 m dans Arpège selon qu’il est déterministe ou ensembliste. Les observations prises en compte pour déterminer l’état initial de l’atmosphère intègrent des données issues de nouveaux instruments ou de nouveaux canaux dans les instruments déjà en service (aux premiers rangs desquels les satellites).

 

Pour intégrer ces nouvelles données, les algorithmes d’assimilation ont été revus en profondeur de manière à mieux prendre en compte les informations pertinentes. Dans Arpège, la description des incertitudes a ainsi été considérablement améliorée avec 25 scénarios de prévisions à courte échéance pour l’ensemble d’assimilation au lieu de 6 précédemment. Ces estimations d’incertitudes permettent d’affecter un poids à chaque source de données et d’affiner la qualité de l’état initial des prévisions. Parmi les améliorations attendues sur Arpège, notons la modélisation des tempêtes et la représentation des cumulonimbus.

 

Sous Arome, ce sont justement les prévisions des orages avec leurs précipitations et leurs rafales qui devraient notamment profiter des modifications apportées. Le cycle d’assimilation de ce modèle est désormais basé sur 24 analyses quotidiennes au lieu de 8 dans la version antérieure ce qui permet d’intégrer trois fois plus d’observations radar. La base de données orographiques a été mise à jour vers une représentation plus réaliste des reliefs qui devrait être profitable sur les côtes élevées, par exemple en Méditerranée.

 

 

En ordonnée, le nombre de cellules convectives sur une journée et en abscisse leur surface en kilomètres carrés. La courbe bleue montre les observations par radar, la courbe verte les prévisions par Arome ancienne version et la rouge les prévisions Arome nouvelle version. On voit que celle-ci s’approche au plus près des observations du radar, témoignant du bond accompli dans la modélisation des cellules orageuses. (© Météo-France)

 

 

Visiblement, la ligne directrice de tous ces changements est de recentrer la prévision sur le court terme et la très haute résolution spatiale des risques liés aux phénomènes dangereux en métropole. En ce qui concerne spécifiquement le maritime (qui n’est qu’une toute petite partie des préoccupations nationales), cela devrait avoir indirectement une incidence sur une meilleure prévision des vagues.

 

Comme tout service public, Météo-France doit justifier ses crédits et donc ses résultats auprès des politiques. Le temps de calcul disponible est ainsi très fortement modifié en ce sens. Avant le 13 avril 2015, Arpège en mobilisait plus de 65 % à l’échelle moyenne sur le domaine mondial contre à peine plus de 20 % à l’avenir. Tandis qu’Arome ne va cesser de monter en puissance à l’échelle fine de la métropole, passant de 20 % à 40 % à la fin 2015, auxquels s’ajouteront mi 2016 les 20 % de la version ensembliste d’Arome (telle qu’elle existe aujourd’hui avec Arpège). Arome aura alors pris la place qu’occupait auparavant Arpège dans la mémoire vive du supercalculateur de Météo-France, les 20 % restants étant dévolus aux DOM-TOM et à la Défense.

 

Cependant, la puissance de calcul n’est pas tout. Les recherches sur les méthodes numériques font également leur part du travail. Ainsi, le simple doublement de la résolution horizontale d’Arome nécessiterait normalement une puissance de calcul 8 fois plus importante. Grâce aux dites recherches, le “ surcoût ” réel n’est que de 4,8, ce qui libère de la mémoire pour d’autres calculs. La prévision numérique progresse donc plus vite que la seule augmentation de la capacité de ses ordinateurs dont la hausse est pourtant vertigineuse.

 

 

Depuis janvier 2014, la puissance de calcul est douze fois plus importante qu’auparavant. Par rapport à 1992, elle a été multipliée par 500 000 ! Cela permet de gagner un jour de prévision tous les dix ans, la fiabilité à 4 jours de 2014 équivalant à celle à 3 jours de 2004. (© Météo-France)

 

 

Et le troisième A ? Pour faire écho à son nom, Aladin devrait disparaître. Ce modèle régional (résolution horizontale de 7,5 km) affine Arpège sur les Antilles, la Guyane, la Polynésie française, la Nouvelle-Calédonie, l’océan Indien pour la prévision cyclonique et dans les zones du monde où l’armée française mène des opérations. Dès 2015-2016, Aladin sera progressivement remplacé par Arome grâce au temps de calcul libéré par ailleurs (voir ci-dessus). La prévision des cyclones y gagnera de l’attention. Avec un grand A.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

GFS refait surface (2/2)

Par

 

La nouvelle version de GFS que j’évoquais dans mon premier article devrait améliorer très sensiblement les prévisions. Mais de là à l’utiliser dans les zones côtières de notre façade occidentale où les effets de site et les phénomènes de brises sont importants, ou dans une mer fermée comme la Méditerranée où l’influence des terres et surtout des reliefs est aussi considérable que la multiplicité des îles, il y a un pas optimiste que je ne franchirai pas.

 

 

Sur la Méditerranée occidentale, l’Italien LaMMA propose une déclinaison régionale de GFS avec son modèle WRF. Ici le vent moyen à 10 m, à 5 jours avec une résolution de 12 km. (© LaMMA)

 

 

 

Avec cette mise à jour de GFS, Arpège qui est le modèle mondial de Météo-France avec des prévisions à 4 jours dont la maille horizontale est optimisée à 10 kilomètres sur l’Europe de l’Ouest (sur 70 niveaux au total) n’est plus aussi compétitif. Ce modèle Arpège HR (pour haute résolution, 10 km) est visible ici sur Previmer (simple visualisation sur petite carte à 3 jours).

 

En effet, une déclinaison régionale de GFS telle que le modèle WRF (Weather Research and Forecasting) qui prend bien en compte la topographie (en particulier les reliefs de la côte et de l’arrière-pays) devrait bénéficier directement de l’amélioration de GFS (en l’occurrence du modèle proprement dit d’une part et de sa hausse de résolution d’autre part) alors que nombre de sites météo utilisent ses ressources, notamment dans sa version NMM (Nonhydrostatic Mesoscale Model) qui offre une résolution horizontale fine (jusqu’à 4 km), un exemple ici avec Meteociel (5 km) ou pour la Méditerranée occidentale, ici avec le très bon LaMMA (mais 12 km seulement dans sa version moyenne résolution).

 

Cela dit, pour la courte échéance, les vrais modèles à maille fine - qui réalisent l’assimilation à haute résolution -, sont à privilégier, tout particulièrement en Méditerranée où il faut utiliser en priorité ceux développés par les services locaux. En voici quelques exemples que j’utilise régulièrement, sans aucune prétention d’exhaustivité. En Italie, on trouve ainsi l’excellent modèle LaMMA HR qui n’est autre qu’un WRF utilisant le modèle CEP sur 3 jours avec une résolution horizontale de 3 km, hélas pas sur tout le pourtour de l’Italie et de ses îles.

 

 

Développé par l’université d’Athènes, Poseidon est un excellent modèle à maille fine pour la Grèce (en dépit d’un affichage dont le graphisme et le positionnement gagneraient à être plus précis), ici les Cyclades avec le vent moyen à 10 m, à 3 jours. (© Poseidon)

 

 

En Grèce, c’est le fort bon système Poseidon pour toutes les zones en mer Ionienne et en mer Égée (utiliser la visualisation zoomée sur chaque bassin en passant par l’onglet Sailing Forecast). Sa résolution horizontale est de 1/30 degré, soit 0,03 degré. Dans les deux cas (italien et grec), les données sont gratuites mais il ne s’agit que de visualisations sans fichiers Grib. Tandis que OpenSkiron permet de télécharger des Grib lisibles sur zyGrib, proposés par zones de la Méditerranée (exemple : mer Égée, mais la résolution de calcul et d’affichage aux points de grille n’est plus que de 0,1 degré). Leur provenance est l’université d’Athènes qui réalise et gère le service Poseidon.

 

Côté Météo-France, le modèle numérique de prévision Arome offre une maille de calcul de 2,5 kilomètres (qui doit passer à 1,3 km en ce début 2015 !). Il intègre les données issues des observations locales, par exemple celles des vents doppler des radars météo, et il peut prendre en compte des éléments au sol plus précis, afin de modéliser les îlots de chaleur.

 

Arome voit beaucoup plus le relief littoral et les autres effets de sites qu’un modèle global comme GFS, y compris les brises thermiques, les effets de pointe ou les effets venturi. Enfin, il prend mieux en compte les mouvements verticaux et la modélisation des phénomènes convectifs aux abords des côtes, en particulier les orages. Pour la courte échéance, de une à trente-six heures, la finesse est très supérieure à GFS.

 

 

Le même modèle Poseidon, exploité en grib via le site OpenSkiron et affiché ici sous zyGrib sur les seuls points de grille pour la mer Égée. La résolution (0,1 degré) est trois fois inférieure à celle proposée en affichage simple sur le site Poseidon (0,03 degré). (© zyGrib /Olivier Chapuis)

 

 

Mais ce modèle n’est accessible qu’avec Navimail 2.1.3, lequel propose ainsi une maille jusqu’à 0,025° avec Arome, soit un point de grille tous les 1,5 milles (ou 2,78 kilomètres), ce qui est de la très haute résolution (Navimail 2.1.3 à télécharger ici pour le côtier et ici pour le large) Ces données sont payantes. Celles du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF) le sont aussi.

 

Je ne suis pas un partisan de la libéralisation à outrance, c’est un euphémisme, mais on peut s’interroger – comme le faisait l’an dernier Francis Fustier dans son remarquable blog Navigation Mac -, sur le fait de savoir jusqu’à quand ce sera tenable vis-à-vis des citoyens et contribuables européens qui en financent une large partie. Ouvrir ces données aux développeurs qui veulent y ajouter de la valeur serait effectivement une bonne idée. À condition qu’elles le soient aussi aux utilisateurs lambda en libre accès, au minimum à un format brut exploitable comme les fichiers Grib. Ce serait d’autant plus judicieux que CEP était reconnu meilleur que GFS… en tout cas jusqu’à la mise à jour majeure que vient de connaître ce dernier.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

 

GFS refait surface (1/2)

Par

 

D’accord, mon titre est quelque peu provocateur. Le modèle numérique de prévision GFS (Global Forecast System) n’a jamais sombré. Mais de l’aveu même des Américains qui le produisent, il était en retard sur son concurrent européen, le modèle IFS (Integrated Forecast System) du Centre européen pour les prévisions météorologiques à moyen terme (CEPMMT) ou European Centre for Medium-Range Weather Forecasts (ECMWF), couramment appelé modèle CEP en France et utilisé notamment par Météo-France et les autres services européens (Royaume-Uni, Allemagne…).

 

 

Une requête avec zyGrib du GFS maille 0,25 degré (spécifiée en haut à gauche). (© zyGrib / Olivier Chapuis)

 

 

L’américain GFS et l’européen CEP sont les modèles numériques de prévision les plus utilisés au large. Leur couverture est globale pour des échéances à moyen et long terme tandis que les autres modèles globaux sont limités à la courte échéance, à l’instar d’Arpège de Météo-France (mais avec un pas de temps de 10 minutes dans son cas). Parce qu’ils divergent souvent, GFS et CEP sont complémentaires.

 

Développé par le National Centers for Environmental Prediction (NCEP), dépendant du National Weather Service (NWS) de la National Oceanic and Atmospheric Administration (NOAA) des États-Unis, le modèle GFS propose une nouvelle version qui est opérationnelle depuis le 14 janvier 2015. Parmi toutes les améliorations apportées dont on trouvera le détail exhaustif ici – aussi bien pour l’assimilation que pour le mode de calcul de l’algorithme, en ne parlant que du modèle atmosphérique, indépendamment du modèle océanique d’état de la mer -, l’évolution la plus marquante pour le public concerne la résolution horizontale proposée dans les fichiers Grib (Gridded binary).

 

 

MaxSea Time Zero, via son serveur, ne prend pas encore en compte la nouvelle résolution : ici la maille 0,50 degré le 29 janvier 2015 sur le golfe de Gascogne (base 00h00 UTC, prévision à 18h00 UTC ici, 19h00 locale). (© MaxSea Time Zero / Olivier Chapuis)

 

 

Elle passe à 0,25 degré contre 0,5 degré auparavant. Sa densité est donc quatre fois supérieure. La résolution 0,5 degré est toujours disponible ce qui est une bonne chose car les fichiers à 0,25 degré sont quatre fois plus gros et cela peut coûter cher pour les télécharger par satellite au large. Mais à terre, ce n’est que bénéfice.

 

Le 29 janvier 2015 au même point 47° 23’ N / 06° 40’ W, avec le GFS 0,25 degré, on retrouve le même vent moyen à 10 m au 309° / 39, 2 N contre 306° / 39,5 N pour le GFS 0,5 degré de l’image précédente (toujours base 00h00 UTC, prévision à 18h00 UTC). (© zyGrib / Olivier Chapuis)

 

 

Cette résolution en sortie de modèle ne doit pas être confondue avec celle en entrée de modèle, dans la phase d’assimilation des données (pour le NCEP il s’agit du Global Data Assimilation System, GDAS, qui connaît lui aussi des améliorations avec cette mise à jour). La résolution horizontale de calcul GFS Global Spectral Model vient de passer de 27 kilomètres (14,58 milles) à 13 kilomètres (7,02 milles) et de 192 heures (8 jours) à 240 heures (10 jours) pour les prévisions à court et moyen terme (10 jours est aussi l’échéance maximale pour un fichier Grib 0,25 degré). Pour les prévisions à long terme, elles sont passées de 70 kilomètres (129,64 milles) à 35 kilomètres (155,57 milles), entre 240 et 384 heures (16 jours).

 

Le pas de temps le plus fin reste de 3 heures et sur 64 niveaux verticaux (sommet à 0,2 hPa) avec 366 variables par point de grille (chaque point de grille fait référence à une position géographique à un niveau donné définissant un quadrillage en trois dimensions qui découpe l’atmosphère en cubes ; on passe à quatre dimensions lorsque le modèle tourne, en ajoutant une dimension de temps). GFS calcule une prévision toutes les 6 heures, aux heures synoptiques principales (en anglais, le run servant de base au calcul), soit 00h00, 06h00, 12h00 et 18h00 UTC (avec des performances différentes, les meilleures étant celles de 00h00 et 12h00 UTC). Les fichiers Grib sont mis en ligne quatre fois par jour, cinq heures après les heures synoptiques principales (toujours avec des pas de 3 heures jusqu’à 10 jours et des mailles horizontales à choisir entre 0,25, 0,5, 1 et 2,5 degrés).

 

 

Avec la maille 0,25 degré, la visualisation de GFS présente une densité quatre fois supérieure à la maille 0,50 degré telle qu’à l’image 2. (© zyGrib / Olivier Chapuis)

 

 

Les sorties du modèle numérique de prévision GFS sont proposées gratuitement à tous les utilisateurs (dont les développeurs des programmes de sélection, de téléchargement et de visualisation des Grib, avec ou sans routage à la clé) via les serveurs NOMADS (NOAA Operational Model Archive and Distribution System), au format Grib 2, par exemple celui-ci pour le GFS de maille 0,25 degré. Ces serveurs sont utilisables directement mais leur ergonomie est bien moins agréable que celle des meilleurs programmes. Ainsi, l’excellent zyGrib (à télécharger ici) – programme gratuit de visualisation simple – intègre déjà cette maille à 0,25 degré comme le non moins réputé Weather 4D (application payante de visualisation des Grib mais aussi de routage) qui le fait depuis novembre pour son application Android (alors que la maille 0,25 était en phase de test au NCES) et depuis le 15 janvier sous iOS (mobiles Apple) pour les zones France et Europe, tandis que d’autres programmes ne proposent encore que les Grib GFS à 0,5 degré (c’est le cas de Grib.us pour Ugrib et de MaxSea Time Zero ce 29 janvier).

 

Le gros travail entrepris sur cette mise à jour de GFS est notamment dû à quelques ratés de prévision qui s’étaient produits en octobre 2012 lors du cyclone Sandy qui, après les Grandes Antilles dont Haïti, avait frappé très durement la côte Est des États-Unis jusqu’à New York. On peut en voir l’analyse du NCEP ici.

 

 

Pour ne pas accréditer la fausse illusion d’une haute résolution qui n’en est pas une, il est recommandé de n’afficher que les flèches de vent correspondant aux points de grille Grib, autrement dit de désactiver l’interpolation spatiale. (© zyGrib / Olivier Chapuis)

 

 

Suite la semaine prochaine avec l’impact sur la pseudo haute résolution comparée à la vraie haute résolution.

 

O.C.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

RMS (2/2)

Par

 

Une pluie de critiques s’abat sur le site internet de la Volvo Ocean Race, redoublée par comparaisons depuis le départ de la Route du Rhum – Destination Guadeloupe. Le parapluie a bien été ouvert par la direction de la Volvo mais très tardivement et trop timidement. Il n’est d’ailleurs pas impossible que l’on voie une nouvelle cartographie apparaître dès la deuxième étape. En attendant, pour un suivi digne de ce nom, oubliez le mode Dashboard et n’utilisez que Virtual Eye.

 

 

En mode Virtual Eye (sous Windows, ici avec Firefox), le site de la Volvo Ocean Race est – après ses améliorations -, loin d’être aussi mauvais que le disent certains. Notez les données du vent réel (direction et vitesse) affichées dans l’étiquette du bateau (et enfin rafraîchies sur un pas de temps inférieur à trois heures depuis quelques jours), avec celles de sa route fond et de sa vitesse fond (on retrouve cette dernière dans la fiche à droite). Ce vent réel à bord est à comparer aux données du modèle numérique de prévision (fichier Grib), le curseur étant ici passé sur Abu Dhabi. À propos de curseur, celui de l’échelle de temps des prévisions météo, en bas de l’écran, est bien à zéro c’est-à-dire synchrone avec la position des bateaux. Mais il faudrait un point d’arrêt plus net entre ce temps réel, l’archive (retour en arrière vers la gauche) et la prévision (de 1 à 5 jours à droite). Il faudrait aussi et surtout que la flotte soit routée avec ces prévisions. Cela n’était toujours pas le cas, ce 4 novembre 2014 à la mi-journée. (© Volvo Ocean Race)

 

Cependant, même avec celui-ci, les méridiens et les parallèles n’ont été référencés qu’aux tout derniers jours d’octobre et de la première étape. Quant aux données du vent réel en provenance des bateaux – pourtant disponibles toutes les dix secondes comme je le révélais dans l’épisode un -, elles ne sont rafraîchies à moins de trois heures que depuis quelques jours avant l’arrivée à Capetown (et encore pas toujours).

 

Au même moment sont enfin apparues les données de prévision du vent à cinq jours mais comme le routage n’est toujours pas proposé au public et que la flotte n’est donc pas projetée simultanément, cela n’a guère d’intérêt. Seuls le vent (dont le flux animé très imprécis a été vite remplacé après le départ d’Alicante par les bonnes vieilles flèches de couleur suite à la multiplication des critiques justifiées) la pression atmosphérique et les isobares sont utilisés.

 

Mais pas l’état de la mer. C’est bien dommage tant il est essentiel. Ce reproche peut être fait pareillement au site de la Route du Rhum. C’était flagrant, lundi 3 novembre, dans le golfe de Gascogne où c’est bien la mer totale de cinq mètres, trois-quarts avant, qui posait de gros problèmes aux Ultime, y compris aux géants Banque populaire VII de Loïck Peyron et à Spindrift 2 de Yann Guichard, lequel rapportait des bonds de quinze mètres à l’étrave !

 

 

Réalisé par Géovoile, le site de la Route du Rhum est d’une ergonomie beaucoup plus familière aux habitués des courses au large françaises (mais aussi de la Volvo Ocean Race précédente et de la future Barcelona World Race). Outre sa remarquable mise à jour toutes les heures (indispensable compte tenu des vitesses des Ultime !), ses grandes qualités sautent aux yeux quant à la lisibilité et à la hiérarchisation des données (exemple : les cinq flottes sont parfaitement gérées par les couleurs distinctes et le système d’onglets, 91 bateaux tout de même, chapeau bas !). Notez le calcul de décalage en latéral effectué ici entre trois Ultime, en cliquant avec l’outil Règle entre les deux premiers puis en appuyant la touche Ctrl et en la maintenant enfoncée pour cliquer le troisième. L’étiquette finale propose les deux segments et leur total. On peut néanmoins regretter grandement l’absence des VMG (en l’occurrence des VMC) – que l’on trouve dans les tableaux Excel de René Boulaire – disponibles ici mais seulement toutes les quatre heures et pas à minuit -, et dans une moindre mesure de l’état de la mer dans le fichier Grib. Plus largement, il faudrait (ici comme sur la Volvo) un mode d’emploi du site pour les fonctions avancées (telle que celle décrite ci-dessus) et – afin de savoir de quoi on parle avec précision -, une transparence totale de la méthodologie quant aux waypoints choisis pour définir l’orthodromie de référence servant au classement, quant aux calculs effectués en amont de la cartographie et quant aux extrapolations non mentionnées pour positionner certains concurrents lorsqu’ils ne sont pas détectés par les satellites d’autre part (d’où quelques aberrations de temps en temps… par exemple lorsque vous rejouez la course et constatez que les bateaux n’occupent plus la même position qu’ils avaient au même instant en temps réel…). Pour info (importante alors que ce n’est précisé nulle part…), le cap et la vitesse mentionnés sur les étiquettes que l’on active quand on passe le curseur sur un bateau (que l’on retrouve dans le classement de droite, ici) sont la route fond et la vitesse fond calculées de point à point en orthodromie entre 42 et 48 minutes de l’heure pleine précédant la mise en ligne du nouveau classement (dans le cas présent, sur les 6 minutes entre les positions de 17h42 et de 17h48). Bien sûr, la limite pour multiplier les données et encombrer ainsi la bande passante tient dans la nécessité d’une grande fluidité et d’une haute vitesse de chargement de ces données multiples lorsqu’on arrive sur la cartographie ou qu’on la rafraîchit : de ce point de vue, la Route du Rhum (Géovoile) comme la Volvo Ocean Race (avec Virtual Eye) parviennent toutes deux à d’excellents résultats. Étant entendu qu’il est nécessaire de ne pas sacrifier une cartographie élaborée pour internet et que les mobiles et leurs applications doivent être traités à part. PS. Depuis cette capture d’écran, Loïck Peyron est tout sourire, offrant un visage plus en adéquation avec son contrôle de la course en Ultime :) (© Géovoile / Route du Rhum)

 

 

C’est la version bêta du routage évoqué dans mon article précédent qui a été testée sur l’intranet de la Volvo Ocean Race durant cette première étape. L’algorithme est la propriété de Géovoile et tourne sur son propre serveur où la Volvo Ocean Race récupère les données. La direction de course l’utilise notamment pour le calcul des estimations d’arrivées (ETA pour Estimated Time of Arrival) qui ne sont hélas données pour l’instant qu’en jours entiers (pas fin du tout à moins de deux jours de l’arrivée…) !

 

Cet algorithme très léger par rapport aux usines à gaz des logiciels de navigation sera utilisé par Géovoile pour le grand public sur les sites internet dont il s’occupe et certains skippers seraient d’ores et déjà intéressés pour le faire tourner en plus d’Adrena ou MaxSea. Comme les équipes à terre, par exemple afin de compléter sur le site internet du sponsor la réception d’un journal de bord. Géovoile met actuellement au point cela pour un prochain record autour du monde en solo (en mode économique avec un standard C, cela peut être fait seulement quelques fois par jour, le skipper expédiant en manuel mais n’ayant pas de manipulations compliquées ; étant entendu que les données techniques sont toujours enregistrées à bord et débriefées après le retour).

 

Les 100 secondes du routage Géovoile d’une flotte de 7 bateaux sur 5 jours que j’évoquais la semaine dernière à propos de la Volvo Ocean Race sont encore dix fois trop longues pour les 10 secondes imparties aux transmissions. Cependant, compte tenu de la relativement faible vitesse des bateaux, il n’est en réalité pas nécessaire de faire ce calcul toutes les 10 secondes. Le routage n’est donc relancé que toutes les 10 minutes. Dans les classements calculés entre-temps toutes les 10 secondes, les positions des bateaux sont simplement recalées par rapport au routage immédiatement précédent (en fait, pour l’instant, le calcul de classement se fait toutes les minutes sur l’intranet – même si la procédure permettrait déjà de le faire dans le laps de temps des 10 secondes -, mais il devrait passer à ces 10 secondes dans la deuxième étape ou la troisième étape).

 

Sur la Volvo Ocean Race comme sur les autres courses, le calcul du routage s’effectue suivant un parcours théorique comprenant des waypoints permettant d’éviter les terres et des portes des glaces (voir articles www.voilesetvoiliers.com 1, 2, 3 et 4) avec des orthodromies pures entre ces différents points intermédiaires. Sur la prochaine Barcelona World Race, la philosophie liée aux portes des glaces évolue et il y aura par conséquent des loxodromies qui entreront aussi en ligne de compte dans le parcours.

 

 

Visualisé ici sur l’écran du RMS utilisé pour la Volvo Ocean Race, le routage Géovoile est utilisé sur l’intranet de la course depuis le départ d’Alicante mais hélas pas sur internet, en tout cas il ne l’a jamais été jusqu’au 4 novembre mi-journée, au bouclage de ces lignes. (© Géovoile)

 

 

Parce qu’il est gratuit, contrairement au modèle européen, le modèle numérique de prévision utilisé pour ce routage comme pour l’affichage des prévisions météo sur le parcours est le modèle américain GFS recalé quatre fois par jour sur les heures synoptiques principales, soit 00h00, 06h00, 12h00 et 18h00 UTC. Sa maille horizontale est de 27 kilomètres (14,58 milles) jusqu’à 192 heures (8 jours) et de 70 kilomètres (37,80 milles) jusqu’à 384 heures (16 jours), par pas de 3 heures et sur 64 niveaux verticaux (sommet à 0,2 hPa), avec une couverture mondiale.

 

Deux données de vent issues des centrales de navigation du bord sont donc transmises au public. On peut espérer que d’autres informations seront ajoutées au fur et à mesure de la course (le Watch Log délivre plus de données mais elles sont présentées dans un tel fouillis qu’elles sont inintéressantes, d’autant plus qu’elles relèvent d’une sélection arbitraire). On les obtient en passant le curseur sur un bateau ou en cliquant dessus (dans ce dernier cas, c’est l’information concernant le bateau qui remplace le classement à droite de l’écran). Elles sont associées à la route fond et la vitesse fond.

 

Pendant l’essentiel de la première étape, ces données n’ont pas été réactualisées entre deux classements proposés toutes les trois heures (théoriquement car son changement pouvait prendre près d’une demi-heure jusqu’à mi-octobre !) et sont donc restées figées sur ces valeurs. À cause d’un mauvais choix des données à mettre en ligne, on est ainsi arrivé à quelques aberrations comiques où l’on voyait des VMG (en réalité des VMC) supérieurs à la vitesse fond du bateau (cela s’est surtout produit dans les zones d’accordéon où la vitesse faisait le yo-yo, notamment dans le Pot-au-Noir) ! Ces VMG sont en effet calculés rétroactivement sur l’orthodromie entre les deux positions séparées de trois heures tandis que la vitesse fond du classement proposé peut être inférieure (issue d’un GPS du bord ou calculée de point à point en orthodromie sur la cartographie, pendant la dernière minute avant la mise en ligne du classement).

 

 

Un VMG de 9,9 N pour une vitesse fond de 4,0 N… Voici le genre d’aberration qu’on a pu observer sur le site de la Volvo Ocean Race pendant une grande partie de la première étape, à cause d’un mauvais choix des données par le site internet. (© Volvo Ocean Race)

 

 

La véritable révolution de la transmission des données des capteurs du bord en temps quasi réel ne se traduit donc pas du tout sur le site de la Volvo Ocean Race qui n’a d’ailleurs guère communiqué sur le sujet, laissant penser qu’elle retient volontairement l’information alors qu’elle rencontre vraisemblablement des problèmes internet (Mise à jour du 5 novembre 2014 à 14h00. Depuis quelques heures, à l’approche de l’arrivée à Capetown, c’est – enfin – le cas : les bateaux et leurs données de route fond/vitesse fond, de VMG et de vent à bord évoluent en temps réel à l’écran du Virtual Eye ! Avec quand même quelques bogues de données et des plantages récurrents du serveur nécessitant des rafraîchissements d’écran, d’ailleurs amusants parce que la base de données recharge depuis le début du direct et vous voyez ainsi les bateaux avancer à toute allure jusqu’à rejoindre le temps réel…). De ce point de vue, nous en sommes aux balbutiements d’une nouvelle ère du suivi des courses au large. En les extrayant du Race Management System (RMS ou Système de direction de course), la technique permettrait de communiquer toutes ces données au public passionné, notamment aux voileux. Sans qu’il soit d’ailleurs nécessaire que ce soit toutes les 10 secondes mais entre 10 secondes et 3 heures, il y a de la marge !

 

On sait qu’on touche là à une question sensible puisque les coureurs n’aiment pas que les concurrents sachent en temps réel ce qu’ils ont comme vent (jusqu’au Pot-au-Noir la flotte était si compacte que ce n’était pas problématique, la meilleure vitesse cible étant alors celle du voisin à vue, après elle a explosé même si ça se bagarre très serré en tête), permettant des comparaisons avec les fichiers Grib et des modifications des paramètres de routage (indépendamment de la dégradation possible des polaires voire de leur dépassement), donc de tactique voire de stratégie (sachant qu’un concurrent fait tourner le routage non seulement pour lui-même mais aussi pour la flotte).

 

Sauf que le problème ne se pose justement pas sur la Volvo Ocean Race. Comme Michel Desjoyeaux lui-même le confirme dans l’excellente visite commentée qu’il fait du monotype VO 65 pour www.voilesetvoiliers.com (réservée aux abonnés, ici), les équipages n’ont pas accès à internet mais uniquement à un site dédié contrôlé par la direction de course sur lequel ils trouvent tous les mêmes données météo. Ils ne reçoivent que quatre fois par jour (toutes les six heures) les positions de leurs concurrents et font alors tourner leurs routages pour toute la flotte. Ils n’ont pas plus la possibilité de se connecter au site internet de la course donc aux informations provenant des autres bateaux et n’ont pas plus le droit d’envoyer ou de recevoir des méls (fichiers joints interdits) sans passer par la censure de la direction de course. C’est donc d’autant plus absurde de ne pas donner au public ces informations.

 

 

Nicolas Lunven (premier plan) et Iker Martinez passent des heures à l’ordinateur mais ne peuvent accéder à aucun autre site internet que celui réservé aux coureurs par la direction de course, distinct de celui du public ce qui n’interdirait donc pas de mettre toutes les données disponibles en temps quasi réel. (© Francisco Vignale – Mapfre – Volvo Ocean Race)

 

 

A contrario, il est peu probable qu’on voie la technologie développée par la Volvo Ocean Race avec Géovoile sur d’autres courses. Disposer de la donnée “ vent ” d’un concurrent avec sa vitesse, c’est aussi la possibilité de reconstituer un élément de sa polaire de vitesses. Sur une course de prototypes où le moindre développement du concurrent est surveillé, pas sûr que les écuries l’acceptent. Il faudrait de toute façon que l’organisation adapte son système aux configurations électroniques distinctes de chaque bateau, ce qui ne serait pas très difficile mais moins aisé que pour la Volvo Ocean Race qui contrôle tout avec la monotypie.

 

O.C.

 

PS. Toute cette analyse ne préjuge pas des changements qui ne manqueront pas d’être apportés aux sites de la Volvo Ocean Race et de la Route du Rhum dont l’enrichissement est régulier et pourrait intervenir très vite…

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.

RMS (1/2)

Par

 

Une fois n’est pas coutume, j’y vais de mon cocorico. La Volvo Ocean Race utilise le Race Management System (RMS ou Système de direction de course) développé par une très petite société française. Il s’agit de l’entreprise Hauwell Studios de Yann Groleau (43 ans) qui assure la réalisation complète de sites comme ceux de Idec/Francis Joyon et de Gitana Team/Sébastien Josse et dont la marque maritime est de plus en plus connue sous le nom de Géovoile. J’en avais déjà parlé lorsque j’avais analysé les coulisses du record autour du monde en solitaire ou du Trophée Jules Verne en équipage.

 

 

Pour alimenter (entre autres) son site internet, la Volvo Ocean Race utilise le Race Management System (RMS) développé par Géovoile. Mais le site ne traduit pour l’instant qu’une infime partie des données reçues par le direction de course. J’en parlerai dans l’épisode 2. (© Volvo Ocean Race)

 

 

Entré dans la voile en 2005, à l’occasion du site internet créé pour un ami qui courait la Mini-Transat, Groleau (qui pratique l’avion mais ne navigue pas, tout en s’y intéressant de plus en plus à titre personnel) a alors eu la surprise de se rendre compte que personne n’avait développé sur internet l’usage de la technologie Flash pour le traitement cartographique des courses au large. Il a mis au point l’année suivante une interface pour le suivi du positionnement des bateaux dont il fut d’abord le seul utilisateur.

 

Le RMS Géovoile est ainsi né en 2006. En quête d’un logiciel leur permettant de gérer leur flotte, les directeurs de course l’ont d’abord adopté sur le circuit des Minis 6.50, notamment avec la Mini-Transat, puis sur d’autres épreuves comme la Solidaire du chocolat et le Vendée Globe (édition 2012-2013). La prochaine Barcelona World Race qui part le 31 décembre sera également équipée du RMS.

 

Pour les courses Pen Duick, Géovoile assure “ seulement ” la cartographie du site internet, en utilisant les données de géolocalisation et de suivi (tracking) fournies par Collecte localisation satellites (CLS) (qui est aussi spécialiste du positionnement et de la trajectoire des glaces), avec les calculs fournis par René Boulaire. C’est notamment le cas pour la Solitaire du Figaro – Éric Bompard Cachemire et pour la Route du Rhum – Destination Guadeloupe qui part ce 2 novembre 2014 (Voiles & voiliers numéro 525 de novembre – spécial Rhum – est en kiosque, 54 pages avec tout ce qui concerne la course, un peu de pub ne peut pas faire de mal).

 

Cependant, c’est donc de la Volvo Ocean Race qu’il sera question ici. Lors de l’édition 2011-2012, Géovoile avait réalisé la cartographie du site internet. Ce n’est pas le cas cette fois (j’en parlerai dans le prochain épisode). Concernant le RMS, la grande nouveauté de cette édition est un partenariat Inmarsat qui permet de récupérer un flot de données toutes les 10 secondes. À commencer par la position des bateaux, à partir desquelles un classement en temps quasi réel est donc calculé… même si la diffusion au public via le site internet ne se fait que toutes les 3 heures.

 

 

Les données enregistrées par tous les capteurs à bord des VO 65  (ici Team Vestas Wind en approche de Fernando de Noronha) sont transmises toutes les 10 secondes à la direction de course via le RMS à demeure sur le serveur de Géovoile. (© Brian Carlin / Team Vestas Wind / Volvo Ocean Race)

 

 

Sur le Vendée Globe 2012-2013, les positions n’étaient transmises à la direction de course que toutes les 30 minutes (la diffusion au public via le site internet ne se faisant que toutes les 4 heures). Autrement dit la cadence de transmission des bateaux vers la direction de course est 180 fois plus élevée sur la Volvo Ocean Race ! Le défi informatique consiste donc à faire transiter toutes les données en 10 secondes là où on disposait avant de 1 800 secondes.

 

En outre, le nombre de données à transmettre est beaucoup plus considérable qu’auparavant puisque sur le Vendée Globe, les balises CLS n’émettaient automatiquement par Iridium que la date, l’heure UTC, la position du GPS, avec la route fond et la vitesse fond calculées par celui-ci. Grâce à la monotypie qui est utilisée pour la première fois à ce niveau en équipage et autour du monde (la Clipper Round the World Race le fait déjà depuis longtemps mais pas au même niveau), la Volvo Ocean Race a conçu son système de communication en amont et elle peut le gérer uniformément sans avoir à l’adapter à des prototypes conçus par des écuries indépendantes, par exemple sur le Vendée Globe, ou comme cela se faisait sur la Volvo Ocean Race jusqu’à la précédente édition incluse.

 

Yann Groleau n’est pas autorisé à dévoiler quelles sont ces données supplémentaires (Volvo parano quand tu nous tiens…) mais je peux affirmer sans crainte de me tromper qu’il s’agit évidemment de celles de l’un des GPS du voilier (identiques à celles évoquées ci-dessus pour le Vendée Globe) et au minimum des dizaines de chiffres que fournit la centrale de navigation, à commencer par le vent réel calculé à bord à partir du vent apparent et de la vitesse surface mesurées. Ce sont donc notamment la direction du vent réel (TWD pour True Wind Direction en anglais), l’angle du vent réel (TWA pour True Wind Angle) et la vitesse du vent réel (TWS pour True Wind Speed).

 

Bien d’autres capteurs peuvent être reliés à un tel flux exporté qui compte vraisemblablement près d’une cinquantaine d’éléments même si leur nombre précis est confidentiel. Par exemple les centrales inertielles et les accéléromètres déjà embarqués sur nombre de bateaux de course qui permettent entre autres (outre le pilote automatique), d’enregistrer les mouvements dans différents axes (tangage, roulis, gîte…) donc l’état de la mer. Mais aussi la configuration de voilure (via le module routage d’un logiciel de navigation : voir la série “ L’arme fatale du Vendée Globe ”, notamment l’épisode 3 pour Adrena et l’épisode 4 pour MaxSea Time Zero) ou l’angulation de la quille (via le capteur dédié), etc.

 

Ces données étant toutes numériques, elles sont faciles à coder et à compresser au format binaire en un fichier très léger. Yann Groleau ne s’occupe pas de la compression mais de la décompression pour extraire les lignes significatives et les injecter dans son serveur, pour la base de données de la Volvo Ocean Race, à des formats exploitables immédiatement par les différents intervenants que sont non seulement la direction de course, mais aussi les responsables de la cartographie, du site internet, du jeu virtuel et des applications pour mobiles.

 

 

Exemple d’un écran du RMS tel que peut l’utiliser la direction de course de la Volvo Ocean Race avec rafraîchissement des données toutes les 10 secondes. De gauche à droite : position en heure UTC (Z pour Zulu, prononcer Zoulou) ; cap et vitesse entre les deux derniers points calculés en orthodromie (autrement dit route fond et vitesse fond sur 10 secondes) avec VMG (en réalité VMC) dont on voit qu’il était entre 96 % et 100 % de la vitesse fond au moment de cette capture d’écran ; situation du bateau par rapport à la prochaine marque ou porte ; référence de la prochaine marque de parcours et distance de chaque bateau à celle-ci ; distance à l’arrivée de l’étape ; distance parcourue sur les dernières 24 heures ; ETA (pour Estimated Time of Arrival) autrement dit jour et heure prévus pour l’arrivée de chaque bateau avec le TTG pour Time To Go, c’est-à-dire le temps restant sur l’étape pour chaque bateau avec la moyenne en noeuds s’y rapportant. Toutes les données sont calculées en « quasi permanence » par l’algorithme de routage sur lequel je reviendrai dans le prochain épisode. (© Yann Groleau / Géovoile)

 

 

Quel que soit le vecteur de transmission satellitaire selon les courses – via Inmarsat (ou standard C par Inmarsat suivant une routine différente mais fichiers au format Texte), Iridium (utilisé en redondance sur la Volvo Ocean Race avec des balises Yellowbrick à bord des bateaux dont les données sont émises mais ne sont utilisées qu’en cas de panne Inmarsat) ou Globalstar (fichiers au format XML le plus souvent car retraités) -, il s’agit d’appliquer un traitement aux fichiers bruts reçus sur le serveur de Géovoile pour en extraire les données nécessaires. Pour les autres courses, elle proviennent le plus souvent des balises CLS (fichiers au format TXT codifié). Dans le cas de la Volvo Ocean Race, les fichiers sont au format propriétaire développé par la course, un pur format binaire en l’occurrence (les données transmises ne sont pas en NMEA 2000).

 

Accélérer le débit dans la tuyauterie. C’est ce qu’a dû faire Yann Groleau afin de faire passer en 10 secondes l’ensemble du traitement qui était effectué en 45 à 60 secondes lorsqu’on disposait de 30 minutes entre deux flots, comme c’était encore le cas lors du dernier Vendée Globe tandis que la Volvo est passée dans une nouvelle ère. Il a donc fallu optimiser des lignes de code telles qu’elles figuraient dans la conception initiale du programme RMS.

 

La principale difficulté a consisté à revoir l’écriture d’un algorithme très rapide pour calculer le routage (Yann Groleau faisant appel à un spécialiste de l’algorithme). Au final, le routage d’une flotte de 7 bateaux sur 5 jours prend ainsi 100 secondes ce qui est beaucoup plus rapide que la même requête avec Adrena ou MaxSea (on verra dans le prochain article comment ces 100 secondes s’accommodent des… 10 secondes évoquées ici). Avec un gros bémol tout de même puisque le routage Géovoile ne prend pas en compte l’état de la mer dans le calcul, se contentant de dégrader le résultat en conséquence. Le RMS dans ce cas précis ? Radicalement minimaliste simplifié diront les mauvaises langues. Pas faux mais totalement assumé par son concepteur !

 

O.C.

 

Suite et fin la semaine prochaine.

 

Pour commenter un billet, lorsque vous êtes dans le défilement du blog, cliquez sur Commentaires en bas à droite de l’article concerné. Dans la lecture d’un billet en particulier, utilisez directement l’espace Commentaires au bas de celui-ci. Les commentaires sont librement ouverts à tous.

Pour rechercher des mots dans ce blog, utilisez la commande Recherche en haut à droite de l’écran. Ce moteur de recherche est indépendant de celui du site www.voilesetvoiliers.com.