Cas Client Sailing Performance

Le calcul intensif au service de la simulation pour l’exploit sportif !

 

Avec l’avènement des machines de calcul (serveurs et workstations) de nouvelle génération basés sur des processeurs Intel Xeon et AMD EPYC, des entreprises comme Sailing Performance n’ont plus à choisir entre précision et performance, ils bénéficient des deux !

 

 

La performance informatique permet de créer des champions. C’est le constat de KND-Sailing Performance, un cabinet d’études spécialisé dans l’optimisation des performances. Dimitri Nicolopoulos, cofondateur de l’entreprise, nous explique en quoi le calcul intensif de nouvelle génération lui permet de faire évoluer son métier pour favoriser l’émergence de bateaux champions.

 

Pouvez-vous présenter votre activité ?

Fondée en 2012, notre entreprise knd-SailingPerformance est située à Valence en Espagne. L’un de mes associés est français, l’autre allemand et nous en formons le noyau. En tout nous sommes huit ingénieurs qui avions déjà collaboré à de multiples reprises, notamment dans le cadre de la compétition de la Coupe de l’America. Cette entreprise a vu le jour à la suite de la Coupe 2007 à Valence. L’Edition suivante fut un duel entre deux équipes suite à des problèmes juridiques. Par conséquent, 10 des 12 équipes de la Coupe 2007 ont disparu. Il a fallu se réinventer, car le travail avait pour ainsi dire disparu et 90% des équipes devaient retrouver une activité. Nous avons décidé de faire profiter une clientèle hors de la Coupe de nos expérience acquise dans cet événement exceptionnel.

 

 

L’augmentation des performances des machines de dernière génération nous permet d’avoir 128 threads sous la main et va chambouler nos workflows.

 

 

Quel est votre parcours ?

Je suis diplômé en Mathématiques Appliquées – Avant de rejoindre KND-SailingPerformance j’ai participé à deux éditions de la Coupe de l’America en tant que coordinateur de conception (Areva Challenge et Deutsche Challenge). J’ai participé depuis à de nombreux projets de haut niveau : les JO avec l’optimisation d’un bateau ayant conquis une médaille de Bronze a Pekin, les regates ‘GrandPrix’ avec la participation a 4 équipes Championne du Monde en TP52 et IRC72, la course au large avec le support de concurrents du Vendee Globe, de la Volvo Ocean Race…

Comment en êtes-vous venu à créer votre propre bureau d’études ?

Avant cela, j’avais travaillé avant cela dans l’industrie automobile dans le cadre du logiciel de simulation par éléments finis RADIOSS. Avant le rachat par Altair Engineering, Radioss était l’un des trois principaux logiciels au monde à permettre la simulation de crash de voitures. En tout j’ai 15 ans d’expertise en matière de calcul intensif dans l’industrie automobile.

Le secteur de la voile de haute performance est animé d’une logique proche du compagnonnage. Il est assez habituel que les équipes s’assemblent et se séparent au gré des projets et des régates. Pour ma part, j’avais envie de rassembler un groupe d’ingénieurs, experts dans leur domaines, pour conjuguer la connaissance théorique (à savoir la simulation sur ordinateur) et la connaissance pratique (lorsque ces bateaux naviguent) afin de pouvoir évaluer si les performances sont au rendez-vous et maîtriser ainsi le cycle complet conception-exploitation des voiliers de compétition.

À cet égard, Sailing Performance est un bureau qui constitue une synthèse harmonieuse entre des ingénieurs ‘expérimentateurs’ et des ‘simulateurs’. Notre parcours prouve que notre vision était la bonne, puisque nous sommes passés en 5 ans de 3 à 8 personnes, travaillant sur des projets dans le monde entier, avec des sollicitations en constante augmentation.

 

Qui fait appel à Sailing Performance ?

Nous avons deux typologies de clients. D’une part, des architectes navals qui sont en phase de conception de nouveaux bateaux et qui ont besoin d’éprouver leur concept, de confronter leurs idées à la réalité (virtuelle) des éléments. D’autre part, nous sommes sollicités par des équipes de compétition soucieuses d’améliorer les performances de leur bateaux pour en tirer le potentiel maximum lors de régates de premier plan au niveau mondial.

Pour établir un parallèle ; nous effectuons en amont, dans le domaine hydro- et aerodynamique, le même travail que les ingénieurs concepteurs d’automobiles, avions…  puis, lors des régates, un travail similaire a celui des gens qui sont au bord de la piste en Formule 1. De la mesure de performance, de la simulation, et de l’analyse de résultats. Nous allons même parfois un peu plus loin, et certaines équipes font appel à nous pour faire partie avec l’architecte du sales pitch pour convaincre un client.

 

Avec le calcul intensif de nos jours, nous n’avons plus à choisir entre précision et délais de calcul, nous bénéficions des deux.

 

Combien de temps dure une mission d’analyse ?

C’est assez variable. Sur certaines missions ultra rapides, les calculs de coque en mécanique des fluides ont été obtenus en moins d’une semaine. Pour les analyses de performances en régate, une saison comporte en général 5 régates qui durent chacune une dizaine de jours.

À l’autre extrémité du spectre, la mission qui nous a conduit à la mise au point du bateau Tango a duré deux ans. En moyenne, l’ordre de grandeur pour les simulations réalisées sur de grosses machines et/ou des serveurs en remote est d’un mois minimum.

 

 

 

De quelle façon organisez-vous votre travail ?

Lorsque nous accompagnons les équipages sur l’eau cela représente un cycle. Nous naviguons avec les équipes, mesurons puis analysons les paramètres pertinents. A l’intersaison nous nous posons la question de savoir si  nous modifions les bateaux, par exemple en modifiant la quille ou en rajoutant des voiles dont il convient de déterminer la surface, etc…

Il n’est pas rare que l’on nous demande de suivre des bateaux sur plusieurs années. A l’heure actuelle, chaque ingénieur est en charge principalement de trois bateaux (dans des séries différentes) sur des cycles allant de 1 à 5 ans. Pour certaines séries, par exemple la Volvo Ocean Race nous travaillons quasiment avec tous les compétiteurs. Il va de soi que la confidentialité et l’’étanchéité’ entre projets sont essentiels !

 

Quelle incidence le calcul intensif a-t-il sur les simulations que vous réalisez ?

Etudiant j’ai été fascine par le développement des super ordinateurs et leur apport au développement de prototypes virtuels. Malheureusement, les machines dont nous disposions dans les années 1990 étaient assez performants pour accomplir des simulations sérieuses dans les domaines industriels ou militaires mais hors de portée financièrement pour évaluer la valeur d’un bateau. D’autant plus que ce n’est pas UNE simulation qu’il faut faire, mais plusieurs dizaines, correspondant aux diverses conditions de vent et de mer.

L’évaluation de la qualité d’une coque requiert environ 200 points de fonctionnement différents. Nous utilisons donc deux niveaux de CFD. D’un côté une CFD à panneaux rapide mais moins précise, en ‘throughput’ sur des petits serveurs locaux, et de l’autre de la CFD ‘RANS’ avec des sous-matrices qui ont comporte de 8 à 70 points, ces modèles tournent sur des serveurs de calcul parallèles remote en utilisant en général 192 cœurs . Nous utilisons ces résultats pour ajuster les matrices obtenues avec les méthodes a panneaux.

 

Être en mesure de remplacer une production externalisée par des capacités de calcul en interne c’est tout bonnement inédit !

 

Ce traitement en parallèle avec une précision affinée est devenu possible avec l’arrivée de super-ordinateurs de type Cray dans les années 1980 (mais pas pour la voile en général !). Avec la Coupe de l’America, nous avons eu accès à des budgets conséquents et de ce fait, à des supercalculateurs de cet ordre.  Avec l’avènement de machines parallèles à base de processeurs Intel le calcul intensif s’est démocratisé. Aujourd’hui nous travaillons toujours avec deux niveaux de serveurs La mise au point et le développement des méthodes s’effectue en local sur 40 cœurs, et la production s’effectue sur un serveur en remote.

Aujourd’hui nous sommes à l’aube d’avoir en desktop ou deskside une machine unique avec 128 threads. Cela signifie que nous pouvons commencer à envisager de tout faire en interne, avec un bon niveau de précision. Nous n’oublions pas que dans le même temps, les modèles croissent aussi – mais moins que es capacités des machines, ce qui nous laisse potentiellement une bonne marge de progression. C’est tout bonnement inédit.

Cela étant, on n’a pas fini de comparer le temps gagné et l’argent économisé entre une solution remote déportée et une solution desktop / deskside. Simplement les investissements ne sont pas tout à fait de même nature (Capex vs. Opex), et ne sont pas consentis aux mêmes moments.

 

A la recherche de la performance et de la précision

Aujourd’hui le coût horaire des serveurs en remote est plus ou moins équivalent au coût des logiciels. Au cours de l’étude d’un projet, si on teste des dizaines de coques pour un même bateau, cela peut atteindre un nombre de points de calcul très conséquent (plusieurs centaines). Et à raison de 40€ en moyenne par point de calcul, l’addition monte d’autant.

Cette croissance exponentielle est l’une des raisons qui nous a conduit à développer notre méthode alliant les calcul par panneaux et les simulations RANS afin de nous permettre de gagner du temps et de rester dans un budget raisonnable, au prix parfois d’une légère perte de précision.

 

Quel constat faites-vous de l’état de la technologie que vous utilisez ?

Les technologies évoluent et changent considérablement la donne. Lorsque nous faisons tourner nos modèles sur des machines de nouvelle génération, les avancées sont très encourageantes. Ces progrès nous amènent par ailleurs à nous interroger sur nos workflows existants.

La raison en est simple : les calculs requérant le plus de précision étaient habituellement délégués à des clusters de calcul intensif puissant. A l’inverse, les calculs s’appuyant sur de gros volumes de données étaient par défaut internalisés, mais nous conduisaient à des calculs d’une précision moindre, du fait de la plus faible puissance.

Les machines récentes, aussi bien de type Intel que AMD, disposent de processeurs avec de nombreux cœurs, ce qui est nécessaire pour nos logiciels. L’apport de cartes accélératrices graphiques (GPU) performantes de nouvelle génération de la famille Pascal ou Volta est également déterminante. La raison étant que tous nos logiciels ne font pas usage du CPU et du GPU dans les mêmes proportions.

L’accroissement de la capacité de calcul de machines que nous pouvons loger en nos locaux a une incidence directe sur la qualité de notre métier grâce à l’amélioration de la précision de nos calculs, mais aussi de l’accroissement de la vitesse de calcul que cela nous procure. En troisième lieu, la possibilité de traiter des données in situ nous rend moins tributaire de la disponibilité des serveurs externes. En dernier lieu, cela nous permet de garder la main sur l’avancement de projets moins exigeants sur le plan des ressources matérielles, mais qui sont au planning.

La possibilité de nous affranchir des contraintes de réservation d’une machine partagée nous permet de mieux maîtriser notre planning, même si cela ne constituait pas un frein majeur jusqu’ici, car nous travaillons avec un serveur relativement disponible.  En revanche, récupérer les résultats remote pour pouvoir faire de la visualisation reste un sujet qui n’est pas encore totalement resolu. C’est tout de même bien plus pratique si nous disposons de l’ensemble des données en local pour procéder à la visualisation de façon immédiate.

En résumé, la simulation par le calcul était une discipline qui était hors de prix jusqu’à une date récente, car le prix des serveurs, de la maintenance et de l’électricité consommée étaient très chers. Aujourd’hui, nous voyons arriver des machines abordables, qui consomment peu et qui sont très performantes.

Disposer d’une capacité de 128 threads est pour nous totalement inédit, et en CFD (Computational Fluid Dynamics), le parallélisme est le roi incontesté.

 

De quelle façon voyez-vous votre métier évoluer grâce au calcul intensif ?

Pour nous, l’accroissement des performances de calcul a plusieurs incidences très directes : réduire les délais pour les projets de taille réduite à médiane, gagner en précision sur les projets qui le requièrent, et accéder à la visualisation sur des volumes de données conséquents. Mieux encore, nous pourrons augmenter les éléments intervenant dans la simulation, comme la possibilité d’intégrer encore plus les vagues dans nos modèles. Nous pourrons également ajuster le curseur de manière dynamique pour affiner le modèle à temps constant, ou raccourcir les délais pour un projet donné à périmètre constant. Avec dans tous les cas pour résultante l’augmentation de notre palette de services et ce faisant, de notre rentabilité. Un investissement bénéfique dans tous les sens du terme.