Weather forecast bas carbone avec AmpliSim

Pouvoir déployer de la puissance de calcul en fonction de nos besoins et bénéficier d’une API très pratique, c’est ce qui nous a séduit. Et un dernier aspect qui n’est pas le moindre, c’est le fait de diminuer l’empreinte carbone des calculs.
Olivier Oldrini
Co-Fondateur et Président d’AmpliSIM
L'entreprise

Chez AmpliSIM, on est convaincu qu’en matière d’environnement, bien informé, on prend de meilleures décisions. Nous avons donc développé une plateforme web pour modéliser simplement et rapidement l’impact sur l’environnement, par exemple l’air. Nous aidons ainsi des collectivités, des bureaux d’études et des industriels à cartographier et prévoir l’impact de leur activité sur la qualité de l’air.

Ils sont ainsi en mesure de mieux comprendre les situations liant météorologie, émissions et épisodes d’impact sur l’air. Nos clients peuvent ainsi décider de manière éclairée comment améliorer leur activité sur le critère impact, mais aussi comparer des scénarios, par exemple d’aménagement. L’enjeu final est de pérenniser leur activité ou les aménagements qu’ils pilotent : en effet, ce qui fait qu’une activité est pérenne, c’est bien sûr qu’elle soit rentable économiquement mais c’est aussi qu’elle s’intègre bien dans son environnement et donc avec l’ensemble des parties prenantes.

Quelle est la valeur ajoutée d’AmpliSIM ?

Pour être capable de cartographier et prévoir, il faut utiliser des outils de modélisation et de simulation qui sont généralement complexes et lents à mettre en œuvre et qui sont énormément consommateurs de données. Nous rendons ces outils beaucoup plus accessibles et plus simples à utiliser. Cela permet d’internaliser une partie de la compétence et du coup d’être capable de comparer simplement et rapidement des scénarios d’aménagement en termes d’impact sur la qualité de l’air par exemple.

Quel type de données traitez-vous chez AmpliSIM ?

Dans le domaine de l’environnement, beaucoup de données sont nécessaires. Et ces données sont à trouver auprès de sources extérieures.
Par exemple, quand SONY essaie de déterminer la résistance d’une coque de téléphone, toutes les données sont connues : les dimensions, le matériau, etc. On les rentre dans l’ordinateur et on regarde, via la simulation, si il se casse quand je le fais tomber par terre, ou lorsque je le plie. Dans l’environnement, c’est exactement l’inverse. L'essentiel de la donnée est à l’extérieur : on va avoir par exemple besoin de la topographie (à quel point le sol monte ou descend), de l’utilisation des sols (bâtiment, eau, forêt...), et évidemment de la météo. Et ces données sont récupérées auprès d’acteurs différents dans des formats différents, très hétérogènes. Être capable de récupérer la bonne donnée, à la bonne échelle au bon endroit, cela fait partie de notre métier.

Quel volume de données traitez-vous ?

Ce sont des données qui sont variables en fonction du modèle qu’on utilise. Cela peut aller de quelques centaines de kilo-octets à quelques tera-octets. Ce sont des données qui peuvent être petites, mais elles sont souvent en grand nombre, ou au contraire très massives. Par exemple, cela peut être les paramètres de vent et de température au niveau d’une station météo pendant une certaine durée (3 ans par exemple) avec des données toutes les dix minutes. Mais ça peut aussi être des résultats de modèles de prévision de Météo France, c’est-à-dire des modèles qui fonctionnent sur l’ensemble de l’Europe, donc avec des grilles de calcul importantes.

Pourquoi avez-vous choisi d’externaliser le calcul ?

Notre métier chez AmpliSIM, c’est vraiment de bien choisir les données qu’on utilise, les paramètres de calcul, d’être capable de paralléliser des codes pour avoir plus rapidement les résultats. Mais notre métier, ce n’est pas du tout de faire des calculateurs, ni de les maintenir et de les déployer. Donc ce qu’on a recherché chez Qarnot, c’est avant tout la capacité de pouvoir déployer à la volée des calculateurs en fonction de nos besoins, qui sont fluctuants. Fluctuants parce qu’on a à la fois des calculs qui se déroulent sur des longues durées comme quelques années, mais aussi des calculs qui vont démarrer systématiquement, toutes les heures par exemple, pour assurer le suivi d’unités industrielles. Nous re-calculons toutes les heures en temps réel à partir des données mesurées sur site. Pouvoir déployer la puissance de calcul en fonction des besoins et bénéficier d’une API très pratique, c’est ce qui nous a séduit. Et un dernier aspect qui n’est pas le moindre, c’est le fait de diminuer l’empreinte carbone de calculs. C’était un critère important pour nous qui travaillons dans le secteur de l’environnement.

Comment s’est passée l’intégration de l’API ? En quoi a-t-elle répondu techniquement à tes besoins et attentes ?

Ce qu’on a apprécié, c’est d’une part la capacité à passer par un SDK Python (langage que nous utilisons principalement). Cela nous a permis de pouvoir attaquer tout de suite des disques, déployer des calculs, spécifier des choses… Cela s’est intégré naturellement dans notre workflow.

L’API est très facile d’accès mais les équipes ont été aussi très réactives. On a beaucoup interagi au quotidien. On a hésité par exemple entre plusieurs workflows de travail et très rapidement en discutant avec les équipes, on s’est focalisé sur une solution, ce qui nous a permis de gagner énormément de temps. On est dans un cas particulier parce qu’on automatise énormément, mais le premier déploiement de calcul ne nous a pris que quelques semaines alors que si on était parti sur une architecture standard, on aurait mis quelques mois à le mettre en place.
Par ailleurs, le fait que l’infrastructure de calcul soit basée en France et qu’elle réponde aux standards de sécurité les plus exigeants était un point clef pour une part importante de nos clients, notamment les industriels mais également certains bureaux d’études.