Scientific computing · GPU souverain

Scientific computing : puissance souveraine pour la simulation et la découverte

Gardez les données sensibles en juridiction tout en accélérant simulation et IA sur RTX A4500/2000 Ada. Notebooks persistants, conteneurs reproductibles et contrôle OpenStack par défaut.

Juridiction

Hébergement UE

Datacenters Strasbourg, Dunkerque, Francfort pour workloads conformes RGPD.

Workflows hybrides

Simulation + IA

Faites tourner codes MD et modèles de folding sur la même flotte.

Persistance

Notebooks longue durée

Sessions actives 48h+ sans éviction.

Science souveraine

L'impératif de souveraineté des données pour la recherche européenne

En génomique, médecine personnalisée, modélisation financière ou climat, la charge de calcul passe après la gouvernance des données. Depuis l'invalidation du Privacy Shield et l'introduction du CLOUD Act américain, le cadre légal s'est complexifié. Le CLOUD Act permet théoriquement à la justice US de contraindre l'accès à des données stockées par des sociétés américaines (AWS, Google, Azure), où qu'elles se trouvent.

Pour les consortiums européens (Horizon Europe, laboratoires publics), choisir un cloud souverain est souvent une obligation. L'offre « Sovereign GPU » de Shadow garantit une infrastructure possédée, opérée et domiciliée dans le cadre juridique UE (datacenters Strasbourg, Dunkerque, Francfort). Les datasets sensibles — séquençage patient, modèles bancaires propriétaires — restent hors juridictions étrangères, simplifiant les audits RGPD.

Gardez les données sensibles en juridiction, évitez l'exposition CLOUD Act et simplifiez vos audits RGPD tout en scalant le GPU.

Protégez vos recherches sensibles tout en accélérant vos simulations GPU en Europe.

Accélérer les workloads parallèles : au-delà du CPU

Le calcul scientifique migre des codes MPI purement CPU vers des workloads GPU via CUDA/OpenACC. L'architecture parallèle des GPU, pensée pour les pixels, est idéale pour les opérations matricielles au cœur des sciences.

De la simulation à la science augmentée par l'IA

  • Dynamique moléculaire (MD) : GROMACS, LAMMPS, NAMD sont optimisés pour NVIDIA. Les 23,7 TFLOPS FP32 d'une RTX A4500 accélèrent fortement ces simulations par rapport à un nœud CPU : calcul de trajectoires de folding protéique jusqu'à 10–50x plus rapide qu'un multicœur.
  • Augmentation IA : Les chercheurs utilisent la même instance GPU pour exécuter des modèles comme AlphaFold ou ESMFold afin de prédire des structures, puis les valident en MD classique. Ce workflow hybride exige un GPU assez polyvalent pour le FP32/FP64 de la simulation et les opérations tenseurs de l'IA.

Workflow Jupyter sur OpenStack

Pour les chercheurs, l'UX se joue dans le notebook. Colab ou Kaggle offrent des GPU gratuits mais avec des limites sévères : timeouts, pas de stockage persistant, pas de process en arrière-plan quand l'onglet est fermé.

Shadow permet un modèle « backend-as-a-service » pour Jupyter qui persiste.

  1. Déploiement headless : un conteneur JupyterLab tourne sur une instance Shadow.
  2. Tunnel : un tunnel SSH sécurisé relie le navigateur local au kernel distant.
  3. Persistance : un run de 48h lancé vendredi reste vivant lundi : variables en mémoire, process terminé. Impossible sur des notebooks éphémères.

Notebooks persistants + hébergement souverain = expériences 48h+ sans éviction ni risques de déplacement de données.

Commande de tunnel SSH :

# Commande locale pour forward le port 8888
ssh -L 8888:localhost:8888 user@shadow-instance-ip

Cette simple commande fait apparaître le GPU distant comme un serveur local sur localhost:8888.

Recherche reproductible avec des conteneurs

La reproductibilité est le socle de la validité scientifique. Le « ça marche sur ma machine » frappe encore les codes académiques où un résultat dépend d'une version de bibliothèque. L'accès root et la compatibilité DevOps (Docker, Singularity/Apptainer) permettent d'emballer OS, drivers, libs et code dans une image portable.

  • Singularity/Apptainer : runtime privilégié en HPC pour son modèle de sécurité (mêmes permissions inside/outside). L'accès root sur Shadow permet de build ces images (root requis), puis de les déployer sur Shadow ou de les déplacer vers un centre de calcul national si plus d'échelle est nécessaire. Shadow sert d'on-ramp flexible vers le HPC.

Comparatif : cloud vs on-premise pour la science

Beaucoup de labos hésitent entre acheter un serveur GPU et louer du cloud.

Tableau 3.1 : arbitrages économiques pour les labos. Le cloud offre une flexibilité adaptée aux cycles de financement.
Caractéristique Serveur on-prem (CapEx) Shadow Cloud GPU (OpEx)
Coût initial Élevé (5k€ - 20k€+) Zéro
Maintenance Équipe labo (MAJ, cooling, pannes) Gérée par le provider
Scalabilité Fixe (ajout de GPU lent) Élastique (lancer 10 nœuds une semaine)
Obsolescence Matériel qui vieillit (3–5 ans) Accès aux dernières archis (Ada, …)
Utilisation Souvent idle nuits/week-ends Paiement à l'usage (Spot/heure)

Prochaine étape

Accélérez vos simulations sans perdre la maîtrise des données

Déployez des notebooks GPU qui restent vivants sur des runs longs, gardez vos données en Europe et réutilisez les mêmes conteneurs de Shadow jusqu'aux supercalculateurs nationaux.