La démarche diagnostique appliquée à la donnée.

Depuis quatorze ans, j'analyse et structure des systèmes complexes pour bâtir des solutions robustes, performantes et immédiatement opérationnelles. Mon approche ne se limite pas au code : elle consiste à décoder les signaux faibles au sein d'architectures massives pour garantir une décision juste sous contrainte.

Je combine data engineering de haut niveau, systèmes distribués et DevOps/MLOps avec une capacité éprouvée à architecturer des systèmes production-grade — de l'ingestion de milliards de points à l'industrialisation de modèles IA critiques.

Faits & impact industriel

Industrialisation climatique • CNRS

Traitement massif des précipitations extrêmes (1959–2022) : conception d'un pipeline ETL distribué sur cluster HPC Linux traitant 10 milliards de données (100 Go+). Arbitrage stratégique (Dask, Airflow, NetCDF/Zarr) ayant permis un gain de performance de 80%. Publication automatisée sur HuggingFace et déploiement de dashboards interactifs pour la décision scientifique.

HPCDaskAirflowZarr

Produit digital & sécurité • naivo

Conception et opération de l'assistant décisionnel naivo.fr pour la sécurité en montagne. Centralisation en temps réel de flux hétérogènes (risques, météo, webcams, cartographie). Projet distingué par data.gouv.fr pour son excellence technique et son impact sur la sécurité publique. Maîtrise complète du cycle de vie du produit, de l'ingestion des sources à l'expérience utilisateur finale.

Full-StackTime-SeriesDevOpsProduct

Rigueur modélisatrice • INRA

Diagnostic de transferts physiologiques complexes via modélisation mécaniste bi-compartimentale. Pilotage du contrôle qualité sur 766 mesures expérimentales avec une précision extrême (CV ≤ 3%). Transformation de données brutes en indicateurs robustes intégrés aux outils de décision de terrain. Lauréat de l'Académie Vétérinaire de France pour la qualité de ces travaux.

StatistiquesModelingQA

L'école du diagnostic

Mon parcours initial de Docteur Vétérinaire n'est pas une parenthèse, c'est le socle de ma rigueur technique. La médecine d'urgence m'a appris la gestion du risque, la standardisation absolue des protocoles et la prise de décision architecturale sous haute pression.

Aujourd'hui, j'applique cette même démarche diagnostique à l'ingénierie : identifier la cause racine d'un goulot d'étranglement, assurer la reproductibilité d'un pipeline ML ou garantir la haute disponibilité d'un service. C'est cette exigence clinique appliquée à la donnée qui fait la différence entre un système qui fonctionne et un système sur lequel on peut parier.

Piliers d'expertise

Architectures & scalabilité

Conception de pipelines data à grande échelle (10B+ points), architectures distribuées (HPC, openMP/Dask), formats optimisés (Parquet, Zarr) et orchestration distribuée.

Excellence opérationnelle (MLOps)

Industrialisation de l'IA : du fine-tuning de LLMs au monitoring en production. CI/CD, containerisation, Infrastructure-as-Code (Terraform) et observabilité totale.

Diagnostic & modélisation

Modélisation statistique et mécaniste avancée, sélection de modèles par log-vraisemblance profilée, et transformation de signaux hétérogènes en outils d'aide à la décision.

Vision produit full-stack

Capacité à opérer l'ensemble de la chaîne de valeur : Cloud, Backend haute performance (FastAPI, Polars), Frontend réactif (Astro, React) et interfaces UX scientifiques.

Tracer l'essentiel.

Prêt à transformer vos goulots d'étranglement en systèmes industriels transparents et performants ?