·e DevOps / Platform Engineer
Role details
Job location
Tech stack
Job description
Nous recrutons un·e DevOps / Platform Engineer afin de renforcer notre équipe Analytics.
Il sera responsable de fournir des metrics au sein de l'entreprise. Vous jouerez un rôle essentiel dans la garantie de la disponibilité, de la performance et de la fiabilité de nos pipelines d' analyse des données, dans une stack moderne basé sur spark, airflow et k8s, toutes déployées dans nos solutions de cloud IaaS., * Vous interviendrez au cœur de notre plateforme data moderne, basée sur Spark, Airflow et Superset, orchestrée sur Kubernetes via Helm/Helmfile et déployée sur nos infrastructures Cloud IaaS.
- Au-delà du maintien opérationnel, ce rôle s'inscrit dans une dynamique d'évolution vers des environnements analytics avancés et des usages intégrant progressivement l'IA et l'automatisation intelligente.
- Fiabilisation et performance des pipelines data: concevoir, maintenir et faire évoluer des pipelines complexes (Spark, Airflow), en garantissant disponibilité, performance, scalabilité et qualité des données.
- Contribuer activement aux initiatives IA : préparer les fondations techniques nécessaires aux usages IA, intégrer des briques d'automatisation intelligente et participer à la structuration d'environnements compatibles avec des systèmes agentiques
- Piloter l'architecture et l'automatisation : administrer et faire évoluer l'infrastructure Kubernetes, industrialiser les déploiements via Helm/Helmfile, structurer et améliorer les processus CI/CD et contribuer à l'évolution globale de la plateforme analytics
- Assurer l'excellence opérationnelle : mettre en place et renforcer le monitoring (Prometheus, Grafana, Zabbix), optimiser la performance de la stack et résoudre efficacement les incidents.
Stack technique
Requirements
- Maîtrise des outils Spark, Airflow et Superset
- Connaissance approfondie de Kubernetes et de l'environnement cloud
- Maîtrise de Helm / Helmfile pour l'industrialisation des déploiements
- Expérience dans la gestion de pipelines de données complexes.
- Bonnes connaissances des concepts de CI/CD et des outils associés
- Scripting : python, bash / Systèmes d'exploitation : Linux, MacOS
- Connaissance d'outils de supervision (Zabbix, Prometheus, Grafana), * Diplômé·e d'un Master en ingénierie informatique, vous possédez déjà une expérience professionnelle post diplôme minimum de 4 ans en tant que DataOps Engineer ou vous avez une ex pertise avérée en Kubernetes avec une volonté forte de se spécialiser dans les environnements AI et analytics
- Vous possédez une première expérience autour de l'intégration de modèles IA / LLM dans des workflows techniques, l'automatisation intelligente ou agents et MLOps ou environnements de déploiement de modèles
- Vous avez de solides connaissances sur des architectures data à forte volumétrie
- Vous êtes capable de structurer et d'améliorer une stack existante
- Vous appréciez prendre des intiatives et possédez une approche orientée amélioration continue
Benefits & conditions
Principaux avantages et bénéfices :
- Environnement multiculturel
- Cadre de travail convivial axé sur le bien-être et la santé
- Engagement en faveur de la diversité et de l'inclusion
- Politique dynamique de développement de carrière : plan de formation, mobilités internes, etc.
Inclusion statement
As a game-changer in sustainable technology and innovation, Dassault Systèmes is striving to build more inclusive and diverse teams across the globe. We believe that our people are our number one asset and we want all employees to feel empowered to bring their whole selves to work every day. It is our goal that our people feel a sense of pride and a passion for belonging. As a company leading change, it's our responsibility to foster opportunities for all people to participate in a harmonized Workforce of the Future.