DevOps H/F
Role details
Job location
Tech stack
Job description
Dans le cadre de cette mission, vous interviendrez au sein d'une direction Data qui accompagne les métiers et les entités internationales dans leurs projets de data science, depuis la définition des use cases jusqu'à la mise en production des modèles. L'environnement est dynamique, international, avec un esprit « start-up » intégré à un grand groupe, regroupant des data scientists (computer vision, NLP, scoring), des ML engineers et une équipe dédiée aux projets IA.
Vous contribuerez à la conception, l'évolution et la haute disponibilité d'une plateforme de data science complète, comprenant :
- un environnement d'exploration et de développement Python développé en interne,
- un framework d'industrialisation des modèles,
- une plateforme d'exécution des modèles,
- un outil de community management dédié.
Votre rôle consistera à assurer l'administration, l'exploitation et l'automatisation des clusters, à optimiser les images Docker et à gérer l'exécution de plusieurs centaines de containers en production. Vous porterez également la vision technique de la plateforme, piloterez les choix d'architecture, assurerez une veille technologique continue et rédigerez la documentation technique. Vous participerez à la maintenance et à l'évolution des frameworks data science, des pipelines CI/CD, de l'observabilité des plateformes, ainsi qu'à la mise en production des solutions IA. Vous serez force de proposition et interviendrez sur des POCs.
Requirements
Stack technique : Infrastructure / DevOps : GitLab CI/CD, GitOps (ArgoCD), cloud privé Containers : Docker, Kubernetes Langages : Python, Golang, Bash Observabilité : Prometheus, Thanos, AlertManager, Grafana Sécurité : Vault Outils DevOps : Buildkit, Artifactory, Helm, Kustomize, CUE/Timoni Services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS Systèmes : GNU/Linux * Maîtrise avancée de Kubernetes (architecture, administration de clusters)
- Connaissance de la gestion des secrets (Vault)
- Solides compétences réseau :
- reverse proxy (Traefik)
- authentification (Keycloak, JWT, OIDC)
- Très bonne compréhension de GitLab et des pipelines CI/CD
- Connaissance de l'approche GitOps (ArgoCD)
- Compétences en observabilité dans un environnement Kubernetes :
- Prometheus, AlertManager, Grafana
- Connaissances appréciées en bases de données relationnelles (PostgreSQL)
- Maîtrise des environnements GNU/Linux
- Capacité à intervenir sur :
- l'évolution de frameworks data science (Python)
- la maintenance/optimisation des pipelines CI/CD
- l'amélioration du logging, monitoring et traçabilité
- la mise en production d'outils et solutions IA
- Force de proposition, curiosité technologique et participation active aux POCs
- Rigueur, autonomie, sens du partage et qualité documentaire
- Anglais obligatoire
Benefits & conditions
- RTT
- Tickets restaurants
- Participation
- CSE
- 75% transport