Senior Data Engineer
Role details
Job location
Tech stack
Job description
Nous recherchons un Data Engineer senior pour optimiser, fiabiliser et industrialiser les pipelines de données qui alimentent nos produits IA. Ton rôle est clé : tu garantis la qualité, la disponibilité et la performance des données utilisées au quotidien par les équipes IA, Produit et DevOps.
Responsabilités
- Concevoir, développer et maintenir des pipelines de données robustes, automatisés et scalables.
- Assurer la qualité, la sécurité et la fiabilité des données sur tout leur cycle de vie.
- Définir et maintenir une infrastructure as code pour les services liés à la donnée.
- Construire et maintenir des dashboards, outils de monitoring et rapports destinés aux équipes internes.
- Collaborer étroitement avec les équipes Data Science, DevOps et Produit pour garantir la cohérence et la valorisation des données.
- Surveiller et optimiser les performances via des outils d'observabilité (Datadog, Grafana, Prometheus).
Requirements
- Bac+5 ou équivalent en informatique, data engineering ou IA.
- 5+ ans d'expérience en Data Engineering, idéalement en environnement cloud/IA.
- Excellente maîtrise de Python et des bonnes pratiques de développement (tests, versioning, packaging).
- Très bonne connaissance des bases SQL et NoSQL (PostgreSQL, DynamoDB).
- Expérience solide sur l'automatisation des workflows (Airflow, GitHub Actions, GitLab CI/CD).
- Maîtrise des concepts MLOps, intégration des données dans les workflows ML, monitoring et déploiement.
- Compétences cloud sur AWS ou GCP (S3, Lambda, RDS, Step Functions).
- Connaissance de Docker et des environnements de conteneurisation.
Soft skills
- Rigueur technique et souci constant de qualité.
- Autonomie forte et capacité à prendre en charge un périmètre large.
- Communication claire, structurée, orientée collaboration.
- Capacité à travailler avec des équipes pluridisciplinaires.
- Esprit analytique et sens du détail.
Ce qui fera la différence
- Expérience démontrée sur des pipelines critiques en production.
- Pratique avancée de l'observabilité data (logs, métriques, alerting).
- Contributions open-source dans l'écosystème data/ML.
- Proactivité dans l'amélioration continue des workflows et environnements data.
- Sensibilité à l'impact environnemental ou sociétal des technologies.
Stack technique
- Langages : Python
- Bases de données : PostgreSQL, DynamoDB
- Pipelines : GitHub Actions, Airflow
- Cloud : AWS (S3, Lambda, RDS, Step Functions), GCP
- Conteneurisation : Docker
- Observabilité : Datadog, Grafana, Prometheus
- MLOps : MLflow, SageMaker
Benefits & conditions
Hybride à Paris et selon le rôle
Contrat cadre et RTT (entre 8 et 12 par an en fonction des jours fériés de l'année en cours)
Un Mac ou PC selon tes préférences
Prise en charge à 60% des tickets restaurants de 9€ par jour ouvré et travaillé
Prise en charge de 50€ par mois de budget formation
Mutuelle complète (Alan)
Des locaux situés en plein Paris (3e arrondissement)
Offsite annuel avec toute l'équipe et nombreux évents d'entreprise
Si l'issue est positive, tu auras 5 jours pour donner ta réponse. On sera ravi de t'accueillir parmi nous !