Data Engineer - Estreem H/F
Role details
Job location
Tech stack
Job description
En tant que Data Engineer, vous aurez un rôle clé dans la construction de la data factory d'Estreem. Vous interviendrez sur l'ingestion, l'historisation et le traitement de gros volumes de données afin de construire des cas d'usage à forte valeur ajoutée. Votre travail permettra d'alimenter des dashboards stratégiques, utilisés par l'ensemble des métiers.
Vos principales missions :
- Concevoir, développer et maintenir des pipelines d'ingestion et de transformation de données sur GCP.
- Garantir la qualité, la sécurité et la gouvernance des données dans un environnement cloud.
- Optimiser les performances des traitements et des flux de données.
- Collaborer avec les équipes IA, BI et Produit pour fournir des datasets fiables et scalables.
- Participer à l'automatisation des déploiements via Terraform et CI/CD., Plus d'informations sur Estreem etnos projets sont disponibles sur notre site web :
Votre rôle et vos principales missions
En tant que Data Engineer, vous aurez un rôle clé dans la construction de la data factory d'Estreem. Vous interviendrez sur l'ingestion, l'historisation et le traitement de gros volumes de données afin de construire des cas d'usage à forte valeur ajoutée. Votre travail permettra d'alimenter des dashboards stratégiques, utilisés par l'ensemble des métiers.
Vos principales missions :
- Concevoir, développer et maintenir des pipelines d'ingestion et de transformation de données sur GCP.
- Garantir la qualité, la sécurité et la gouvernance des données dans un environnement cloud.
- Optimiser les performances des traitements et des flux de données.
- Collaborer avec les équipes IA, BI et Produit pour fournir des datasets fiables et scalables.
- Participer à l'automatisation des déploiements via Terraform et CI/CD.
Requirements
Formation : Diplôme d'ingénieur (Bac +5), Minimum 5 ans d'expérience en ingénierie data, dont une part significative sur GCP
- Expérience confirmée au sein d'équipes agiles et dans des contextes collaboratifs
- Capacité à interagir avec des profils variés (métiers, techniques, finance)
- Sensibilité forte à la qualité, à la performance et à la fiabilité des pipelines data, Google Cloud Platform (GCP) : BigQuery, Bigtable, Dataflow, Pub/Sub, Cloud Storage, IAM.
- Orchestration : Cloud Composer (Airflow).
- Langages : Python, SQL.
- Infrastructure as Code : Terraform.
- Data Modeling & ETL : compétences clés de conception, transformation et optimisation.
- Qualité & Sécurité des données : VPC Service Controls, IAM, monitoring., Maîtrise de YAML.
- BigQuery : savoir concevoir des schémas optimisés (partitionnement, clustering) pour gérer des volumes massifs.
- Connaissance des bonnes pratiques FinOps sur GCP.
Ce que nous valorisons
Un mindset orienté produit/service : sens de l'impact, souci de l'utilisateur final. Une capacité à prendre du recul, à challenger les choix techniques et à s'inscrire dans une logique d'amélioration continue., Formation : Diplôme d'ingénieur (Bac +5)
Expérience :
- Minimum 5 ans d'expérience en ingénierie data, dont une part significative sur GCP
- Expérience confirmée au sein d'équipes agiles et dans des contextes collaboratifs
- Capacité à interagir avec des profils variés (métiers, techniques, finance)
- Sensibilité forte à la qualité, à la performance et à la fiabilité des pipelines data
Benefits & conditions
Langues
-
Français courant (C2)
-
Anglais professionnel (B2-C1), Localisation : Toulouse
-
Date d'entrée en poste : Dès que possible
-
Type de contrat : CDI
-
Télétravail : jusqu'à 10 jours par mois, dans la limite de 3 jours maximum par semaine.
-
Statut niveau Cadre
Rémunération & Avantages
-
Possibilité de CET
-
Carte SWILE (ticket restaurant)
-
FMD (forfait mobilité douce)
-
Épargne salariale PEE, PERCO, intéressement, abondement