Data Engineer - Experimenté H/F
Role details
Job location
Tech stack
Job description
L'équipe s'inscrit dans le cadre du programme Beauty Tech Data Platform (BTDP), qui définit les standards d'architecture, les patterns d'ingestion, de transformation et d'exposition de la donnée à l'échelle du groupe. L'ambition de l'équipe pour 2026 est de devenir le partenaire business le plus agile pour les domaines Corporate, en délivrant des solutions data et AI à haute valeur ajoutée. Dans ce cadre, l'équipe recrute un(e) Data Engineer GCP expérimenté(e) pour renforcer ses capacités de delivery et contribuer activement à des projets stratégiques à fort impact.
- Première mission : Pipeline de données Campus - Zscaler
La première mission du consultant portera sur la conception, le développement et l'industrialisation de pipelines de données GCP dans le cadre du domaine Campus (gestion des espaces de travail, données de présence et d'occupation). Contexte spécifique L'équipe Corporate Data travaille sur l'intégration de données issues de l'application Zscaler - outil de sécurité réseau dont les données sont exploitées pour analyser et restituer les comportements de fréquentation et d'occupation des sites du groupe (notamment via le Workplace Attendance Dashboard).
Objectif de la mission Concevoir et déployer des pipelines de données conformes au framework BTDP pour :
- Ingérer les données brutes en provenance de Zscaler vers les couches de stockage GCP (Google Cloud Storage / BigQuery)
- Transformer ces données selon les règles métier définies (nettoyage, normalisation, agrégation des métriques de présence et d'occupation)
- Exposer les données transformées vers les couches de consommation : BigQuery et Power BI selon les besoins des parties prenantes. Livrables attendus :
-
Pipelines Airflow (Cloud Composer) conformes aux standards BTDP
-
Documentation technique (architecture, flux de données, règles de transformation)
-
Couches de données BigQuery (SDDS/ CDS / Dataset) dûment documentées
-
Connecteurs d'exposition vers Power BI
-
Tests unitaires et monitoring des flux
-
Compétences techniques requises, * - Terraform : infrastructure as code pour les ressources GCP
-
- Expertise sur des plateformes data entreprise (type BTDP, Medallion Architecture ou équivalent)
-
- Connaissance des outils de qualité de données (Great Expectations, Soda ou équivalent)
-
- Expertise dans un contexte Grand Compte / Multinational
-
- Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif)
-
Environnement de travail & organisation
Le consultant intégrera une équipe pluridisciplinaire composée d'ingénieurs data internes et de consultants externes. Il/elle travaillera en étroite collaboration avec :
- L'équipe Data & Analytics Corporate (Data Engineers, Tech Lead)
- Le Campus Application Manager pour la définition des besoins métier
- Les équipes IBM en charge de l'exploitation quotidienne des plateformes GCP (run opérationnel)
- Les équipes Power BI / Microsoft Fabric pour les couches d'exposition
Méthodologie
- Gestion des tâches via ServiceNow et backlog DATA structuré
- Rituels d'équipe hebdomadaires (bi-weekly Data Gov, stand-ups techniques)
- Travail en mode agile, avec des sprints de delivery
- Présence sur site à Saint-Ouen minimum 3 jours/semaine (réunions techniques, ateliers)
Requirements
-
- Google Cloud Platform (GCP) - minimum 3 ans d'expérience :
o BigQuery : modélisation, requêtage, optimisation des performances et des coûts o Cloud Composer / Apache Airflow : développement et gestion de DAGs complexes o Google Cloud Storage (GCS) : gestion des buckets, autoclass, lifecycle policies o Cloud Logging / Monitoring : supervision des pipelines, alerting o IAM & Sécurité GCP : gestion des permissions, service accounts, secrets
-
- Python : développement de scripts de transformation et d'opérateurs Airflow
-
- SQL avancé : manipulation de grandes volumétries de données dans BigQuery
-
- Power BI : création de rapports, connexion à des sources cloud (BigQuery), gestion des workspaces et capacités
-
- Maîtrise des principes ELT/ETL et des architectures Data Lakehouse, Expertise GCP (BigQuery, Composer, GCS) - Critique Maîtrise Python / SQL - Critique Expertise Power BI - Importante Connaissance frameworks data (BTDP, Medallion) - Importante Capacité à travailler en autonomie dans un grand groupe - Importante, * Formation : Bac+5 en Informatique, Data Engineering, ou domaine équivalent
-
Expertise : Minimum 3 ans en tant que Data Engineer avec une spécialisation GCP avérée
-
Langues : Français courant - Anglais professionnel (l'environnement est international), Google Cloud Platform (GCP) - minimum 3 ans d'expérience, * - Python : développement de scripts de transformation et d'opérateurs Airflow, * - SQL avancé : manipulation de grandes volumétries de données dans BigQuery, * - Power BI : création de rapports, connexion à des sources cloud (BigQuery), gestion des workspaces et capacités, * - Maîtrise des principes ELT/ETL et des architectures Data Lakehouse, * - Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif), Anglais professionnel
Compétences / Qualités qui seraient un + :
- Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif) Expérience en grands groupe et luxe apprécié
Benefits & conditions
- Démarrage souhaité : Dès que possible
Télé travail : 2 jours par semaine / 3 jours de présence sur site