Data Engineer - Experimenté H/F

Collective
Canton of Saint-Ouen-sur-Seine, France
2 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
English, French
Experience level
Senior

Job location

Canton of Saint-Ouen-sur-Seine, France

Tech stack

Airflow
Unit Testing
Google BigQuery
Cloud Computing
Data Integration
ETL
Identity and Access Management
Python
Network Security
Performance Tuning
Raw Data
Power BI
SQL Databases
Data Streaming
Data Logging
Simple Object Database Access
Google Cloud Platform
Data Layers
Microsoft Fabric
Information Technology
Data Analytics
Data Lakehouse
Terraform
Data Pipelines
ServiceNow

Job description

L'équipe s'inscrit dans le cadre du programme Beauty Tech Data Platform (BTDP), qui définit les standards d'architecture, les patterns d'ingestion, de transformation et d'exposition de la donnée à l'échelle du groupe. L'ambition de l'équipe pour 2026 est de devenir le partenaire business le plus agile pour les domaines Corporate, en délivrant des solutions data et AI à haute valeur ajoutée. Dans ce cadre, l'équipe recrute un(e) Data Engineer GCP expérimenté(e) pour renforcer ses capacités de delivery et contribuer activement à des projets stratégiques à fort impact.

  • Première mission : Pipeline de données Campus - Zscaler

La première mission du consultant portera sur la conception, le développement et l'industrialisation de pipelines de données GCP dans le cadre du domaine Campus (gestion des espaces de travail, données de présence et d'occupation). Contexte spécifique L'équipe Corporate Data travaille sur l'intégration de données issues de l'application Zscaler - outil de sécurité réseau dont les données sont exploitées pour analyser et restituer les comportements de fréquentation et d'occupation des sites du groupe (notamment via le Workplace Attendance Dashboard).

Objectif de la mission Concevoir et déployer des pipelines de données conformes au framework BTDP pour :

  1. Ingérer les données brutes en provenance de Zscaler vers les couches de stockage GCP (Google Cloud Storage / BigQuery)
  2. Transformer ces données selon les règles métier définies (nettoyage, normalisation, agrégation des métriques de présence et d'occupation)
  3. Exposer les données transformées vers les couches de consommation : BigQuery et Power BI selon les besoins des parties prenantes. Livrables attendus :
  • Pipelines Airflow (Cloud Composer) conformes aux standards BTDP

  • Documentation technique (architecture, flux de données, règles de transformation)

  • Couches de données BigQuery (SDDS/ CDS / Dataset) dûment documentées

  • Connecteurs d'exposition vers Power BI

  • Tests unitaires et monitoring des flux

  • Compétences techniques requises, * - Terraform : infrastructure as code pour les ressources GCP

    • Expertise sur des plateformes data entreprise (type BTDP, Medallion Architecture ou équivalent)
    • Connaissance des outils de qualité de données (Great Expectations, Soda ou équivalent)
    • Expertise dans un contexte Grand Compte / Multinational
    • Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif)
  • Environnement de travail & organisation

Le consultant intégrera une équipe pluridisciplinaire composée d'ingénieurs data internes et de consultants externes. Il/elle travaillera en étroite collaboration avec :

  • L'équipe Data & Analytics Corporate (Data Engineers, Tech Lead)
  • Le Campus Application Manager pour la définition des besoins métier
  • Les équipes IBM en charge de l'exploitation quotidienne des plateformes GCP (run opérationnel)
  • Les équipes Power BI / Microsoft Fabric pour les couches d'exposition

Méthodologie

  • Gestion des tâches via ServiceNow et backlog DATA structuré
  • Rituels d'équipe hebdomadaires (bi-weekly Data Gov, stand-ups techniques)
  • Travail en mode agile, avec des sprints de delivery
  • Présence sur site à Saint-Ouen minimum 3 jours/semaine (réunions techniques, ateliers)

Requirements

    • Google Cloud Platform (GCP) - minimum 3 ans d'expérience :

o BigQuery : modélisation, requêtage, optimisation des performances et des coûts o Cloud Composer / Apache Airflow : développement et gestion de DAGs complexes o Google Cloud Storage (GCS) : gestion des buckets, autoclass, lifecycle policies o Cloud Logging / Monitoring : supervision des pipelines, alerting o IAM & Sécurité GCP : gestion des permissions, service accounts, secrets

    • Python : développement de scripts de transformation et d'opérateurs Airflow
    • SQL avancé : manipulation de grandes volumétries de données dans BigQuery
    • Power BI : création de rapports, connexion à des sources cloud (BigQuery), gestion des workspaces et capacités
    • Maîtrise des principes ELT/ETL et des architectures Data Lakehouse, Expertise GCP (BigQuery, Composer, GCS) - Critique Maîtrise Python / SQL - Critique Expertise Power BI - Importante Connaissance frameworks data (BTDP, Medallion) - Importante Capacité à travailler en autonomie dans un grand groupe - Importante, * Formation : Bac+5 en Informatique, Data Engineering, ou domaine équivalent
  • Expertise : Minimum 3 ans en tant que Data Engineer avec une spécialisation GCP avérée

  • Langues : Français courant - Anglais professionnel (l'environnement est international), Google Cloud Platform (GCP) - minimum 3 ans d'expérience, * - Python : développement de scripts de transformation et d'opérateurs Airflow, * - SQL avancé : manipulation de grandes volumétries de données dans BigQuery, * - Power BI : création de rapports, connexion à des sources cloud (BigQuery), gestion des workspaces et capacités, * - Maîtrise des principes ELT/ETL et des architectures Data Lakehouse, * - Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif), Anglais professionnel

Compétences / Qualités qui seraient un + :

  • Connaissance de Zscaler ou de données réseau/sécurité (un plus significatif) Expérience en grands groupe et luxe apprécié

Benefits & conditions

  • Démarrage souhaité : Dès que possible

Télé travail : 2 jours par semaine / 3 jours de présence sur site

About the company

Notre client dans le secteur Autre recherche un/une Data Engineer - ExperimentéH/F, Le client est un acteur majeur du secteur Luxe & Cosmétique. Contexte de la mission : L'équipe Data & Analytics Corporate est responsable des plateformes de données et d'analytics à l'échelle mondiale. Elle pilote l'ensemble des plateformes data du groupe au niveau Corporate, en couvrant des domaines métier critiques tels que les Ressources Humaines, le Campus & l'Immobilier. L'équipe opère principalement sur deux technologies cloud de référence : * Google Cloud Platform (GCP) - socle de la plateforme data Corporate (Cloud Composer/Airflow, BigQuery, Google Cloud Storage) * Snowflake - plateforme analytique et de partage de données à l'échelle groupe

Apply for this position