Data Engineer Gcp H/F
Role details
Job location
Tech stack
Job description
Conception & Développement
- Construire et maintenir des pipelines de données sur GCP (batch & streaming).
- Développer des transformations de données robustes et performantes.
- Modéliser les données (Data Lake / Data Warehouse / Data Marts).
Architecture & Industrialisation
- Participer à la définition de l'architecture data sur GCP.
- Mettre en place des workflows orchestrés, testés et monitorés.
- Optimiser les coûts et les performances des solutions déployées.
Qualité, Sécurité & Gouvernance
- Garantir la qualité, traçabilité et disponibilité des données.
- Respecter les bonnes pratiques en matière de sécurité GCP, IAM et conformité RGPD.
- Contribuer à l'amélioration continue des process (CI/CD, automatisation, observabilité).
Collaboration
- Travailler étroitement avec les Data Analysts, Data Scientists et équipes produit.
- Documenter les solutions et partager les bonnes pratiques techniques., Notre activité couvre la totalité des cycles de vie d'un Système d'information (Pilotage et Gestion de projet, Conseil en MOA, Conception Réalisation, Maintenance, Production Exploitation).
Requirements
Expérience significative en développement applicatif sur GCP (5-6 ans min).
Très bonne maîtrise des services GCP serverless et data (Cloud Functions, Pub/Sub, BigQuery).
Solides compétences en conception et développement d'API.
Aisance avec les environnements multi-cloud (AWS apprécié).
Bonne connaissance des bonnes pratiques cloud-native (scalabilité, sécurité, performance).
Goût pour le travail en équipe, l'échange technique et l'innovation.
Environnement technique :
Cloud : GCP (Cloud Functions, Pub/Sub, BigQuery, GCS).
Langages : Python, Node.js, Java.
API & Intégrations : REST, JSON, OAuth, intégrations Salesforce via API.
Outils : Git, CI/CD, Terraform (ou équivalent IaC si besoin léger).
Écosystème : middleware, reporting, monitoring & logging.