Ingénieur de Données Gcp H/F
Role details
Job location
Tech stack
Job description
En tant qu'Ingénieur de Données GCP vous concevez, développez et maintenez des architectures et des pipelines de données robustes et performants sur Google Cloud Platform. Vos principales missions incluront :
-
Concevoir et développer : Créer et maintenir des pipelines de données évolutifs sur GCP pour l'ingestion, la transformation et le chargement des données
-
Implémenter des solutions : Mettre en oeuvre des solutions d'intégration de données en utilisant les services GCP tels que Pub/Sub, Data fusion et Dataproc etc
-
Gérer les plateformes : Gérer efficacement les plateformes de stockage de données, y compris les Data Lakes et les Data Warehouses
-
Automatisation : Développer et déployer de nouvelles Cloud Functions, de nouvelles orchestrations pour automatiser les tâches liées aux données et intégrer divers services
-
Gouvernance des données : Assurer la gestion des métadonnées et la gouvernance des données en utilisant des outils comme Data Catalog, Dataplex
-
Collaboration : Travailler en étroite collaboration avec les architectes de données, les machine learning & AI engineer et les équipes métiers pour traduire les besoins en solutions techniques concrètes
-
Optimisation : Veiller à l'optimisation des performances et des coûts de nos infrastructures et traitements de données sur GCP
-
Qualité et Sécurité : Garantir la qualité, la sécurité et la conformité de nos pipelines
-
Veille Technologique : Contribuer à la veille technologique et proposer des améliorations continues
Requirements
Vous êtes diplômé(e) d'une formation d'ingénieur en données ou équivalent.
Vous disposez d'au moins 2 ans d'expérience en tant qu'ingénieur data, avec une maîtrise confirmée de l'environnement GCP. La certification Google Cloud Professional Data Engineer serait un atout apprécié.
Vos compétences techniques :
-
Maîtrise de GCP : Expertise avérée sur les services de données Google Cloud Platform
-
Langages : Excellente maîtrise de bash, SQL et Python, des connaissances Streamlit serait un plus
-
Bases de données : SQL Server, Oracle
-
Connaissances Data : Spark, Airflow, Kafka, ELK, Prometheus / Grafana, fastAPI
-
Modélisation / Architecture : Bonne compréhension des principes d'architecture de données, de modélisation de données et de conception de bases de données
-
DevOps : Git, Github, Docker, K8s
-
Infrastructure as Code (IaC) : Une connaissance de Terraform ou d'outils similaires est un plus
-
IA : Une utilisation efficace et raisonnée est indispensable
Reconnu(e) pour votre esprit d'équipe, vos qualités de communication et votre aisance dans la résolution de problèmes, vous savez également faire preuve d' autonomie, de rigueur et de proactivité dans la conduite de vos missions.
Benefits & conditions
- 13e mois, primes, intéressement et CSE dynamique
- Évolution de carrière, mobilité en interne dans nos 30 pôles métiers
- Esprit d'équipe et collaboration
- Evènements sportifs, team de rando/trail/badminton
- Différents horaires de travail possibles
- Formation continue
- BDA : Bureau des alternants, activités et afterworks
Les étapes de recrutement
Les étapes de recrutement peuvent varier selon l'offre à laquelle vous postulez.