Alternance - Data Engineer Spark & Cloud F/H
Role details
Job location
Tech stack
Job description
Rejoignez BPCE en tant que Data Engineer Spark & Cloud pour une alternance à partir de Septembre 2026 !
Vous intégrez la Direction Technologies & Opérations et plus particulièrement l'équipe D&R/Assets et projets data : une équipe data dynamique en croissance, responsable de la collecte, du traitement et de l'analyse de grandes volumes de données.
Vous aurez pour rôle de :
Participer à la conception et à la mise en œuvre de solutions data cloud-native et on-premise, en collaboration avec les Data Engineers et les équipes IT.
Vous aurez à prendre en charge une partie des développements sur des projets Data de l'équipe.
Concrètement votre quotidien ?
En collaboration avec votre tuteur (profil tech lead), vous évoluerez sur les missions suivantes :
-
Concevoir, développer et maintenir des flux de données (ETL/ELT) utilisant Spark (PySpark/Scala) pour le traitement de données en batch et en streaming.
-
Travailler avec Hadoop (HDFS, MapReduce, YARN) et les écosystèmes associés (Hive, HBase, Pig) pour l'ingestion, le stockage et l'interrogation des données.
-
Intégrer et orchestrer les pipelines de données sur Google Cloud Platform (GCP): BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub, IAM/Security.
-
Participer à la modélisation et à l'optimisation du schéma de données (OLAP/OLTP) et à la gestion des métadonnées (catalogue, lineage).
-
Garantir la qualité des données et la traçabilité (tests unitaires, tests d'intégration, monitoring des pipelines, gestion des exceptions)
-
Assurer les aspects sécurité et conformité des données (accès, chiffrement, logs, audit)., Restez informé(e) de nos dernières actualités, évènements de recrutement et conseils pour organiser votre recherche d'emploi. Une dose d'inspiration tous les mois dans votre boîte mail !
Requirements
Vous préparez un Master sur 1/2 ans ou êtes en 2ème/ 3ème année de cycle Ingénieur avec une spécialisation Développement / Data.
Idéalement, vous avez déjà acquis une 1ère expérience dans ce domaine en stage / alternance.
Pour réussir votre mission, vous avez acquis ou évoluez sur un environnement technique comme :
-
Spark: PySpark ou Spark SQL; notions de performance et tuning.
-
Langages : Python (indispensable), Scala serait un plus ; SQL avancé (indispensable).
-
Hadoop: HDFS, MapReduce, YARN; expérience avec Hive/Impala est un plus.
-
GCP : expérience pratique avec Dataflow/Dataproc, BigQuery, Cloud Storage;
-
connaissance des pipelines Ingest/ETL sur GCP.
-
Outils : Airflow (ou autre orchestrateur), Git, Jenkins ou équivalent CI/CD, outils de monitoring (Prometheus, Grafana) souhaités.
Vous êtes par ailleurs reconnu pour vos capacités d'analyse et esprit critique.
Enfin, vous possédez un excellent relationnel qui vous permettra de travailler en transverse et d'instaurer des relations de qualité.
Idéalement, vous avez également des notions de sécurité des données, confidentialité et gouvernance., Vous acceptez les CGU ainsi que notre politique de confidentialité décrivant la finalité des traitements de vos données personnelles.