Expert Big Data / Data Engineer Senior (H/F)
Role details
Job location
Tech stack
Job description
Build ? Modernisation & migrations Data
Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP).
Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs?).
Travailler avec les architectes et les CloudOps sur les architectures distribuées.
Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA.
Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD).
Animer ateliers, documentation et transfert de compétences.
Run ? Support N2/N3 & performance
Résolution d?incidents techniques Big Data (HDFS, Spark, Kafka, Flink?).
Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation.
Montée de version, patching, maintenance préventive.
Participation aux astreintes (rotation).
Amélioration continue & fiabilisation des environnements critiques.
Application stricte du cadre ITIL V4 (incidents / problèmes / demandes)., Cloud AWS & GCP : AWS EMR, MSK, Glue, S3
GCP DataProc, BigQuery, Dataflow, Cloud Storage
Ops & Infra : Linux avancé
Kubernetes (déploiement, troubleshooting)
Requirements
Profil candidat:EXPERIENCE : 5 à 10+ ans en Data Engineering / Big Data.
Expérience en grands comptes ; bancaire ou finance très apprécié.
Solide maîtrise des architectures distribuées & environnements critiques.
Expérience Build + Run (avec astreinte).
COMPETENCES TECHNIQUES : Big Data on-prem : Cloudera (HDFS, Yarn, Kerberos, Ranger)
Spark (tuning, optimisation, clusters)
Kafka (topics, partitions, retention, connect), ITIL V4 (obligatoire)
Pratique incidents / problèmes / changements
SOFT SKILLS : Excellente communication (équipes Paris, Singapour, architectes, projets).
Rigueur extrême & sens du service.
Capacité à vulgariser et accompagner les équipes.
Autonomie, fiabilité, esprit analytique.