Data Ingénieur - Databricks
Role details
Job location
Tech stack
Job description
Les Data Engineers interviendront sur la conception et l'industrialisation des flux de données dans un environnement Databricks.
Leurs responsabilités incluent : · Développer des pipelines de données en PySpark (batch et potentiellement streaming). · Implémenter des transformations complexes sur des données volumineuses · Gérer l'ingestion multi-sources (fichiers, API, bases externes). · Gérer les reprises sur incident et la résilience des pipelines · Implémenter des contrôles qualité (complétude, cohérence, fraîcheur). · Documenter les flux et structurer les bonnes pratiques · Participer à l'amélioration continue des pratiques data.
Requirements
- Expertise avancée Databricks (clusters, jobs, notebooks, Delta Lake).
- Très bonne maîtrise de Python et PySpark.
- Solide expérience en Data Engineering (ETL/ELT, pipelines distribués).
- Maîtrise des architectures Lakehouse et Data Lake.
- Expérience en optimisation de performances Spark.
- Connaissance des outils d'orchestration (Airflow, Data Factory, Workflows).
- Bonne compréhension des enjeux de gouvernance et qualité des données.
- Expérience en exposition de données pour Power BI, De formation Bac +3 à Bac +5 en Informatique, vous justifiez impérativement d'une expérience professionnelle de minimum 4 / 5 ans sur un poste similaire.
Vous possédez une forte expertise Databricks. Expérience significative sur des projets data à forte volumétrie Maîtrise des architectures distribuées et du traitement de données massives. Capacité à concevoir des pipelines robustes et industrialisés. Sensibilité aux enjeux de performance, qualité et gouvernance. Expérience en environnement cloud (Azure fortement recommandé).