Data Engineer / BI Engineer (PySpark, GCP/AWS, Power BI) - H/F

DL CONSULTING
Canton of Clamart, France
2 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French
Experience level
Senior

Job location

Canton of Clamart, France

Tech stack

Airflow
Amazon Web Services (AWS)
Amazon Web Services (AWS)
Big Data
Google BigQuery
Cloud Computing
Continuous Integration
Data Architecture
ETL
Data Warehousing
DevOps
Python
Microsoft Business Intelligence
Power BI
SQL Databases
SQL Server Reporting Services
SQL Server Integration Services
SQL Server Analysis Services
Data Streaming
Backend
Data Lake
PySpark
Information Technology
Star Schema

Job description

Nous recherchons un(e) Data Engineer passionné(e) pour rejoindre notre équipe et participer à la construction et l'évolution de notre architecture de données. Vous interviendrez sur un environnement technique riche, alliant la puissance du Big Data (Cloud, PySpark) à la rigueur de la Business Intelligence (MSBI, Power BI). En tant que référent technique, vous jouerez un rôle clé dans la modernisation de nos flux de données et garantirez la qualité de l'information mise à disposition des métiers. Vos Missions Ingénierie & Développement (Data Engineering) : Concevoir et développer des pipelines de données robustes et scalables (ETL/ELT) en Python/PySpark. Orchestrer les flux de données dans un environnement Cloud (GCP ou AWS). Optimiser les performances des traitements et assurer le stockage optimisé (Data Lake / Data Warehouse). Business Intelligence (BI) : Maintenir et faire évoluer les briques existantes sous MSBI (SSIS, SSAS, SSRS). Modéliser les données pour le reporting (Star Schema, Tabular). Développer et optimiser les rapports Power BI (DAX avancé, Dataflows). Qualité & Gouvernance : Assurer la surveillance, la documentation et la qualité des données (Data Quality). Participer à la mise en place de bonnes pratiques CI/CD et DevOps.

Requirements

De formation supérieure en Informatique ou Data (Bac+5), vous justifiez d'une expérience significative (min. 3 ans) sur un poste similaire. Vous êtes à l'aise aussi bien dans le scripting backend que dans la restitution de données. Compétences techniques indispensables : Langages : Python (maîtrise impérative), SQL expert. Big Data : Framework PySpark (traitement distribué). Cloud : Expérience avérée sur GCP (BigQuery, Dataproc, GCS) ou AWS (Glue, EMR, S3). BI & Viz : Suite MSBI (SSIS/SSAS) et expertise Power BI. Les "Plus" qui feront la différence : Connaissance des outils d'orchestration (Airflow, Cloud Composer). Sensibilité à l'architecture Data (Lakehouse, Medallion Architecture). Expérience en migration "On-premise vers Cloud". Savoir-être Esprit d'analyse et rigueur (souci du détail et de la robustesse du code). Autonomie et capacité à proposer des solutions techniques. Bon communiquant, capable de vulgariser des sujets techniques auprès des métiers.

Apply for this position