Data Engineer d'Expérience Minimum H/F
Role details
Job location
Tech stack
Job description
CDI (statut cadre) à Paris IDF. 2 jours de télétravail 3 ans d'expérience sur des missions liées aux pipelines de données, l'ingestion ou le traitement de data. Appétence pour le secteur public. Rémunération selon votre expérience et vos compétences : Autour de 55 K€, Concevoir, développer et optimiser des pipelines de données :
-
Construire des pipelines d'ingestion automatisés (API, batch, fichiers, etc.) dans une logique d'évolutivité.
-
Développer des transformations robustes et scalables en Python, orchestrées avec un outil de gestion de workflows.
-Mettre en place des tests unitaires, des contrôles de qualité automatisés et des mécanismes d'alerte.
Modéliser, charger et industrialiser dans une démarche CI/CD :
-
Concevoir des modèles de données adaptés aux usages et les implémenter dans l'outil adapté.
-
Industrialiser les chargements via des workflows et assurer la cohérence des flux entre les environnements.
-
Surveiller en temps réel les exécutions, diagnostiquer les causes d'échec et proposer des corrections durables.
-
Collaborer avec les équipes techniques pour la résolution des incidents et l'amélioration continue des traitements.
Appuyer le support et accompagner les utilisateurs :
-
Assurer un appui de niveau 2/3 (analyse de logs, relance de jobs, correctifs rapides).
-
Documenter les anomalies, tracer les écarts et veiller à la qualité et la disponibilité des données.
-
Recueillir les besoins métiers liés aux données et contribuer à la fiabilité des chaînes de traitement.
Requirements
Vous êtes diplômé(e) d'un Bac +5 (école d'ingénieurs, master universitaire ou école spécialisée en data).
- Vous justifiez d'au moins 3 ans d'expérience sur des missions liées aux pipelines de données, l'ingestion ou le traitement de data.
Savoir-être
-
Vous disposez d'excellentes qualités de communication, tant à l'écrit qu'à l'oral.
-
Vous savez écouter, analyser et reformuler les besoins métiers ou techniques afin de proposer des solutions pertinentes et techniques.
-
Vous êtes autonome, rigoureux et structuré dans vos démarches d'investigation et de résolution de problèmes.
Compétences techniques
-
Vous maîtrisez Python ainsi que l'orchestration de workflow tels qu'Airflow ou équivalent.
-
Vous savez mener des investigations approfondies (analyse de logs et de métadonnées, reproduction d'erreurs, validation de la documentation).
-
Vous disposez d'une bonne connaissance des bases de données SQL.
-
Une expérience cloud (AWS, Azure, GCP) ou Big Data (Spark, Databricks, etc.) est un plus, Vous êtes diplômé(e) d'un Bac +5 (école d'ingénieurs, master universitaire ou école spécialisée en data).
-
Vous justifiez d'au moins 3 ans d'expérience sur des missions liées aux pipelines de données, l'ingestion ou le traitement de data.
Savoir-être
-
Vous disposez d'excellentes qualités de communication, tant à l'écrit qu'à l'oral.
-
Vous savez écouter, analyser et reformuler les besoins métiers ou techniques afin de proposer des solutions pertinentes et techniques.
-
Vous êtes autonome, rigoureux et structuré dans vos démarches d'investigation et de résolution de problèmes.
Compétences techniques
-
Vous maîtrisez Python ainsi que l'orchestration de workflow tels qu'Airflow ou équivalent.
-
Vous savez mener des investigations approfondies (analyse de logs et de métadonnées, reproduction d'erreurs, validation de la documentation).
-
Vous disposez d'une bonne connaissance des bases de données SQL.
-
Une expérience cloud (AWS, Azure, GCP) ou Big Data (Spark, Databricks, etc.) est un
Benefits & conditions
CDI (statut cadre) à Paris IDF. 2 jours de télétravail 3 ans d'expérience sur des missions liées aux pipelines de données, l'ingestion ou le traitement de data. Appétence pour le secteur public. Rémunération selon votre expérience et vos compétences : Autour de 55 K€