Data Engineer - Plateforme Data Engineering (H/F)
Role details
Job location
Tech stack
Job description
Contexte du projet
Les grands environnements industriels font face à des enjeux majeurs liés à la donnée :
- Multiplication des sources d'information (applications métiers, systèmes PLM, bases de données, fichiers, APIs…)
- Hétérogénéité des formats et des modèles
- Besoin croissant de données fiables, qualifiées et à jour
- Nécessité d'échanges quasi-temps réel entre les systèmes
Dans ce contexte, nos équipes participent à la mise en place de plateformes de Data Engineering modernes, visant à industrialiser et gouverner les flux de données. Dans ce cadre, nous recherchons un(e) Data Engineer pour participer activement à la conception et au développement de ces nouveaux usages data., Intégré(e) à une squad transverse ou métier, vous contribuerez à la mise en œuvre et à l'évolution d'une plateforme data :
- Concevoir et développer des pipelines de données robustes et scalables
- Mettre en place les flux d'ingestion depuis différentes sources : bases de données, fichiers, APIs, événements, etc.
- Structurer et transformer les données selon une architecture médaillon :
- Bronze : collecte et stockage des données brutes
- Silver : qualification, nettoyage, modélisation
- Gold : consolidation et exposition des data products
- Garantir la qualité, la cohérence et la fraîcheur des données
- Industrialiser les traitements batch et streaming
- Collaborer étroitement avec les équipes métiers, architectes et data analysts
- Participer aux choix d'architecture et aux bonnes pratiques (performance, sécurité, gouvernance)
Environnement technique
Vous évoluerez dans un écosystème moderne orienté data :
- Base de données : PostgreSQL
Requirements
Diplômé(e) d'une école d'ingénieur ou formation universitaire (Bac+5), vous justifiez idéalement :
- D'une expérience d'au moins 3 ans en Data Engineering ou en développement avec une forte appétence data
- D'une bonne compréhension des problématiques de qualité et modélisation de données
- D'une appétence pour les systèmes complexes et environnements industriels, * Maîtrise de SQL et des bases de données relationnelles (PostgreSQL)
- Connaissance ou expérience sur des technologies suivantes : Kafka, Flink, Airflow, dbt
- Compréhension des architectures data modernes (batch / streaming / event-driven)
- Sensibilité aux problématiques de performance et de scalabilité
Comportementales :
- Esprit analytique et rigueur
- Capacité à évoluer dans des environnements complexes et à dialoguer avec des interlocuteurs métiers (processus d'ingénierie et métiers)
- Bon relationnel et goût du travail en équipe sur un format agile scrum
- Autonomie et curiosité technologique
Benefits & conditions
- Streaming / Event processing : Apache Flink, Kafka
- Orchestration : Airflow
- Transformation / Modélisation : dbt
- Intégration / CDC : Debezium (selon cas d'usage)
- Écosystème applicatif & PLM : 3DX / Windchill / SAP / outils bureau d'études