Data Engineer
Role details
Job location
Tech stack
Job description
Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps
Vos missions principales 1.Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW REFINED TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels)
-
Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances
-
Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server)
-
Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra, Un premier échange téléphonique avec un(e) chargé(e) de recrutement pour vous présenter le poste et ses missions, en savoir plus sur vous. Un second entretien avec un double objectif : vous présenter notre groupe et ses valeurs, mais aussi connaitre vos motivations et l'adéquation de votre projet professionnel avec le poste proposé. Enfin un entretien technique avec le Manager ainsi que le CTO, pour valider l'ensemble de vos compétences. Vous faites quoi lundi ?
Requirements
Transformation :dbt, SQL avancé, Python Bases de données :SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration :Airflow (ou équivalent) Application :FastAPI, Vue.js + TypeScript + Quasar IA :scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest, Bac+3/5 en informatique ou équivalent, avec au moins 2 à 5 ans d'expérience sur des projets data. Solide maîtrise de SQL (modélisation, optimisation) et bonnes bases Python. Première expérience avec DBT et/ou Snowflake (Redshift, BigQuery, Synapse…) est un plus. Connaissance des principes de CI/CD, des tests automatisés et des bonnes pratiques DevOps. Vous savez travailler en équipe, faire preuve de rigueur et d'autonomie. Esprit d'initiative et goût du challenge dans un environnement en pleine évolution. Une expérience en développement web Python (Flask, Django) et front (VueJS, React) serait appréciée.