Tech Lead Data - Snowflake (Libourne) H/F
Role details
Job location
Tech stack
Job description
Le planning communiqué est ferme et non négociable : ? Q2 2026 : bootstrap de la Data Platform Snowflake et de l?usine logicielle Data ? Q2 2026 : démarrage de la migration des stacks legacy ? Fin 2026 : migration complète
Le contexte est celui d?un groupe très décentralisé, avec une forte hétérogénéité des sources de données (plus de 50 instances ERP de type JD Edwards, stacks Oracle, GCP, Azure Databricks) et une ambition claire : générer de la valeur business plutôt que faire de la technique pour la technique.
Périmètre de la mission
-
Bootstrap de la Data Platform Snowflake ? Définir et implémenter l?architecture générale de la plateforme Data : ingestion, transformation, stockage, exposition ? Structurer l?environnement Snowflake : databases, schemas, RBAC, sécurité et accès ? Mettre en place des pipelines d?ingestion différentielle (CDC) depuis les sources legacy : Oracle, GCP, Azure Databricks, JD Edwards ? Garantir la qualité des données dès l?ingestion, dans un contexte où les pipelines historiques sont en full load sans logique différentielle
-
Bootstrap de l?usine logicielle Data ? Définir et imposer les standards de développement Data Engineering : homogénéité, reproductibilité, lisibilité ? Mettre en place les bonnes pratiques : tests, CI/CD, versioning, documentation, naming conventions ? Structurer la factory Data pour permettre la montée en autonomie des équipes internes ? Accompagner les équipes dans l?adoption des pratiques
-
Pilotage de la migration ? Coordonner la migration des usages legacy vers la nouvelle stack Snowflake ? Arbitrer en continu entre développements sur le legacy et avancement sur la nouvelle stack ? Être le référent technique principal vis-à-vis des parties prenantes IT et métier ? Assurer le reporting auprès de la DSI
Stack technique ? Data Warehouse : Snowflake ? Sources legacy : Oracle, GCP, Azure Databricks, JD Edwards (50+ instances) ? Transformation : dbt ou équivalent ? Orchestration : Apache Airflow ou équivalent ? Langages : SQL avancé, Python ? CI/CD et DevOps : à mettre en place ? Data Quality : à définir et implémenter
Requirements
? Snowflake : maîtrise avancée, incluant architecture, RBAC, Snowpipe, Snowpark, optimisation des coûts et des requêtes ? Data Engineering : conception de pipelines différentiels, architecture Medallion (Bronze / Silver / Gold) ? Migration de stacks Data : expérience avérée sur des projets de migration multi-sources vers un Data Warehouse cloud ? Leadership technique : capacité à bootstrapper une plateforme from scratch, sans architecture existante ? Bonnes pratiques : CI/CD, tests, documentation, standards de code ? SQL avancé, Python
Appréciées ? Expérience sur un ERP multi-instances ? Outils de Data Quality ? Expérience en environnement industriel ou Life Sciences / Pharma ? Connaissance de GCP et/ou Azure Databricks dans un contexte de migration, ? Expérience totale : 8 à 12 ans ? Expérience Snowflake : 3 ans minimum avec projets significatifs ? Expérience Tech Lead Data : 3 ans minimum ? Expérience de migration de stack : indispensable ? Anglais : professionnel courant ? Localisation : région Nouvelle-Aquitaine ou mobilité
Profil candidat:Compétences / Qualités indispensables : Snowflake, Data Engineering, Migration de stacks Data, Leadership technique, SQL avancé et Python, CI/CD et standards de code, Expérience sur un ERP multi-instances, outils de Data Quality, expérience en environnement industriel ou Life Sciences / Pharma, connaissance de GCP et/ou Azure Databricks
Benefits & conditions
2 jours par semaine