Ingénieur Data - Python & Spark
Role details
Job location
Tech stack
Job description
Vous intégrerez une équipe Data Décisionnelle engagée dans un programme stratégique de refonte complète du Système d'Information Décisionnel (SID), avec une trajectoire de transformation ambitieuse jusqu'en 2027.
Vous évoluerez au sein d'une équipe d'environ 16 personnes, dans un cadre agile SAFe, avec des cycles de livraison courts toutes les 3 semaines. L'environnement de travail favorise la collaboration, l'expertise technique et l'amélioration continue.
Vos principales responsabilités :
- Concevoir, développer et maintenir des pipelines de données robustes et performants
- Mettre en oeuvre des traitements ETL/ELT pour alimenter l'entrepôt de données
- Optimiser les performances sur des volumes de données importants
- Développer en Python avec les bibliothèques data (Pandas, PySpark)
- Exploiter Apache Spark pour le traitement distribué à grande échelle
- Orchestrer les workflows avec Apache Airflow
- Participer aux cérémonies agiles et aux revues de code
- Contribuer à l'amélioration continue des pratiques et des outils
- Collaborer étroitement avec les équipes data, QA et métiers
Requirements
Vous disposez d'une solide expérience en environnement Data et souhaitez évoluer sur des projets à fort enjeu technique.Compétences techniques attendues :Minimum 5 ans d'expérience en développement Python orienté Data / Big DataExpertise confirmée sur Apache Spark (PySpark)Maîtrise d'Apache Airflow pour l'orchestration de pipelinesExpérience significative dans la conception de pipelines ETL/ELTBonne connaissance des bases de données relationnelles et des entrepôts de donnéesPratique des environnements Big Data et des architectures data modernesMaîtrise des bonnes pratiques : tests unitaires, versioning (Git), documentationQualités personnelles :Esprit d'initiative et force de proposition techniqueExcellent relationnel et sens du travail en équipeRigueur et exigence sur la qualité des livrablesCuriosité technique et capacité d'adaptationAutonomie dans la gestion des missionsPré-requis :Formation supérieure en informatique ou équivalentExpérience significative en environnement agile (idéalement SAFe)Atouts supplémentaires :Expérience dans des projets de refonte de systèmes décisionnelsConnaissance d'outils de reporting et de data visualisationSensibilité aux architectures data modernes et aux pratiques MLOpsModalités :Localisation : Cagnes-sur-Mer (1 jour de présence sur site par semaine)Organisation : environnement agile SAFe, open space, livraisons toutes les 3 semaines, Maitrise Python & Spark mandatory 1j/semaine sur site, Vous disposez d'une solide expérience en environnement Data et souhaitez évoluer sur des projets à fort enjeu technique., * Minimum 5 ans d'expérience en développement Python orienté Data / Big Data
- Expertise confirmée sur Apache Spark (PySpark)
- Maîtrise d'Apache Airflow pour l'orchestration de pipelines
- Expérience significative dans la conception de pipelines ETL/ELT
- Bonne connaissance des bases de données relationnelles et des entrepôts de données
- Pratique des environnements Big Data et des architectures data modernes
- Maîtrise des bonnes pratiques : tests unitaires, versioning (Git), documentation
Qualités personnelles :
- Esprit d'initiative et force de proposition technique
- Excellent relationnel et sens du travail en équipe
- Rigueur et exigence sur la qualité des livrables
- Curiosité technique et capacité d'adaptation
- Autonomie dans la gestion des missions, * Formation supérieure en informatique ou équivalent
- Expérience significative en environnement agile (idéalement SAFe)
Atouts supplémentaires :
- Expérience dans des projets de refonte de systèmes décisionnels
- Connaissance d'outils de reporting et de data visualisation
- Sensibilité aux architectures data modernes et aux pratiques MLOps
Benefits & conditions
- Localisation : Cagnes-sur-Mer (1 jour de présence sur site par semaine)
- Organisation : environnement agile SAFe, open space, livraisons toutes les 3 semaines