Consultant en Data Engineering H/F
Role details
Job location
Tech stack
Job description
Évoluez dans nos espaces de vie au Trocadéro avec une vue imprenable sur la Tour Eiffel
- Participez à nos différents temps forts, conférences, échanges informels (Datapéro), évènements (Live data, Data Summit...)
Vos nouveaux challenges pour ce poste :
Vous jouerez un rôle clé dans la création de pipelines fiables et optimisés, garantissant la qualité et la disponibilité des données pour les usages analytiques et IA. Votre mission : transformer des environnements complexes en plateformes data robustes, scalables et orientées produit.
Vous intervenez entre autres sur les missions suivantes :
- Concevoir et développer des pipelines batch et streaming (ETL/ELT) performants et résilients.
- Implémenter des règles de qualité, validation et traçabilité des données.
- Optimiser les performances (coûts, latence, volumétrie) des traitements et des stockages.
- Contribuer à la modélisation des données (bronze/silver/gold, data products).
- Participer aux revues de code et à l'amélioration continue des pratiques.
- Collaborer étroitement avec les Data Analysts, Data Architects et équipes métiers pour répondre aux besoins business., Notre ecosystème permet de pratiquer de nombreuses activités loisirs et sportives (musique, photo, e-sport, yoga...) avec un cadre de travail flexible grâce à une charte de télétravail, et de prendre soin de tous (cabinet médical en libre accès, groupes de travail dédiés aux enjeux « égalité et pluralité » ...).
Notre processus de recrutement
- 1er échange RH sur vos souhaits et motivation, présentation de l'entreprise (durée : 30mn, Teams ou présentiel)
- 2ème échange avec un opérationnel (durée : 1h, Teams ou présentiel)
- 3ème échange avec un opérationnel (durée : 1h, Teams ou présentiel)
- 4ème échange avec un Partner : projection sur votre rôle au sein de Onepoint (durée : 1h, Teams ou présentiel), Contribuez aux grandes transformations des entreprises et des acteurs publics en alliant innovation technologique et expertise métier, au service de nos clients et de la société pour les faire avancer durablement. ","identifier":{"@type":"PropertyValue","name":"Onepoint","value":"JR101908"},"url":"https://www.hellowork.com/fr-fr/emplois/76926754.html","applicantLocationRequirements":{"@type":"Country","name":"France"},"baseSalary":{"@type":"MonetaryAmount","currency":"EUR","value":{"@type":"QuantitativeValue"}},"datePosted":"2026-03-17T17:13:28Z","directApply":false,"educationRequirements":[{"@type":"EducationalOccupationalCredential","credentialCategory":"postgraduate degree"},{"@type":"EducationalOccupationalCredential","credentialCategory":"bachelor degree"},{"@type":"EducationalOccupationalCredential","credentialCategory":"associate degree"}],"employmentType":"FULL_TIME","estimatedSalary":{"@type":"MonetaryAmountDistribution","name":"base","duration":"P1Y","median":51800,"percentile10":27500,"percentile25":42500,"percentile75":65000,"percentile90":83800,"currency":"EUR"},"experienceRequirements":"no requirements","hiringOrganization":{"@type":"Organization","name":"Onepoint","sameAs":"https://www.hellowork.com/fr-fr/entreprises/onepoint-7693.html","logo":"https://f.hellowork.com/img/entreprises/160_160/7693.png"},"industry":["Secteur
Requirements
Vous avez une solide expérience en développement de pipelines de données et en manipulation de grands volumes de données.
- Vous maîtrisez SQL et Python, et avez déjà travaillé avec des frameworks tels que Spark ou dbt.
- Vous souhaitez approfondir vos compétences sur les plateformes cloud (Azure, AWS, GCP) et les outils modernes de data engineering (Databricks, Snowflake, Airflow, Great Expectations).
- Vous êtes motivé(e) par l'optimisation des performances et la mise en place de bonnes pratiques de qualité et de gouvernance des données.
- Vous aimez travailler en équipe, partager vos connaissances et contribuer à des projets à fort impact., Azure / Microsoft Fabric : ADF, Event Hubs, ADLS Gen2, Synapse, Fabric, Purview
- AWS : Glue, Kinesis, Lambda, S3, Redshift
- GCP : Dataflow, Pub/Sub, BigQuery
- Databricks : Spark, Delta Lake, Autoloader
- Snowflake, dbt, Airflow, Great Expectations, SQL, Python