Consultant Data Ops H/F
Role details
Job location
Tech stack
Job description
Rejoignez notre communauté Data Intelligence, pour participer chez nos clients à la chaîne de valeur de la Data : Data Strategy, Data Management, Data Protection, Data Analytics, Data Platform, Data Science, IA Générative et bien d'autres...
- Des missions variées dans tous secteurs confondus
- Des bureaux inspirants au Trocadéro, avec vue sur la Tour Eiffel
- Une vraie vie de communauté : Conférences, REX, Revolution Summit, Datapéros...
Vos nouveaux challenges pour ce poste :
Vous serez au coeur des pratiques DataOps, en automatisant les déploiements, en mettant en place la supervision et en garantissant la qualité des données. Votre mission : appliquer les principes DevOps et SRE à l'univers data pour assurer des solutions robustes, résilientes et observables.
Vous intervenez entre autres sur les missions suivantes :
- Automatiser les déploiements (CI/CD) des pipelines et plateformes data.
- Mettre en place la supervision, l'observabilité et l'alerting data.
- Appliquer les principes DevOps et SRE à l'écosystème data.
- Gérer la qualité des données (tests, contrôles, SLAs).
- Optimiser la fiabilité et la résilience des traitements.
- Collaborer étroitement avec les équipes Data et Cloud., Notre ecosystème permet de pratiquer de nombreuses activités loisirs et sportives (musique, photo, e-sport, yoga...) avec un cadre de travail flexible grâce à une charte de télétravail, et de prendre soin de tous (cabinet médical en libre accès, groupes de travail dédiés aux enjeux « égalité et pluralité » ...).
Processus de Recrutement :
- 1er échange RH avec ou : échange sur vos souhaits et motivation, présentation de l'entreprise (durée : 30mn, Teams ou présentiel)
- 2ème échange avec un opérationnel (durée : 1h, Teams ou présentiel)
- 3ème échange avec un opérationnel (durée : 1h, Teams ou présentiel)
- 4ème échange avec un Partner : projection sur votre rôle au sein de Onepoint (durée : 1h, Teams ou présentiel), Contribuez aux grandes transformations des entreprises et des acteurs publics en alliant innovation technologique et expertise métier, au service de nos clients et de la société pour les faire avancer durablement. ","identifier":{"@type":"PropertyValue","name":"Onepoint","value":"JR102539"},"url":"https://www.hellowork.com/fr-fr/emplois/76926983.html","applicantLocationRequirements":{"@type":"Country","name":"France"},"baseSalary":{"@type":"MonetaryAmount","currency":"EUR","value":{"@type":"QuantitativeValue"}},"datePosted":"2026-03-17T17:14:31Z","directApply":false,"educationRequirements":[{"@type":"EducationalOccupationalCredential","credentialCategory":"postgraduate degree"},{"@type":"EducationalOccupationalCredential","credentialCategory":"bachelor degree"},{"@type":"EducationalOccupationalCredential","credentialCategory":"associate degree"}],"employmentType":"FULL_TIME","estimatedSalary":{"@type":"MonetaryAmountDistribution","name":"base","duration":"P1Y","median":51800,"percentile10":27500,"percentile25":42500,"percentile75":65000,"percentile90":83800,"currency":"EUR"},"experienceRequirements":"no requirements","hiringOrganization":{"@type":"Organization","name":"Onepoint","sameAs":"https://www.hellowork.com/fr-fr/entreprises/onepoint-7693.html","logo":"https://f.hellowork.com/img/entreprises/160_160/7693.png"},"industry":["Secteur
Requirements
Vous avez une expérience en DataOps, DevOps ou SRE appliqué à des environnements data.
- Vous maîtrisez les concepts d'automatisation, monitoring et observabilité.
- Vous souhaitez approfondir vos compétences sur les plateformes cloud (Azure, AWS, GCP) et les outils de data engineering.
- Vous êtes reconnu(e) pour votre rigueur, votre sens de la qualité et votre capacité à fiabiliser des systèmes complexes.
- Vous aimez travailler en équipe et contribuer à la mise en place de standards robustes pour l'écosystème data., Azure / Microsoft Fabric : ADF, Event Hubs, ADLS Gen2, Synapse, Fabric, Purview, Azure Monitor, Log Analytics
- AWS : Glue, Kinesis, Lambda, S3, Redshift
- GCP : Dataflow, Pub/Sub, BigQuery
- Databricks : Spark, Delta Lake, Autoloader
- Snowflake, dbt, Airflow, Great Expectations, Soda, SQL, Python, OpenTelemetry