Data Architect Ops H/F
Role details
Job location
Tech stack
Job description
Rejoignez notre communauté Data Intelligence, pour participer chez nos clients à la chaîne de valeur de la Data : Data Strategy, Data Management, Data Protection, Data Analytics, Data Platform, Data Science, IA Générative et bien d'autres...
- Des missions variées dans tous secteurs confondus
- Des bureaux inspirants au Trocadéro, avec vue sur la Tour Eiffel
- Une vraie vie de communauté : Conférences, REX, Revolution Summit, Datapéros...
Vos nouveaux challenges pour ce poste :
Vous serez le référent sur les enjeux de fiabilité, d'industrialisation et de performance, en définissant les standards DataOps et en structurant les processus run & support. Votre mission : garantir la continuité et la qualité des opérations data dans des environnements complexes et multi-cloud.
Vous intervenez entre autres sur les missions suivantes :
- Concevoir les architectures d'exploitation data (run, monitoring, sécurité).
- Définir les standards DataOps, CI/CD et observabilité.
- Garantir la résilience, la performance et la maîtrise des coûts.
- Structurer les processus run & support data pour assurer la fluidité des opérations.
- Accompagner les équipes sur les bonnes pratiques opérationnelles.
- Être le référent sur les enjeux de fiabilité et d'industrialisation des solutions data., Notre ecosystème permet de pratiquer de nombreuses activités loisirs et sportives (musique, photo, e-sport, yoga...) avec un cadre de travail flexible grâce à une charte de télétravail, et de prendre soin de tous (cabinet médical en libre accès, groupes de travail dédiés aux enjeux « égalité et pluralité » ...).
Processus de Recrutement :
- 1er échange RH : échange sur vos souhaits et motivation, présentation de l'entreprise (durée : 30mn, Teams ou présentiel)
- 2ème échange avec un opérationnel (durée : 1h, Teams ou présentiel)
- 3ème échange avec un opérationnel (durée : 1h, Teams ou présentiel)
- 4ème échange avec un Partner : projection sur votre rôle au sein de Onepoint (durée : 1h, Teams ou présentiel), Contribuez aux grandes transformations des entreprises et des acteurs publics en alliant innovation technologique et expertise métier, au service de nos clients et de la société pour les faire avancer durablement. ","identifier":{"@type":"PropertyValue","name":"Onepoint","value":"JR102750"},"url":"https://www.hellowork.com/fr-fr/emplois/76925589.html","applicantLocationRequirements":{"@type":"Country","name":"France"},"baseSalary":{"@type":"MonetaryAmount","currency":"EUR","value":{"@type":"QuantitativeValue"}},"datePosted":"2026-03-17T17:08:29Z","directApply":false,"educationRequirements":{"@type":"EducationalOccupationalCredential","credentialCategory":"postgraduate degree"},"employmentType":"FULL_TIME","estimatedSalary":{"@type":"MonetaryAmountDistribution","name":"base","duration":"P1Y","median":60000,"percentile10":28900,"percentile25":47500,"percentile75":75000,"percentile90":95800,"currency":"EUR"},"experienceRequirements":"no requirements","hiringOrganization":{"@type":"Organization","name":"Onepoint","sameAs":"https://www.hellowork.com/fr-fr/entreprises/onepoint-7693.html","logo":"https://f.hellowork.com/img/entreprises/160_160/7693.png"},"industry":["Secteur informatique","ESN"],"jobLocation":{"@type":"Place","address":{"@type":"PostalAddress","addressCountry":"FR","addressLocality":"Paris","addressRegion":"Île-de-France","postalCode":"75000"}},"jobLocationType":"TELECOMMUTE","occupationalCategory":"Data et
Requirements
Vous avez une expérience solide en architecture data et en pratiques DataOps/DevOps/SRE.
- Vous maîtrisez les concepts d'automatisation, monitoring et observabilité appliqués aux environnements data.
- Vous souhaitez approfondir vos compétences sur les plateformes cloud (Azure, AWS, GCP) et les outils d'orchestration et de supervision.
- Vous êtes reconnu(e) pour votre capacité à structurer des processus robustes et à garantir la fiabilité des systèmes complexes.
- Vous aimez travailler en transverse avec les équipes Data, Cloud et Sécurité pour définir des standards d'exploitation., Azure / Microsoft Fabric : ADF, Event Hubs, ADLS Gen2, Synapse, Fabric, Purview, Azure Monitor, Log Analytics
- AWS : Glue, Kinesis, Lambda, S3, Redshift
- GCP : Dataflow, Pub/Sub, BigQuery
- Databricks : Spark, Delta Lake, Autoloader
- Snowflake, dbt, Airflow, Great Expectations, Soda, SQL, Python, OpenTelemetry