DataOps & DevOps Engineer - Confirmé·e
JAKALA FRANCE SAS
2 days ago
Role details
Contract type
Permanent contract Employment type
Full-time (> 32 hours) Working hours
Regular working hours Languages
French Experience level
IntermediateJob location
Tech stack
Airflow
Amazon Web Services (AWS)
Azure
Google BigQuery
Cloud Computing
Continuous Integration
ETL
Data Warehousing
DevOps
Github
Python
Ansible
Prometheus
DataOps
SQL Databases
Data Streaming
Management of Software Versions
Datadog
Google Cloud Platform
Azure
Snowflake
Grafana
Spark
Gitlab-ci
Kubernetes
Deployment Automation
Kafka
Terraform
Docker
Databricks
Job description
- Déploiement et maintien des pipelines de données robustes (ETL/ELT) et environnements (intégration, recette, production)
- Supervision de la qualité, la sécurité et la disponibilité des données dans les environnements Cloud (AWS / GCP / Azure).
- Automatisation du déploiement des traitements et des modèles de données (CI/CD).
- Monitoring et le support des jobs de production.
- Participation à la définition et au suivi des standards DataOps (versioning, tests, documentation, etc.).
- Collaboration avec les équipes Data Engineering, Data Science et IT pour garantir la scalabilité et la performance des solutions déployées.
- Optimisation des coûts d'infrastructure liés à la donnée.
- Documentation des procédures, flux de données et configurations.
Tu joues un rôle crucial dans le succès de nos clients et dans le développement de notre culture en France. Tu contribues à renforcer notre réputation en tant qu'experts.
Ensemble, nous relèverons les plus grands défis de nos clients, anticiperons les tendances futures et créerons des solutions innovantes à l'échelle globale !
Requirements
- Déploiement en environnement Cloud (GCP, AWS, Azure), en particulier des Datawarehouses tels que BigQuery, Snowflake ou Databricks.
- Principes CI/CD (Github action, Gitlab CI, Azure Devops) et de l'Infrastructure as Code (Terraform, Ansible, Docker, Kubernetes).
- Outils de monitoring (Prometheus, Grafana, etc.) et de gestion des logs (ELK, Datadog…).
- Outils d'orchestrations Airflow, Azure Data Factory, GCP Composer, Databricks workflow …
Serait un plus :
- Connaissance des outils de traitement de données : dbt, Spark, Kafka, etc.
- Compétences en SQL, Python
Fonctionnelles :
- Compréhension des problématiques métiers autour de la donnée (data quality, sécurité, gouvernance).
- Capacité à collaborer avec des profils variés (techniques et non-techniques).
About the company
Au sein de notre practice Data & AI et en tant que Data Ops Engineer, tu joues un rôle clé dans la fiabilité, l'automatisation et la performance des pipelines de données.
Tu fais le lien entre les équipes Data Engineering, DevOps et les métiers pour assurer un accès fluide, sécurisé et optimisé aux données.