Expert Data Engineer / DevOps

R&S TELECOM
Canton of Bordeaux-2, France
2 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French
Experience level
Senior

Job location

Canton of Bordeaux-2, France

Tech stack

Java
API
Airflow
Apache HTTP Server
Continuous Integration
DevOps
Hive
Python
Message Queuing Telemetry Transport (MQTT)
Open Source Technology
OpenStack
Performance Tuning
Role-Based Access Control
Prometheus
Data Streaming
Tripwire
Ceph
Grafana
Kubernetes Helm Charts
Data Lake
Gitlab-ci
Kubernetes
Kafka
Api Management
Static Application Security Testing
Dynamic Application Security Testing

Job description

La mission s?inscrit au c?ur du SI cible, au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source.

Démarrage souhaité : mai / juin

Localisation : Rive gauche bordeaux, nécessite un véhicule

Objectifs de la mission

Le rôle est double : DevOps / Plateforme

Industrialisation et sécurisation des chaînes d?intégration et de déploiement

Standardisation des pratiques GitOps sur un socle Kubernetes multi?environnements

Renforcement de l?automatisation et de l?observabilité des plateformes applicatives et data

Data / Streaming

Accompagnement à la conception et à la standardisation des flux data temps réel

Structuration d?un Data Lake orienté streaming et lakehouse

Garantie de la performance, de la résilience et de la maintenabilité des flux

Domaines d?intervention & compétences clés

Socle Kubernetes & DevOps

Orchestration : Kubernetes (Namespaces, Ingress, RBAC)

GitOps : GitLab CI, Helm, ArgoCD

Observabilité : Grafana, Prometheus, Loki, Tempo

Sécurité CI/CD : SAST, DAST, Trivy

Environnements : OpenStack

Écosystème Data & Data Lake

Streaming & CDC : Kafka, Debezium

Processing : Spark SQL, Airflow

Lakehouse : Apache Iceberg

Query Engine : Trino (PrestoSQL)

Stockage objet : Ceph (ou équivalent)

Micro?services & APIs

Runtimes : Java / Quarkus, Python

API Management : Kong

Protocoles : MQTT (atout)

Optimisation des performances applicatives et data

Livrables attendus (exemples)

Socle & automatisation

Mise en place d?architectures ArgoCD (Application of Applications)

Catalogue de Charts Helm industrialisés

Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés

Data & Streaming

Provisionnement automatisé des clusters Kafka et connecteurs Debezium

Configuration optimisée de Trino sur stockage objet

Mise en place des DAGs Airflow pour l?orchestration des traitements

Documentation & MCO

Dashboards de supervision avancés

Rédaction du Dossier d?Architecture Technique (DAT)

Rédaction de Runbooks MCO / PRA

Définition de standards techniques et bonnes pratiques cloud native

Requirements

Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer

Très bonne maîtrise de Kubernetes et des pratiques GitOps

Expérience concrète sur des plateformes Kafka et Data Lake

À l?aise dans des contextes SI complexes et structurants

Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet

Autonomie, rigueur, sens de l?industrialisation, Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer

Très bonne maîtrise de Kubernetes et des pratiques GitOps

Expérience concrète sur des plateformes Kafka et Data Lake

À l?aise dans des contextes SI complexes et structurants

Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet

Autonomie, rigueur, sens de l?industrialisation You must create an Indeed account before continuing to the company website to apply

Apply for this position