Data Engineer Finance (H/F)
Role details
Job location
Tech stack
Job description
- Une réussite portée par notre excellence technologique, votre expérience et notre ambition partagée
- Un package de rémunération attractif
- Un développement des compétences en continu : parcours de formation, académies et communautés internes
- Un environnement inclusif, bienveillant et respectant l'équilibre des collaborateurs
- Un engagement sociétal et environnemental reconnu, En tant que Data Ingénieur, vous ferez partie d'une équipe agile et multidisciplinaire et serez responsable de l'intégration, du traitement et de l'exploitation de données massives. Vous interviendrez sur des problématiques clés comme la conformité, l'audit, la lutte contre le blanchiment d'argent, et la gestion des risques financiers.
Responsabilités principales:
· Développement Spark (Java/Python) : Traitez des données massives en batch ou en streaming pour répondre aux besoins métiers complexes, notamment pour la gestion du risque et la conformité.
· Analyse de données avancée : Utilisation de Spark SQL, Elasticsearch/Kibana, et Python pour répondre aux besoins des équipes de conformité, anti-blanchiment et gestion du risque.
· Optimisation des pipelines de données : Développement et amélioration continue des pipelines de données dans le Data Hub (ingestion via Kafka, MQ, CFT), ainsi que la supervision et l'exposition des données.
· Collaboration transverse : Travail en étroite collaboration avec les équipes DevOps, sécurité, et métiers pour améliorer la robustesse, la sécurité et la performance des flux de données.
· Qualité logicielle : Revue de code, développement de tests unitaires, et intégration des outils de qualité comme SonarQube pour garantir une qualité de service irréprochable.
· Documentation et support : Rédiger des documentations techniques et assurer un support aux solutions mises en production.
Compétences et environnements techniques :
· Langages : Scala, Java (Spring Boot), Python, Bash.
· Technologies Big Data : Apache Spark, Kafka, Elasticsearch, MongoDB, Hadoop.
· Orchestration et gestion des flux : Kafka, MQ Engine, CFT.
· CI/CD & DevOps : GitLab, Docker, Artifactory, Ansible, Kubernetes (IBM Cloud).
· Qualité logicielle : SonarQube, JUnit.
· Monitoring & Analyse : Kibana, Grafana.
Requirements
· Vous êtes passionné par la technologie et les données et avez une solide expérience en développement, notamment dans les environnements Big Data.
· Vous maîtrisez les outils de traitement de données massives (Spark, Kafka) et avez une bonne connaissance des problématiques liées à la gestion des risques financiers, à la conformité réglementaire et à la protection des données sensibles.
· Vous avez une forte capacité d'analyse, un esprit d'équipe, et êtes à l'aise dans un environnement agile et collaboratif.
· Idéalement, vous avez une expérience préalable dans le secteur bancaire ou assurantiel et êtes familier avec les contraintes et les enjeux spécifiques de ce secteur.