Développeur Backend Data - Elasticsearch
Role details
Job location
Tech stack
Job description
- L'humain au centre
- Détection de talents
- Suivi, coaching
- Solutions cousues main
Et surtout prendre du plaisir ;) Description du poste
Au sein de la DSI, le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, certaines en phase de BUILD et d'autres en phase de RUN.
Nous recherchons un profil expérimenté qui devra assurer une mission de responsable d'un projet existant.
Ce projet mis en production, il y a peu, vise à mettre à disposition des indicateurs via une interface Grafana.
Il comprend une couche "d'ingestion" qui permet d'enregistrer les données dans une base ElasticSearch dans un format adapté. Cette ingestion est pilotée avec du code Java.
Les indicateurs permettent au métier de suivre les modules de télé et radio relèves client (1 million de modules avec des index quotidien sur 3 ans).
La mission implique:
- une capacité à maintenir l'existant
- l'analyse des incidents et questions remontés par le métier pour expliquer/corriger les résultats affichés
- l'ajout de nouveaux objets souhaités par le métier
Objectifs et livrables, * Java (utilisé pour piloter l'ingestion)
- Grafana (création / exploitation de dashboards)
Bonus :
- Databricks / environnement Azure
Le projet "Supervision Télérelève" basé sur un socle technique Java/ELK/Grafana vise à offrir une solution de reporting des données télérelève aux experts ainsi qu'aux collectivités.
Le socle technique est en place mais il devra cependant être maintenu et complété de nouveaux objets, de plus il faudra travailler avec d'autres équipes sur l'authentification pour intégrer la solution dans d'autres projets.
Il est a noter qu'une migration peut être envisagée à moyen terme dans Databricks.
Le consultant aura un rôle de TechLead/Dev sur ce projet : analyse de l'existant, capacité de debug, suivi du backlog et échanges avec le métier, le PO et éventuellement les architectes.
Le consultant sera le seul acteur technique sur le projet et devra donc avoir une grande autonomie sur les sujets techniques.
Requirements
- Elasticsearch avancé (critère principal) : ingestion, indexation, structuration de données
- Expérience sur projets data à forte volumétrie
- Bonne compréhension des pipelines data
Importantes, * Expérience sur des projets de grandes volumétries de données
- Trés bonne maitrise attendue de Elastic et connaissance de Java
- Maitrise attendue de : Grafana, connaissance de la stack ELK et de l'infra Elastic
- Compétences souhaitées : Databricks, C#, SQL Server, Azure, Keycloak
- Capacité à developer des requêtes d'extraction, de transformation et de mise à disposition des données avec Elastic exploitable avec Grafana
- Bonne connaissance de l'outil AzureDevops (utilisé comme outil de suivi et de pilotage des US, Features, bug, burn down…), * Communication avec le metier : Expert
- Autonomie : Expert
- Langues : Anglais : courant