Data Engineer - Confirmé.e

JAKALA FRANCE SAS
Canton de Caen-2, France
5 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French
Experience level
Intermediate

Job location

Canton de Caen-2, France

Tech stack

Java
API
Amazon Web Services (AWS)
Data analysis
Azure
Big Data
Google BigQuery
ETL
Data Mapping
Data Warehousing
Python
PostgreSQL
Message Broker
RabbitMQ
Simple Object Access Protocol (SOAP)
Data Streaming
UML
Google Cloud Platform
Snowflake
Spark
Pandas
Containerization
Data Lake
PySpark
Kubernetes
Kafka
REST
Terraform
Databricks

Job description

  • Contribuer au développement de notre offre Data et à l'industrialisation de plateformes data pour nos clients
  • Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes
  • Définir l'architecture logiciel ETL / ELT en collaboration avec vos pairs
  • Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage)
  • Rédiger de la documentation technique (diagrammes UML, documentation d'API, …)
  • Partager votre savoir-faire entre les différents membres de l'équipe
  • Concevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateforme
  • Concevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big Data
  • Assurer une veille technologique et savoir mener à bien un projet de R&D

Tu assures en autonomie les missions suivantes en interne ou auprès de nos clients grands comptes :

  • Cartographier des données et des flux de données
  • Implémenter des algorithmes d'analyse de données pour l'industrialisation
  • Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
  • Développer et automatiser des flux de données et leurs visualisations en dashboards, reporting
  • S'assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
  • Analyser les données web pour répondre aux questions métiers et participer à la construction de l'architecture Big Data
  • Mettre en place du séquencement et de la supervision des flux précitées en gérant les cas limites

Requirements

Bon niveau en développement: :

  • De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
  • De script ETL : DBT (ex. Snowflake, PostgreSQL)
  • Connaissance conception et administration d'entrepôt de données : Snowflake, Big Query, PostgreSQL
  • LakeHouse : Delta LakeConnaissance message broker, RabbitMQ, Kafka
  • Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
  • Expérience d'architecture et de dimensionnement d'une architecture cloud via des services managés
  • Cartographie des données

About the company

Au sein de notre practice Data & AI, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer déjà en poste et tu es impliqué.e dans la prise de décisions liée aux solutions Data et à son évolution.

Apply for this position