Data Engineer GCP - H/F

Collective
Canton de Lille-5, France
6 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French
Experience level
Intermediate

Job location

Remote
Canton de Lille-5, France

Tech stack

API
Agile Methodologies
Airflow
Bash
Google BigQuery
Cloud Computing
Cloud Storage
Databases
Continuous Integration
Data Integrity
ETL
Linux
PostgreSQL
MySQL
Oracle Applications
Scrum
Red Hat Enterprise Linux - RHEL
SQL Databases
Data Streaming
Scripting (Bash/Python/Go/Ruby)
Google Cloud Platform
Google Data Studio
Grafana
GIT
Gitlab-ci
Data Management
Terraform
ELK

Job description

Au sein d'une équipe produit pluridisciplinaire, le Data Engineer interviendra sur l'ensemble du cycle de vie de la donnée :

Conception et développement de pipelines data

Concevoir, développer et maintenir des pipelines de données (ETL/ELT)

Collecter et transformer des données issues de multiples sources (bases de données, fichiers, APIs)

Orchestrer les flux de données dans un environnement cloud

Optimiser les performances et la consommation des ressources

Modélisation et gestion des données

Concevoir et faire évoluer les modèles de données

Garantir la qualité, la cohérence et l'intégrité des données

Mettre en place des stratégies de gestion du cycle de vie des données

Run opérationnel et support

Assurer le support de niveau avancé (N2/N3)

Diagnostiquer et résoudre les incidents liés aux flux de données

Rédiger et maintenir des scripts d'automatisation (Bash)

Écrire et optimiser des requêtes SQL complexes

Monitoring et amélioration continue

Mettre en place des outils de supervision des pipelines et des données

Définir des alertes pour anticiper les anomalies

Construire des tableaux de bord de suivi des performances

Infrastructure et industrialisation

Participer à la mise en place d'infrastructures via des outils d'Infrastructure as Code

Garantir la reproductibilité des environnements (dev, test, production)

Collaboration transverse

Travailler en étroite collaboration avec les équipes data, produit et métier

Accompagner les utilisateurs sur les bonnes pratiques data

Participer aux rituels Agile

Stack technique

Cloud & Data

  • Google Cloud Platform (BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub)
  • Outils d'orchestration (Airflow / Cloud Composer)

Bases de données

  • BigQuery
  • Oracle
  • (Connaissance de PostgreSQL / MySQL appréciée)

Langages & scripting

  • SQL avancé
  • Bash

Infrastructure & DevOps

  • Terraform (Infrastructure as Code)
  • Git / GitLab CI (CI/CD)

Monitoring & visualisation

  • Outils de monitoring cloud
  • Grafana / ELK Stack
  • Outils de dataviz (type Looker Studio)

Environnement

  • Linux (RedHat)

Requirements

Expérience confirmée en Data Engineering (minimum 3 ans)

Maîtrise des architectures data (Data Lake, Data Warehouse, ETL/ELT)

Expertise sur un environnement cloud (idéalement GCP)

Excellente maîtrise de SQL et bonne capacité d'analyse de données

Compétences solides en scripting Bash

Forte capacité d'analyse et de résolution de problèmes

Autonomie et proactivité

Rigueur dans la gestion des données en production

Bon relationnel et capacité à collaborer avec des équipes variées

Sens des responsabilités sur des systèmes critiques

Expérience en environnement Agile (Scrum ou Kanban) You must create an Indeed account before continuing to the company website to apply

Benefits & conditions

Taux journalier (TJM): 350 - 400, * Mission longue durée

  • Organisation hybride (présentiel / télétravail)
  • Intégration dans une équipe produit data

Apply for this position