Data Engineer Snowflake H/F

UTWIN
Lyon, France
29 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French
Experience level
Junior

Job location

Remote
Lyon, France

Tech stack

API
Airflow
Azure
Continuous Integration
Data Transformation
Data Visualization
Linux
Python
Performance Tuning
Power BI
Azure
SQL Databases
Data Streaming
Dynamic Authentication Filter
Snowflake
GIT
Docker

Job description

Rattaché(é) à la Responsable DATA et au sein d'un service en plein développement, vous aurez en charge de mettre en place la nouvelle plateforme Data en total autonomie afin de répondre aux cas d'usages de l'entreprise (Marketing, Comptabilité, DAF, Commerce, Gestion, Plateaux d'appels, Web...) C'est l'occasion de voir un projet Data se monter depuis le commencement.

Vous aurez pour missions de :

  • Administrer la plateforme :

  • Assurer le suivi de la disponibilité de la donnée et flux,

  • Suivi la qualité des données

  • Mettre en place les flux de données et structure des données sur Snowflake :

  • Mise en place du flux

  • Mise en place des tables (structure, mise en qualité, optimisation...)

  • Documenter ces flux dans l'outil de Datagouvernance

  • Mise en place de données gold/silver...

  • Être l'interlocuteur du service data sur la connaissance de la donnée :

  • Comprendre et documenter le parcours de la donnée

  • Mettre en place l'anonymisation des données conformément à RGPD

  • S'informer des nouveautés produits/outil (pour implémenter les sources de donnée nouvelles)

  • Mettre en place des Dataviz sous Power BI:

  • Suivi la qualité des données

  • Suivre la disponibilité de la donnée

  • Suivi analyser l'activité/ métier selon les besoins

Requirements

Vous êtes issu(e) d'une formation Bac +5 en Data ou informatique ou Mathématiques et vous justifiez idéalement d'une expérience de 5 ans sur un poste similaire.

Compétences interpersonnelle Empathique, Autonome

Compétences techniques indispensables : Maîtrise en modélisation de données (Modern data stack) et en conception de pipelines ELT. Expertise Snowflake (compute, stockage, sécurité, finops, streamlit, optimisation des performances). Connaissance approfondie de SQL et Python Notions Azure : ADLS Gen2, Key Vault, ACR, VNet, VM. Notions de Power BI (connexion aux datasets, modèles). Utilisation de Git et Azure DevOps pour le versionning et CI/CD.

Compétences appréciées (un plus): Certification Snowflake ou Azure (ex : SnowPro Core, Azure Data Engineer Associate).

Maîtrise de DBT pour la transformation des données. Expérience avec Airbyte pour l'ingestion des données. Orchestration via Apache Airflow. Déploiement d'API ou d'interfaces simples pour la consommation des données. Expérience en Docker, Infrastructure-as-Code, ou container services. Connaissance Linux.

Vous faites preuve d'une aisance relationnelle, tant à l'écrit qu'à l'oral, tout en étant rigoureux(se). Vous êtes adaptable, organisé(e) et avez un bon sens des priorités. Vous appréciez le travail en équipe et êtes motivé(e) par un poste aux compétences variées.

Benefits & conditions

  • Semaine d'accueil (découverte des métiers et des équipes)
  • Accord d'intéressement
  • Tickets Restaurant
  • Horaires flexibles et crédits d'heures
  • Télétravail (2 jours par semaine)
  • Semaine de 5 jours du lundi au vendredi
  • RTT
  • Mutuelle et Prévoyance d'entreprise
  • Formation via Université Prévoir, CDI à temps plein à pourvoir dès que possible,
  • Statut cadre
  • Salaire à définir en fonction du profil et de l'expérience,
  • Intéressement
  • RTT
  • Télétravail (3 jours de présence / 2 jours télétravail par semaine),
  • Complémentaire Santé, Prévoyance et Retraite,
  • Participation au transport,
  • Titre-restaurant,

Les étapes de recrutement

Les étapes de recrutement peuvent varier selon l'offre à laquelle vous postulez.

Apply for this position