Data Engineer
Role details
Job location
Tech stack
Job description
Dans le cadre du renforcement de notre équipe data, nous recherchons un·e Data Engineer pour construire et maintenir des pipelines de données robustes, tout en participant au développement de solutions analytiques sur GCP et Tableau. Une sensibilité DataOps est indispensable pour assurer des livraisons fiables et scalables. Des compétences en statistiques et en Machine Learning seront des atouts importants dans une logique de collaboration étroite avec les data scientists et analysts., Développer, maintenir et monitorer des pipelines de données sur GCP (BigQuery, Dataflow, Cloud Composer...) ;
- Implémenter des pratiques DataOps (CI/CD, testing, versioning, monitoring) ;
- Construire et optimiser les sources de données exploitées dans Tableau pour les équipes métiers ;
- Appliquer des méthodes statistiques pour valider des données, créer des indicateurs avancés, ou alimenter des modèles analytiques ;
- Participer à l'intégration et à la mise en production de modèles de Machine Learning ;
- Documenter les flux de données, les choix techniques, et garantir une bonne gouvernance des données ;
- Contribuer à la veille technologique et à l'amélioration continue des processus data., 10 000 contrats d'itinérance gérés et des millions de transactions traitées chaque année ;
- Des dizaines de millions de messages échangés quotidiennement via nos API robustes.
Nous exploitons ces données pour offrir à nos partenaires des analyses stratégiques et des recommandations opérationnelles.
Une équipe engagée et une culture scale-up forte
Intégrer GIREVE, c'est rejoindre une équipe agile, passionnée et curieuse, au sein d'un marché en pleine explosion. Nous valorisons la créativité, l'excellence et un esprit pionnier. Chaque membre de l'équipe joue un rôle clé dans notre succès collectif et dans la construction de la mobilité de demain.
La mobilité électrique est un potentiel immense : bien plus qu'un simple emploi, nous vous offrons un rôle clé dans la révolution des transports durables.
Requirements
Maîtrise des services data de Google Cloud Platform (BigQuery, Dataflow, Cloud Functions, etc.) ;
- Solide expérience en Python, SQL et manipulation de données (Pandas, NumPy...) ;
- Connaissances en statistiques appliquées : analyse exploratoire, tests, indicateurs, modélisation simple ;
- Maîtrise d'outils de visualisation, en particulier Tableau ;
- Maîtrise des bonnes pratiques DataOps (CI/CD, monitoring, gestion de versions...)., Expérience sur des projets de Machine Learning ;
- Connaissance d'un autre cloud (AWS, Azure) ;
- Pratiques DevOps, conteneurisation (Docker, Kubernetes), orchestration.
Soft skills :
- Rigueur, autonomie, sens de l'initiative ;
- Esprit d'équipe et culture du partage ;
- Curiosité technique et veille active ;
- Bac +5 diplôme d'ingénieur ou Master.
- +- 5 ans d'expérience
- Bon niveau d'anglais