Data Analytics Engineer (H/F
Role details
Job location
Tech stack
Job description
En tant que Data Analytics Engineer, vous jouerez un rôle clé dans le développement et l'évolution de nos outils internes et de nos solutions logicielles à destination d'industriels internationaux. Vous travaillerez au cœur de la donnée : ingestion, transformation, modélisation, mise à disposition, ainsi que performance, fiabilité et traçabilité.
Vous évoluerez dans un environnement où la donnée est au service de décisions concrètes et mesurables, avec une proximité forte entre les équipes métier, produit et développement. Vous contribuerez directement à des produits à fort impact, dans une structure à taille humaine.
Vos responsabilités principales
-
Concevoir, développer et maintenir les pipelines d'ingestion, de transformation et de mise à disposition des données
-
Assurer la qualité, la cohérence et la traçabilité des données à travers les différentes couches de nos systèmes (contrôles, validation, monitoring)
-
Modéliser les données et concevoir des schémas adaptés aux besoins analytiques et opérationnels
-
Intégrer des sources de données hétérogènes (internes, clients, systèmes industriels)
-
Optimiser les performances des traitements et requêtes sur de grands volumes de données
-
Participer à la mise en place et à l'évolution de l'infrastructure data (stockage, orchestration, observabilité)
-
Concevoir des API data stables et sécurisées, en lien avec les besoins des applications internes et produits
-
Collaborer à la conception technique et aux revues d'architecture data
-
Diagnostiquer et résoudre les problèmes liés aux flux de données (incidents, qualité, performance)
-
Respecter les bonnes pratiques (tests, CI/CD, versioning, documentation), Chez LB&Partners, vous pourrez :
-
Contribuer à des solutions utilisées par des industriels internationaux
-
Évoluer au sein d'une équipe à taille humaine, dynamique et orientée solutions
-
Avoir un réel impact sur les décisions techniques et l'évolution de nos produits
-
Participer à des projets mêlant data, industrie et algorithmique, avec des cas d'usage concrets
-
Développer vos compétences dans un environnement exigeant, stimulant et en forte croissance
-
Bénéficier d'une autonomie croissante au fil des projets, avec de vraies responsabilités, Processus de recrutement
-
Sélection du dossier
-
Entretien RH et technique avec les managers
-
Test technique (selon niveau)
-
Décision finale et offre d'emploi
Requirements
Nous recherchons un(e) Data Analytics Engineer passionné(e) par l'exploitation intelligente de la donnée au service de l'industrie, capable de construire des pipelines robustes et de transformer des données complexes en valeur opérationnelle., * 1 à 3 années d'expérience professionnelle en data engineering / analytics engineering ou domaine connexe
- Très bonne maîtrise de SQL et bonne maîtrise de Python (ou équivalent)
- Bases solides en modélisation de données (schémas, normalisation, modèles dimensionnels)
- Bonne compréhension des architectures data modernes (data lake, data warehouse, ELT/ETL)
- Expérience avec au moins une base de données relationnelle et compréhension d'approches NoSQL / search selon les besoins
- Connaissances démontrées en environnement cloud et en infrastructure containerisée
- Bonne pratique de Git et des workflows collaboratifs
- Capacité à produire et documenter un code propre, structuré et maintenable
- Rigueur, autonomie, fiabilité et esprit d'équipe
- Intérêt marqué pour l'industrie et les problématiques de performance industrielle
Compétences techniques attendues
- Langages : Python, SQL (très bonne maîtrise)
- Bases de données relationnelles : PostgreSQL (ou équivalent)
- Data transformation / modélisation : dbt (ou équivalent)
- BI / Data visualisation : Power BI, Tableau ou Looker (capacité à produire / maintenir des modèles et dashboards)
- Containerisation : Docker
- Version control : Git (workflows collaboratifs, revues de code)
Nice to have
- Bases de données NoSQL / search : Elasticsearch (ou équivalent)
- Orchestration / infrastructure : Kubernetes
- CI/CD : GitHub Actions, GitLab CI (ou équivalent)
- Cloud : expérience avec au moins un environnement cloud (AWS, GCP ou Azure)
- Notions en Machine Learning et MLOps
- Expérience dans un environnement Agile/Scrum
- Sensibilité aux exigences de sécurité (bonnes pratiques, ISO 27001)
- Connaissances SAP ou systèmes ERP industriels
Benefits & conditions
- Horaires flexibles
- Télétravail 1 à 2 jours par semaine
- 5 semaines de vacances + 1 jour férié supplémentaire
- Matériel performant et ergonomique
- Bureaux modernes en plein centre de Lausanne
- Environnement multiculturel et dynamique
- Opportunités de formation continue et d'évolution
- Participation possible à des projets clients en Suisse ou Europe