Senior Software Engineer - Data Platform F/H
Role details
Job location
Tech stack
Job description
En t'appuyant sur une stack technologique robuste composée de Kotlin, Kafka, SQL, Snowflake, PostgreSQL, Python, Microsoft Azure, Databricks et git, tu conçois des solutions data scalables et performantes répondant aux besoins de nos clients internes et externes., * Développer et maintenir des processus ETL en utilisant Kotlin, Kafka et SQL, en garantissant la qualité, l'exhaustivité et la fraîcheur des données.
- Être un point de contact principal pour les clients, comprendre leurs besoins data et collaborer étroitement avec eux pour concevoir et déployer des solutions adaptées.
- Concevoir et développer les contrats de données utilisés dans Kafka et dans notre data warehouse (Snowflake), afin d'exposer la bonne donnée aux bons clients (internes et externes), tout en garantissant performance, fiabilité et scalabilité.
- Collaborer étroitement avec des équipes transverses et les clients pour comprendre les besoins métiers, identifier les sources de données et concevoir des modèles et schémas de données adaptés aux usages analytiques et de reporting.
- Utiliser les services Microsoft Azure pour l'infrastructure cloud, le stockage et le traitement des données, en assurant scalabilité, fiabilité et optimisation des coûts.
- Exploiter Databricks pour les travaux de data engineering (ingestion, traitement, analytics) en tirant parti des capacités de calcul distribué pour gérer de grands volumes de données.
- Mettre en place et appliquer les bonnes pratiques de gestion de versions et de collaboration avec git, afin de garantir la qualité, la traçabilité et la reproductibilité des workflows data.
- Apporter un leadership technique et accompagner les profils plus juniors de l'équipe data engineering, en les guidant sur les bonnes pratiques, les principes d'architecture et la relation client.
- Assurer une veille active sur les tendances, bonnes pratiques et technologies émergentes en data engineering et analytics, et promouvoir leur adoption lorsque pertinent., Process de recrutement
- Entretien 1 avec l'équipe recrutement
- Entretien 2 avec Engineering Director et Data Engineering Manager
- Entretien 3 avec COO et une personne de l'équipe data produit
L'objectif de cette description de poste est de décrire les principales tâches et responsabilités de ce poste. D'autres tâches liées au poste, autres que celles spécifiquement mentionnées dans cette description, peuvent être requises.
Toutes les tâches et responsabilités sont des fonctions et des exigences essentielles du poste et sont susceptibles d'être modifiées à tout moment. Les tâches et responsabilités peuvent également être modifiées à la discrétion de l'entreprise pour accueillir des personnes en situation d'handicap.
Tous les candidats qualifiés seront pris en considération pour un emploi sans distinction de race, de couleur, de religion, de sexe, d'âge, d'orientation sexuelle, d'identité de genre, de nationalité, de statut de citoyenneté, de statut de vétéran protégé, d'informations génétiques ou de handicap physique ou mental., We are seeking a highly skilled Senior Software Engineer with experience building data intensive applications to join our Data Team. You will design and develop our data infrastructure, including our Data Warehouse and internally developed data pipelines. Leveraging a robust tech stack consisting of Kotlin, Kafka, SQL, Snowflake, PostgreSQL, Python, Microsoft Azure, Databricks, and git, you will architect scalable and efficient data solutions to meet the needs of our internal and external clients.
- Develop and maintain ETL processes using Kotlin, Kafka, and SQL, ensuring data accuracy, completeness, and timeliness.
- Act as a primary point of contact for clients, understanding their data requirements and collaborating closely with them to design and implement tailored data solutions.
- Design and develop data contracts used in Kafka and in our data warehouse (Snowflake), ensuring it exposes the right data to the right clients, whether internal or external, while maintaining high performance, reliability, and scalability.
- Collaborate closely with cross-functional teams and clients to understand business requirements, identify data sources, and design data models and schemas to support analytical and reporting needs.
- Use Microsoft Azure services for cloud infrastructure, data storage, and processing, ensuring scalability, reliability, and cost-effectiveness.
- Use Databricks for data engineering tasks, such as data ingestion, processing, and analytics, leveraging distributed computing capabilities to handle large volumes of data efficiently.
- Implement version control and collaboration best practices using git, ensuring code quality, traceability, and reproducibility of data engineering workflows.
- Provide technical leadership and mentorship to junior members of the data engineering team, guiding them in best practices, design principles, and client engagement.
- Stay abreast of industry trends, best practices, and emerging technologies in data engineering and analytics, advocating for their adoption where appropriate
Requirements
- Diplôme de niveau Master en informatique, ingénierie ou domaine connexe.
- Au moins 5 ans d'expérience dans la conception, l'implémentation et l'optimisation de solutions data, idéalement dans un contexte orienté client.
- Excellente maîtrise de Kotlin (ou langage équivalent Java), avec une expérience avérée dans la conception et la maintenance de pipelines et frameworks data scalables.
- Solide expérience et bonne compréhension du traitement de flux de données (data streaming).
- Expérience significative avec des outils d'IA tels que Copilot, Codex ou Claude Code.
- Très bonne maîtrise de SQL (modélisation, optimisation, tuning de performance), avec une expertise sur Snowflake et PostgreSQL.
- Expérience des environnements cloud, notamment Azure (Kubernetes, DevOps, KeyVault, etc.)
- Maîtrise de Databricks pour les projets de data engineering (ingestion, traitement, analytics) en environnement distribué.
- Solide compréhension des systèmes de gestion de versions, en particulier git, et mise en œuvre des bonnes pratiques de collaboration et de gestion du code.
- Excellentes capacités de communication et de collaboration, avec la capacité d'interagir efficacement avec les clients, de comprendre leurs enjeux et de les traduire en solutions techniques.
- Leadership démontré, avec une expérience réussie dans la conduite de projets data complexes en environnement client.
- Excellentes capacités d'analyse et de résolution de problèmes, avec aptitude à proposer des solutions innovantes face à des problématiques data complexes.
- Maitrise du français et de l'anglais à l'oral et à l'écrit., * Master's degree in computer science, engineering, or related field.
- Proven experience (at least 5 years) designing, implementing, and optimizing data solutions and ETL processes in a client-facing role.
- Strong proficiency in Kotlin (or equivalent Java) for ETL development, with experience in designing and maintaining scalable data pipelines and frameworks.
- Solid experience and understanding of data stream processing.
- Strong experience using AI tools such as Copilot, Codex, or Claude Code.
- Solid experience with SQL, including database design, optimization, and performance tuning, with proficiency in Snowflake and PostgreSQL.
- Experience working with clouds like Azure (K8s, DevOps, KeyVault, etc)
- Proficiency in Databricks for data engineering tasks, such as data ingestion, processing, and analytics, leveraging distributed computing capabilities.
- Strong understanding of version control systems, particularly git, and experience implementing best practices for collaboration and code management.
- Excellent communication and collaboration skills, with the ability to effectively engage with clients, understand their needs, and translate them into technical solutions.
- Demonstrated leadership abilities with a track record of leading complex data engineering projects in a client-facing capacity.
- Strong problem-solving skills with the ability to analyze complex data challenges and develop innovative solutions.
Benefits & conditions
Total Rewards
- Your future workplace: Boulogne-Billancourt (Marcel Sembat)
- Contract: Permanent contract
- Remote work: Up to 3 days of remote work per week
- Benefits: 1 RTT (reduced working time) per month, company benefits (CE), Swile restaurant card, coverage of 2/3 of health insurance, associative engagement day, as well as numerous team-building events, happy hours, fruit baskets, unlimited coffee…
Recruitment Process
- Interview 1 with the recruitment team
- Interview 2 with Engineering Director and Data Engineering Manager
- Interview 3 with COO and a member of the product data team
The intent of this job description is to describe the major duties and responsibilities performed by incumbents of this job. Other job-related tasks other than those specifically included in this description may be required.
All duties and responsibilities are essential job functions and requirements and are subject to possible modification at any time. Duties and responsibilities may further be modified at the company's discretion to reasonably accommodate individuals with disabilities.
All qualified applicants will receive consideration for employment without regard to race, color, religion, sex, age, sexual orientation, gender identity, national origin, citizenship status, protected veteran status, genetic information, or physical or mental disability.