·e Data Engineer GCP
Role details
Job location
Tech stack
Job description
Entretiens (en moyenne, le nombre d'entretiens est de 3 - il peut toutefois varier en fonction du niveau d'ancienneté requis pour le poste). Au cours des entretiens, vous rencontrerez les membres de notre équipe : votre supérieur hiérarchique bien sûr, mais aussi d'autres personnes avec lesquelles vous serez amené à travailler. Ces entretiens nous permettront d'en apprendre davantage sur vous, votre expérience et vos compétences, mais aussi sur le poste et ce que l'on attendra de vous. Bien entendu, vous apprendrez également à connaître Amaris : notre culture, notre histoire, nos équipes et vos opportunités de carrière ! Étude de cas: En fonction du poste, vous serez peut-être appelé à passer un test. Il pourra s'agir d'un jeu de rôle, d'une évaluation technique, d'un scénario de résolution de problème, etc. Comme vous le savez, chaque personne est différente et il en va de même pour chaque rôle dans une entreprise. C'est pourquoi nous devons nous adapter en conséquence, si bien que le processus peut parfois être quelque peu différent pour chacun. Cela dit, nous nous mettons toujours à la place du candidat pour lui offrir la meilleure expérience possible. Nous avons hâte de vous rencontrer !
Nous recherchons un·e Data Engineer GCP expérimenté·e pour rejoindre l'équipe Data & Analytics Corporate de notre client. Vous concevrez et déploierez des pipelines de données GCP conformes au framework BTDP, ingérerez et transformerez les données Zscaler, et exposerez des modèles BigQuery prêts pour Power BI afin de servir les cas d'usage Campus (présence et occupation des sites). En optimisant les performances, en sécurisant les flux et en collaborant étroitement avec les équipes métier et techniques, vous contribuerez directement à la mise en place de solutions data & AI à forte valeur ajoutée à l'échelle du groupe. Doté·e d'une expertise confirmée sur GCP, Python/SQL et Power BI, et à l'aise dans un environnement international et agile, vous participerez activement à la construction de la plateforme data globale de demain., Concevoir, développer et industrialiser des pipelines de données GCP (Cloud Composer / Airflow, BigQuery, GCS) conformes au framework Beauty Tech Data Platform (BTDP).
- Ingérer les données brutes Zscaler dans GCP, les transformer (nettoyage, normalisation, agrégation) et les exposer vers BigQuery et Power BI pour les besoins Campus (présence, occupation des sites).
- Modéliser les données dans BigQuery (SDDS, CDS, datasets), optimiser les performances et les coûts, et documenter l'architecture et les règles de transformation.
- Mettre en place le monitoring et l'alerting (Cloud Logging / Monitoring), ainsi que les tests unitaires pour sécuriser les flux en production.
- Collaborer avec les équipes Data & Analytics Corporate, Campus, IBM (run GCP) et Power BI / Fabric pour garantir la cohérence de bout en bout des solutions data.
- Contribuer à l'amélioration continue des standards BTDP (patterns d'ingestion, transformation, exposition) et au partage de bonnes pratiques au sein de l'équipe.
Requirements
Votre profil :Bac +5 en informatique, data engineering ou équivalent, avec minimum 3 ans d'expérience en tant que Data Engineer spécialisé GCP. Maîtrise de GCP (BigQuery, Cloud Composer/Airflow, GCS, IAM & sécurité, Logging/Monitoring) et des principes ELT/ETL / Data Lakehouse. Excellentes compétences en Python (scripts de transformation, opérateurs Airflow) et en SQL avancé sur BigQuery. Expérience confirmée sur Power BI (connexion BigQuery, création de rapports, gestion des workspaces) ; Terraform, outils de data quality et frameworks type Medallion/BTDP appréciés. Capacité à travailler en autonomie dans un grand groupe international, à interagir avec des équipes pluridisciplinaires et à évoluer en mode agile. Français courant et anglais professionnel indispensables ; présence sur site à Saint-Ouen (SO Tech) au moins 3 jours/semaine., * Bac +5 en informatique, data engineering ou équivalent, avec minimum 3 ans d'expérience en tant que Data Engineer spécialisé GCP.
- Maîtrise de GCP (BigQuery, Cloud Composer/Airflow, GCS, IAM & sécurité, Logging/Monitoring) et des principes ELT/ETL / Data Lakehouse.
- Excellentes compétences en Python (scripts de transformation, opérateurs Airflow) et en SQL avancé sur BigQuery.
- Expérience confirmée sur Power BI (connexion BigQuery, création de rapports, gestion des workspaces) ; Terraform, outils de data quality et frameworks type Medallion/BTDP appréciés.
- Capacité à travailler en autonomie dans un grand groupe international, à interagir avec des équipes pluridisciplinaires et à évoluer en mode agile.
- Français courant et anglais professionnel indispensables ; présence sur site à Saint-Ouen (SO Tech) au moins 3 jours/semaine.
Benefits & conditions
Nos avantages : Mutuelle prise en charge à 60% (gratuite pour vos enfants).Transports pris en charge à 50%.Possibilité de télétravail avec une rétribution de 2,70 € par jour.Carte restaurant d'une valeur de 10 € par jour, utilisable jusqu'à 25 €, pris en charge à 60%.Accès à HelloCSE avec de nombreuses offres et réductions chez Ikea, Pathé, Fnac, Cdiscount, et bien d'autres.Possibilité de bénéficier d'un bonus de cooptation de 2 000 € !De nombreuses formations gratuites, incluant des certifications Microsoft.Compte épargne temps jusqu'à 90 jours.Participation et intéressement.Jours de congé supplémentaires pour valoriser votre ancienneté.3 jours d'absences rémunérées par an pour le parent d'un enfant malade4 absences autorisés rémunérées pour les conjoint.e.s d'une personne enceinte pour assister aux examens obligatoires prénataux. Journée de solidarité chômée et payée Pourquoi nous choisir ? Une communauté internationale regroupant plus de 110