Data Engineer Confirmé Etl H/F
Role details
Job location
Tech stack
Job description
En tant que Data Engineer Confirmé (F/H), vous serez chargé de concevoir et de maintenir des architectures de données performantes, tout en collaborant avec des équipes multidisciplinaires pour répondre aux besoins métiers. Vous interviendrez sur des projets variés allant de l'intégration de nouvelles sources de données à l'optimisation des flux existants, en utilisant les dernières technologies Big Data et Cloud. Ce poste offre l'opportunité de travailler dans un environnement innovant et stimulant, avec des défis techniques constants.
Missions :
- Concevoir, développer et maintenir des pipelines de données robustes et efficaces (ETL/ELT).
- Gérer et optimiser les bases de données (SQL et NoSQL) pour garantir la disponibilité et l'intégrité des données.
- Implémenter des solutions Big Data avec des technologies comme Hadoop, Spark, Kafka.
- Collaborer avec les équipes Data Science et Business Intelligence pour comprendre les besoins métiers et fournir des données prêtes à l'emploi.
- Assurer la qualité, la sécurité et la conformité des données (RGPD, anonymisation).
- Participer à la définition de l'architecture des données et à la mise en place de solutions cloud (AWS, GCP, Azure).
- Automatiser les processus et optimiser les performances des systèmes de traitement de données., Notre ecosystème permet de pratiquer de nombreuses activités loisirs et sportives (musique, photo, e-sport, yoga...) avec un cadre de travail flexible grâce à une charte de télétravail, et de prendre soin de tous (cabinet médical en libre accès, groupes de travail dédiés aux enjeux « égalité et pluralité » ...).
Notre processus de recrutement
- 1er échange RH avec Aurélie Butault, l'une de nos Chargées de Recrutement.
- 1er entretien technique avec un collègue opérationnel sur teams un ou dans les locaux de Onepoint pour se connaitre davantage.
- Entretien avec un.e Leader et/ou Commercial.e dans les locaux de Onepoint pour une meilleure projection de carrière et visite de nos locaux.
- Clôture du process de recrutement.
Requirements
Concevoir, développer et maintenir des flux d'intégration de données avec Talend (Open Studio ou Talend Cloud).
- Intervenir sur d'autres ETL/ELT selon les projets (Informatica, Azure Datafactory, DataStage, ODI...).
- Excellente maîtrise de Python et SQL.
- Connaissance des bases de données relationnelles (PostgreSQL, MySQL) et NoSQL (MongoDB, Cassandra).
- Expérience avec des outils de gestion de pipelines (Azure Databricks, Apache Airflow).
- Maîtrise des technologies Big Data : Apache Spark, Hadoop, Kafka.
- Compétences en Cloud Computing : Google Cloud (BigQuery), Azure, AWS (S3, Redshift), Snowflake.
- Compréhension des bonnes pratiques de sécurité des données et de la conformité RGPD.
Soft Skills :
- Esprit analytique et résolution de problèmes complexes.
- Capacité à travailler en équipe et à collaborer avec des profils techniques et non techniques.
- Bonne gestion du temps et des priorités dans un environnement agile.
- Curiosité et veille technologique constante., Diplômé d'une école de commerce, école d'ingénieurs ou université et vous bénéficiez d'une expérience de 3 ans minimum dans un cabinet de conseil depuis votre diplôme.
- Certification Cloud (AWS, GCP, Azure) appréciée.