Data Engineer (H/F
Role details
Job location
Tech stack
Job description
Vous avez une solide expertise technique dans la collecte, le traitement et l'optimisation des données, et l'envie de construire des pipelines et des architectures data robustes pour accompagner nos clients ? Vous aimez transformer la data brute en solutions performantes et fiables ?, En tant que Data Engineer, tu participeras à des projets d'envergure en construisant et optimisant des plateformes et pipelines de données modernes.
Tes missions :
- Concevoir, développer et industrialiser des pipelines de données fiables et performants
- Intégrer des données structurées et non structurées, en batch comme en temps réel
- Déployer et optimiser des environnements data sur le Cloud (AWS, Azure, GCP)
- Mettre en place et orchestrer des processus ETL/ELT (Talend, Airflow, dbt, Fivetran, etc.)
- Travailler sur des environnements modernes type Databricks, Snowflake, BigQuery, Redshift
- Garantir la qualité, la sécurité et la gouvernance des données
- Contribuer à la veille technologique et proposer les meilleures solutions pour chaque projet, Une équipe d'experts passionnés : Plonge dans un univers où l'innovation et l'excellence sont au cœur de chaque projet. Travailler avec des talents issus de divers horizons culturels et professionnels, ça t'inspire ? Rejoins-nous !
-Des projets de grande envergure : Avec Keyrus, tu participeras à des missions de transformation digitale et de gestion des données pour de grandes entreprises, des projets à fort impact !
-Un environnement de travail unique : Nous valorisons l'innovation, la diversité, et la mobilité internationale. Chez nous, ton avenir se construit avec des opportunités d'évolution et des défis à la hauteur de tes ambitions.
-Une culture d'entreprise inclusive : La diversité fait notre force et nous croyons fermement que chacun a un rôle à jouer dans l'innovation et la transformation.
-Nos engagements envers l'inclusion : Tous nos postes sont ouverts aux personnes en situation de handicap., Ici, la Data ne se limite pas à des chiffres : elle devient une véritable expérience humaine et technologique. L'agence de Keyrus Bordeaux est en pleine croissance, et nous recherchons un(e) Data Engineer prêt(e) à jouer un rôle clé dans notre développement.
Vous avez une solide expertise technique dans la collecte, le traitement et l'optimisation des données, et l'envie de construire des pipelines et des architectures data robustes pour accompagner nos clients ? Vous aimez transformer la data brute en solutions performantes et fiables ? Alors ce poste est fait pour vous !
En tant que Data Engineer, tu participeras à des projets d'envergure en construisant et optimisant des plateformes et pipelines de données modernes.
Tes missions :
- Concevoir, développer et industrialiser des pipelines de données fiables et performants
- Intégrer des données structurées et non structurées, en batch comme en temps réel
- Déployer et optimiser des environnements data sur le Cloud (AWS, Azure, GCP)
- Mettre en place et orchestrer des processus ETL/ELT (Talend, Airflow, dbt, Fivetran, etc.)
- Travailler sur des environnements modernes type Databricks, Snowflake, BigQuery, Redshift
- Garantir la qualité, la sécurité et la gouvernance des données
- Contribuer à la veille technologique et proposer les meilleures solutions pour chaque projet
Concevoir, développer et industrialiser des pipelines de données fiables et performants
Intégrer des données structurées et non structurées, en batch comme en temps réel
Déployer et optimiser des environnements data sur le Cloud (AWS, Azure, GCP)
Mettre en place et orchestrer des processus ETL/ELT (Talend, Airflow, dbt, Fivetran, etc.)
Travailler sur des environnements modernes type Databricks, Snowflake, BigQuery, Redshift
Garantir la qualité, la sécurité et la gouvernance des données
Contribuer à la veille technologique et proposer les meilleures solutions pour chaque projet
Requirements
Tu es passionné(e) par la Data et à l'aise dans des environnements techniques exigeants. Tu maîtrises :
- Langages : Python et SQL (Scala ou Java sont un plus)
- Frameworks & outils : Spark, Kafka, Databricks, dbt, Airflow
- Cloud : AWS, Azure ou GCP
- Bases de données : relationnelles (PostgreSQL, MySQL) et cloud data warehouses (Snowflake, BigQuery, Redshift)
- ETL/ELT : Talend, Fivetran, ou équivalents
Bonus : une expérience en Machine Learning, temps réel ou data mesh serait un vrai atout., Tu es passionné(e) par la Data et à l'aise dans des environnements techniques exigeants. Tu maîtrises :
- Langages : Python et SQL (Scala ou Java sont un plus)
- Frameworks & outils : Spark, Kafka, Databricks, dbt, Airflow
- Cloud : AWS, Azure ou GCP
- Bases de données : relationnelles (PostgreSQL, MySQL) et cloud data warehouses (Snowflake, BigQuery, Redshift)
- ETL/ELT : Talend, Fivetran, ou équivalents
Langages : Python et SQL (Scala ou Java sont un plus)
Frameworks & outils : Spark, Kafka, Databricks, dbt, Airflow
Cloud : AWS, Azure ou GCP
Bases de données : relationnelles (PostgreSQL, MySQL) et cloud data warehouses (Snowflake, BigQuery, Redshift)
ETL/ELT : Talend, Fivetran, ou équivalents
Bonus : une expérience en Machine Learning, temps réel ou data mesh serait un vrai atout.