Data Engineer H/F
Role details
Job location
Tech stack
Job description
Si vous êtes passionné par les nouvelles technologies et motivé par des projets à forte valeur ajoutée, rejoignez-nous pour faire la différence auprès de nos partenaires., En tant que Consultant Data Engineer GCP, vous jouerez un rôle crucial dans la conception et la mise en œuvre d'architectures de données robustes et évolutives pour divers clients, tout en optimisant les flux de données et les processus ETL. Vous serez amené(e) à collaborer avec des équipes pluridisciplinaires et à travailler sur des projets stimulants, où vos compétences techniques et votre sens de l'innovation contribueront directement au succès de nos clients.
Vos responsabilités :
- Développer, tester et maintenir des architectures de données sur mesure adaptées aux besoins des clients internes des plateformes data
- Concevoir et optimiser des bases de données complexes (SQL et NoSQL).
- Créer et automatiser des pipelines de données pour assurer une extraction, une transformation et un chargement optimisés.
- Alimenter la cartographie et les référentiels de données, connecter les outils de catalogage.
- Réaliser des tests d'intégration et tests unitaires
- Maintenir et superviser les applications et flux déployés en production, voire participer à la maintenance corrective et l'optimisation modèles d'IA conçus par les Data scientistes
- Utiliser les assistants IA génératives à bon escient pour accélérer la mise en place de nouveaux pipelines de traitement de données
- Assurer une veille technologique sur le socle technique., Rejoignez AI&DATA pour un nouveau défi et contribuez activement à des projets data stratégiques et porteurs de valeur.
Process
- Etape 1 : Entretien avec le responsable recrutement
- Etape 2 : Entretien avec le directeur data & le directeur Grands Comptes & Partenariats
- Etape 3 : Si bon Matching = bienvenue dans notre écosystème !
Requirements
- 3 ans d'expériences sur des plateformes Cloud (Google Cloud Platform).
- Compétences techniques :
- Maîtrise de Python,
- Expertise en Spark, Kafka (connaissance Scala ou Java est un plus)
- Excellente connaissance de SQL (connaissance d'un environnement NoSQL est un plus (ex : Elasticsearch).
- Expérience en modélisation de bases de données, stockage et extraction (Oracle, BigQuery, etc.).
- Capacité à automatiser et à créer des scripts pour soutenir les pipelines de données, en Python ou SQL, et des services d'orchestration comme Airflow, Cloud Composer (GCP)
- Familiarité avec les conteneurs et micro-services (Docker, Kubernetes).
- Maîtrise de Git et des plateformes collaboratives (GitHub, GitLab ou Bitbucket, Jenkins), connaissance des pratiques CI/CD et DevSecOps.
- Bonne culture technique sur le thème des API
- Compréhension des principes de gouvernance des données et des normes de sécurité, incluant les exigences spécifiques aux environnements cloud (IAM, KMS).
- Maîtrise de divers systèmes d'exploitation : UNIX, Linux, RedHat
- Power BI Desktop, Power BI Report Server (On Premise), * Expertise en streaming de données en temps réel (Pub/Sub, Kinesis).
- Connaissance des réglementations des données (RGPD, PCI-DSS, IA act,..).
- Expérience en environnement multi-projets, avec une forte adaptabilité.
- Compétences MLops
Qualités personnelles
- Capacité à travailler en équipe et à communiquer avec aisance.
- Curiosité pour les nouvelles technologies en data et IA.
- Esprit de service et orientation client.
Benefits & conditions
- Prise en charge du transport quotidien
- RTT
- Travail à domicile occasionnel
Lieu du poste : Télétravail hybride (75014 Paris)