Dataops - Profil Docteur H/F
Role details
Job location
Tech stack
Job description
Le Passenger Cognition Lab conduit des travaux de modélisation scientifique sur le comportement des voyageurs afin d'optimiser les services digitaux et l'information voyageur en Île-de-France. Dans un environnement R&D exigeant, manipulant des volumes massifs de données hétérogènes, le Lab recherche un Ingénieur de Recherche DataOps capable de construire et d'industrialiser une infrastructure de données dédiée aux études cognitives avancées.
Votre rôle
Vous serez le bras technique du Lab, garant de la robustesse scientifique, de la reproductibilité et de la qualité des traitements. Votre mission : transformer les besoins des chercheurs en pipelines de données fiables, documentés et exploitables.
Vos missions principales
Scientific Data Engineering
Concevoir, développer et optimiser des pipelines de données scientifiques (données massives, séries temporelles, logs comportementaux).
Garantir l'intégrité scientifique : gestion des biais, traçabilité des transformations, qualité statistique.
Structurer les environnements de calcul et d'expérimentation pour les besoins du Lab.
Cloud & Infrastructure Data (AWS - Expert)
Concevoir des architectures cloud performantes, reproductibles et sécurisées.
Mettre en place des environnements d'expérimentation, de simulation et d'analyse de données.
Conteneurisation, orchestration et automatisation (Docker, éventuels outils MLOps).
Ingénierie logicielle & DataOps
Implémenter des process de CI/CD adaptés aux travaux de recherche.
Documenter les workflows, jeux de données, méthodologies et artefacts.
Assurer la reproductibilité scientifique (versioning, packaging, traçabilité).
Collaborer avec l'IT Groupe pour le portage et l'exploitation de la donnée.
Documentation & Valorisation
Produire une documentation scientifique et technique complète.
Participer à la valorisation des résultats : guidelines, rapports techniques, briques réutilisables.
Stack & Environnement technique
AWS (Expert) : S3, Lambda, ECS/EKS, Glue, IAM, CloudWatch, Step Functions...
Python (Expert) : Pandas, Polars, NumPy, PyArrow
SQL (Expert) : optimisation, data modeling
Conteneurisation : Docker
Outils R&D, environnements reproductibles, scientific computing., Des parcours personnalisés selon vos envies et vos compétences. Une relation directe avec la direction, fluide et sans superflu.
Nos engagements RH
Favoriser l'épanouissement personnel et professionnel
Encourager la montée en compétences continue
Garantir un management accessible et humain
Proposer des missions avec du sens et de la valeur technique
Requirements
Doctorat obligatoire (Data Science, Machine Learning, Mathématiques appliquées ou équivalent).
Capacité démontrée à collaborer avec des chercheurs et laboratoires scientifiques.
Compétences techniques indispensables
Expertise avérée en Data Engineering scientifique (7 à 9 ans).
Maîtrise des stacks AWS, Python scientifique et SQL.
Très forte culture DevOps / DataOps.
Maîtrise de la reproductibilité, de la documentation technique et des bonnes pratiques scientifiques.
Aptitudes recherchées
Capacité d'interagir avec des profils chercheurs (cognition, sciences comportementales).
Rigueur scientifique, fiabilité, précision et sens du détail.
Autonomie forte et capacité à structurer un environnement de recherche.
Communication claire & capacité à documenter pour pérenniser les travaux.
Benefits & conditions
Parce que chez KAIMAN Services, on prend le temps de vous connaître. Parce que votre avis compte. Parce que vous avez besoin de perspectives, pas seulement d'un contrat. Et parce que travailler sérieusement n'empêche pas la bonne ambiance., mutuelle tickets restaurant