DevOps

Valeursle
Canton of Saint-Cloud, France
9 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French
Experience level
Junior

Job location

Canton of Saint-Cloud, France

Tech stack

Artificial Intelligence
Airflow
Cloud Computing
Computer Engineering
Continuous Integration
Infrastructure as a Service (IaaS)
Prometheus
DataOps
Zabbix
Large Language Models
Grafana
Spark
Kubernetes
Machine Learning Operations

Job description

Changeons de point de vue, traçons une nouvelle route.

Performants

Évoluer dans le bon sens

Nos consultants sont la clé de voûte de notre organisation.

Avec l'aide de nos clients, ils engagent sur la voie de l'excellence.

Résilients

Se remettre en question continuellement

Le secteur des hautes technologies est en mutation constante.

Apprenons à suivre et prédire les évolutions du marché.

Responsables

Rester fidèles à nos valeurs

Le Conseil doit se réinventer.

Écrivons une nouvelle histoire, empreinte de respect des aspirations de chacun.

Prenez part aux challenges de demain en intervenant sur les projets les plus ambitieux.

Développez vos compétences, imaginez un avenir plus GRAND avec nos plans de carrière personnalisés.

Intégrez une entreprise à taille humaine, à la hauteur de vos ambitions.

We are Nyou, and you ?

Au sein d'une plateforme data moderne reposant sur un écosystème Spark, Airflow et Superset, orchestré via Kubernetes (Helm/Helmfile) et déployé sur des infrastructures Cloud IaaS, vous interviendrez sur des enjeux à forte valeur ajoutée, à la croisée de la data engineering, de l'architecture et de l'innovation.

Dans un contexte de transformation vers des environnements analytiques avancés et l'intégration progressive de l'IA et de l'automatisation intelligente, vos responsabilités s'articuleront autour des axes suivants :

  1. Fiabilisation et performance des pipelines data
  • Concevoir, maintenir et faire évoluer des pipelines de données complexes (Spark, Airflow)
  • Garantir leur disponibilité, leur performance et leur passage à l'échelle
  • Assurer un haut niveau de qualité et de fiabilité des données
  1. Contribution aux initiatives d'intelligence artificielle
  • Mettre en place les fondations techniques nécessaires au déploiement de cas d'usage IA
  • Intégrer des briques d'automatisation intelligente au sein de la plateforme
  • Participer à la structuration d'environnements compatibles avec des systèmes agentiques
  1. Pilotage de l'architecture et de l'automatisation
  • Administrer et faire évoluer l'infrastructure Kubernetes
  • Industrialiser les déploiements via Helm et Helmfile
  • Structurer et optimiser les processus CI/CD
  • Contribuer à la trajectoire d'évolution de la plateforme analytics
  1. Excellence opérationnelle et amélioration continue
  • Déployer et renforcer les dispositifs de monitoring (Prometheus, Grafana, Zabbix)
  • Optimiser les performances globales de la stack technique
  • Diagnostiquer et résoudre efficacement les incidents
  • Inscrire les pratiques dans une logique d'amélioration continue

Requirements

Diplômé·e d'un Master en ingénierie informatique, vous possédez déjà une expérience professionnelle post diplôme minimum de 4 ans en tant que DataOps Engineer ou vous avez une ex pertise avérée en Kubernetes avec une volonté forte de se spécialiser dans les environnements AI et analytics. Vous possédez une première expérience autour de l'intégration de modèles IA / LLM dans des workflows techniques, l'automatisation intelligente ou agents et MLOps ou environnements de déploiement de modèlesVous avez de solides connaissances sur des architectures data à forte volumétrieVous êtes capable de structurer et d'améliorer une stack existanteVous appréciez prendre des intiatives et possédez une approche orientée amélioration continue, Diplômé·e d'un Master en ingénierie informatique, vous possédez déjà une expérience professionnelle post diplôme minimum de 4 ans en tant que DataOps Engineer ou vous avez une ex pertise avérée en Kubernetes avec une volonté forte de se spécialiser dans les environnements AI et analytics.

Vous possédez une première expérience autour de l'intégration de modèles IA / LLM dans des workflows techniques, l'automatisation intelligente ou agents et MLOps ou environnements de déploiement de modèles

Vous avez de solides connaissances sur des architectures data à forte volumétrie

Vous êtes capable de structurer et d'améliorer une stack existante

Vous appréciez prendre des intiatives et possédez une approche orientée amélioration continue

Apply for this position