Administrateur Systèmes et réseaux H/F

OUICODING
Paris, France
6 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
English, French
Experience level
Intermediate

Job location

Paris, France

Tech stack

Nvidia CUDA
Linux
Ethernet
Firmware
InfiniBand
Network Architecture
Remote Direct Memory Access
Prometheus
Network Switches
Grafana
Kubernetes
Low Latency

Job description

Vous travaillerez dans le cadre du déploiement et de l'exploitation d'une AI Factory à très grande échelle, reposant sur plusieurs clusters. Vous serez en charge de l'architecture, de l'optimisation et de l'évolution des infrastructures réseaux, systèmes et GPU fabrics alimentant des charges IA critiques (training, fine-tuning, inference).

L'environnement est international, hautement distribué (Europe, Amérique du Nord, Asie) et orienté performance extrême, faible latence et scalabilité horizontale.

Architecture & design de la GPU Fabric :

  • Concevoir et faire évoluer des architectures réseau haut débit, faible latence, adaptées aux NVL72 et aux workloads IA massivement parallèles
  • Définir les topologies réseau (leaf-spine, fat-tree, dragonfly le cas échéant) pour : Interconnexion intra-NVL72, Scale-out multi-racks / multi-clusters
  • Sélectionner et valider les technologies : InfiniBand HDR / NDR, Ethernet Spectrum / RoCEv2, Dimensionner les fabrics pour des usages IA à très grande échelle (NCCL-heavy, all-reduce intensif)

Performance, RDMA & communications GPU :

  • Piloter le développement, l'optimisation et le tuning des communications RDMA
  • Piles RDMA : libibverbs, rdma-core, NVPeerMemory
  • Optimisations GPUDirect / GPUDirect-RDMA
  • Garantir des transferts GPU / GPU et GPU / NIC à très haute performance, sans surcharge CPU
  • Optimiser les communications collectives : NCCL, MPI / CUDA-aware MPI, Identifier et lever les goulots d'étranglement réseau, mémoire et CPU/GPU.

Intégration Kubernetes & workloads IA :

  • Concevoir l'intégration réseau de clusters GPU dans des environnements Kubernetes
  • Gérer l'exposition et l'isolation des interfaces RDMA : Device Plugin, Network Operator / CNI avancés
  • Garantir le bon fonctionnement des workloads conteneurisés IA : Training distribué, Jobs MPI / NCCL, Pipelines data GPU

Exploitation, observabilité & troubleshooting :

  • Mettre en place et exploiter des solutions de monitoring avancé : Latence, bande passante, congestion, erreurs
  • Outils : Prometheus, Grafana, NetQ, UFM (ou équivalents)
  • Analyser les performances réseau et GPU fabric en production
  • Proposer et implémenter : Ajustements MTU, Affinités CPU/GPU, Tuning NIC, switch et firmware
  • Assurer le support niveau 2/3 sur incidents critiques

Requirements

  • Formation : ingénieur ou équivalent BAC+5.
  • Expérience professionnelle : Minimum 4 ans d'expérience pratique avec les technologies (GPUDirect, RoCE, InfiniBand) dans des environnements HPC ou IA.
  • Solide expérience en architecture réseau HPC / IA / GPU
  • Maîtrise avancée de : InfiniBand & RoCEv2, RDMA, GPUDirect, NCCL, Architectures GPU scale-up / scale-out
  • Bonne connaissance de : Kubernetes en contexte GPU, Linux bas niveau (NUMA, IRQ, CPU pinning)
  • Capacité à diagnostiquer des problèmes complexes de performance distribuée
  • Langues : Français et anglais courants (écrit et oral)

Apply for this position