DevX - IA - CDI H/F

Collective
Paris, France
yesterday

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French

Job location

Paris, France

Tech stack

Java
API
Amazon Web Services (AWS)
Confluence
Computer Security
Databases
Continuous Integration
DevOps
Elasticsearch
Python
Maven
Ansible
SonarQube
Statistical Process Control (SPC)
SQL Databases
TypeScript
Management of Software Versions
Scripting (Bash/Python/Go/Ruby)
Transport Layer Security
Data Server Interface
GitHub Copilot
Large Language Models
Prompt Engineering
Spring-boot
Generative AI
Backend
GIT
Containerization
Angular
Gitlab-ci
Kubernetes
Front End Software Development
Terraform
GPT
Docker
Jenkins
Artifactory

Job description

Dans le cadre du lancement du programme DevX, qui vise à industrialiser et standardiser les pratiques de développement de la DSI tout en intégrant massivement l'IA générative dans les outils du quotidien (IDE, CI/CD), nous recherchons un profil de Développeur Confirmé., * Versioning : Git (flows collaboratifs avancés) [Intermédiaire]

  1. Méthodologie & Soft Skills
  • Agilité à l'échelle : Maîtrise du cadre SAFe (Note : la certification SPC est un plus, mais une expérience concrète en train SAFe est impérative) [Confirmé]

  • Communication : Capacité à synthétiser et exposer un raisonnement technique de façon logique et argumentée (Niveau présentation CoDir DSI).

  • Savoir-être : Forte autonomie et capacité à travailler en transverse.

Dans ce contexte DevX + IA générative, quand ton client parle de "contextualisation", il ne parle pas juste de "mettre du contexte" au sens vague - c'est un sujet central des architectures GenAI, surtout autour du RAG (Retrieval-Augmented Generation).

Je te traduis ça concrètement -

    1. La "contextualisation" = donner les bonnes infos au LLM

Un LLM (type GPT-4 ou équivalent) ne connaît pas tes données internes (docs, code, procédures, etc.).

  • Donc la contextualisation consiste à :

  • récupérer les bonnes données métier

  • les injecter dans le prompt

  • pour que le modèle réponde de façon pertinente

Sans ça réponses génériques ou hallucinations.

    1. Le lien avec RAG (le cœur du sujet)

Dans ta fiche, ils mentionnent explicitement LLM, RAG, Prompt Engineering.

  • Le RAG, c'est exactement ça :
  1. L'utilisateur pose une question

  2. Tu fais du requêtage sur tes données (docs, code, KB…)

  3. Tu récupères les morceaux pertinents

  4. Tu les injectes dans le prompt du LLM

  • Ça = contextualisation dynamique

    1. "Données / requêtage" = la partie technique derrière

Quand ils parlent de requêtage, ça veut dire :

a) Où sont les données ?

  • Bases de données

  • APIs internes

  • Documentation (Confluence, Git, etc.)

  • Logs, tickets…

b) Comment on les récupère ?

  • recherche classique (SQL, API)

  • recherche sémantique (embeddings + vector DB)

Exemple d'outils souvent utilisés :

  • Elasticsearch (full-text)

  • Pinecone ou équivalent (vector search)

    1. Exemple concret (très DevX)

Imaginons un dev qui demande :

"Comment configurer le pipeline Jenkins pour ce projet ?"

Requirements

  1. IA Générative & Modern Engineering (Cœur de la mission)
  • IA Agentique & Frameworks : LangChain ou équivalent [Intermédiaire]

  • GenAI : LLM, RAG, Prompt Engineering [Intermédiaire]

  • Outillage IA : Maîtrise avancée de Github Copilot (ou équivalent) pour le code [Intermédiaire]

  • Langage : Python [Confirmé]

  1. Socle DevOps & Automatisation
  • Culture & Pratiques : Fortes compétences en Craftsmanship, "Everything-as-Code" et manipulation d'API.

  • CI/CD & Usine Logicielle : Jenkins, Gitlab-CI, Maven, Artifactory, SonarQube [Intermédiaire/Confirmé]

  • IaC & Config Management : Terraform, Ansible [Intermédiaire]

  • Conteneurisation : Docker, Kubernetes [Intermédiaire]

  • Scripting : Shell [Intermédiaire]

  • Sécurité : Gestion des certificats/SSL et bonnes pratiques SecOps [Intermédiaire]

  1. Stack de Développement Standard
  • Backend : Java / SpringBoot [Intermédiaire], * tu vas chercher dans :

  • repo Git

  • doc interne CI/CD

  • tu injectes ça dans le prompt

  • réponse spécifique à TON SI

    1. "IA agentique" (mentionné dans la fiche)

Avec des frameworks comme LangChain :

  • tu automatises tout ça :

  • agent qui décide quoi requêter

  • appelle API / DB

  • construit le contexte

  • appelle le LLM

Donc la contextualisation devient automatique et intelligente

Apply for this position