DevX - IA - CDI H/F
Role details
Job location
Tech stack
Job description
Dans le cadre du lancement du programme DevX, qui vise à industrialiser et standardiser les pratiques de développement de la DSI tout en intégrant massivement l'IA générative dans les outils du quotidien (IDE, CI/CD), nous recherchons un profil de Développeur Confirmé., * Versioning : Git (flows collaboratifs avancés) [Intermédiaire]
- Méthodologie & Soft Skills
-
Agilité à l'échelle : Maîtrise du cadre SAFe (Note : la certification SPC est un plus, mais une expérience concrète en train SAFe est impérative) [Confirmé]
-
Communication : Capacité à synthétiser et exposer un raisonnement technique de façon logique et argumentée (Niveau présentation CoDir DSI).
-
Savoir-être : Forte autonomie et capacité à travailler en transverse.
Dans ce contexte DevX + IA générative, quand ton client parle de "contextualisation", il ne parle pas juste de "mettre du contexte" au sens vague - c'est un sujet central des architectures GenAI, surtout autour du RAG (Retrieval-Augmented Generation).
Je te traduis ça concrètement -
-
- La "contextualisation" = donner les bonnes infos au LLM
Un LLM (type GPT-4 ou équivalent) ne connaît pas tes données internes (docs, code, procédures, etc.).
-
Donc la contextualisation consiste à :
-
récupérer les bonnes données métier
-
les injecter dans le prompt
-
pour que le modèle réponde de façon pertinente
Sans ça réponses génériques ou hallucinations.
-
- Le lien avec RAG (le cœur du sujet)
Dans ta fiche, ils mentionnent explicitement LLM, RAG, Prompt Engineering.
- Le RAG, c'est exactement ça :
-
L'utilisateur pose une question
-
Tu fais du requêtage sur tes données (docs, code, KB…)
-
Tu récupères les morceaux pertinents
-
Tu les injectes dans le prompt du LLM
-
Ça = contextualisation dynamique
-
- "Données / requêtage" = la partie technique derrière
Quand ils parlent de requêtage, ça veut dire :
a) Où sont les données ?
-
Bases de données
-
APIs internes
-
Documentation (Confluence, Git, etc.)
-
Logs, tickets…
b) Comment on les récupère ?
-
recherche classique (SQL, API)
-
recherche sémantique (embeddings + vector DB)
Exemple d'outils souvent utilisés :
-
Elasticsearch (full-text)
-
Pinecone ou équivalent (vector search)
-
- Exemple concret (très DevX)
Imaginons un dev qui demande :
"Comment configurer le pipeline Jenkins pour ce projet ?"
Requirements
- IA Générative & Modern Engineering (Cœur de la mission)
-
IA Agentique & Frameworks : LangChain ou équivalent [Intermédiaire]
-
GenAI : LLM, RAG, Prompt Engineering [Intermédiaire]
-
Outillage IA : Maîtrise avancée de Github Copilot (ou équivalent) pour le code [Intermédiaire]
-
Langage : Python [Confirmé]
- Socle DevOps & Automatisation
-
Culture & Pratiques : Fortes compétences en Craftsmanship, "Everything-as-Code" et manipulation d'API.
-
CI/CD & Usine Logicielle : Jenkins, Gitlab-CI, Maven, Artifactory, SonarQube [Intermédiaire/Confirmé]
-
IaC & Config Management : Terraform, Ansible [Intermédiaire]
-
Conteneurisation : Docker, Kubernetes [Intermédiaire]
-
Scripting : Shell [Intermédiaire]
-
Sécurité : Gestion des certificats/SSL et bonnes pratiques SecOps [Intermédiaire]
- Stack de Développement Standard
-
Backend : Java / SpringBoot [Intermédiaire], * tu vas chercher dans :
-
repo Git
-
doc interne CI/CD
-
tu injectes ça dans le prompt
-
réponse spécifique à TON SI
-
- "IA agentique" (mentionné dans la fiche)
Avec des frameworks comme LangChain :
-
tu automatises tout ça :
-
agent qui décide quoi requêter
-
appelle API / DB
-
construit le contexte
-
appelle le LLM
Donc la contextualisation devient automatique et intelligente