Optimisation du machine learning - 14h
Role details
Job location
Tech stack
Job description
Optimisation du machine learning - 14h, * Un réseau de professionnels passionnés et engagés.
- Des missions variées et adaptées à votre rythme, votre expertise et votre posture.
- Une mise en valeur de votre profil et de votre expérience sur votre CV.
- Une variation des revenus, selon vos disponibilités et l'implication souhaitée.
- Un accès à des ressources pédagogiques et des outils innovants
- Un paiement sous 30 jours fin de mois
Chez WeAndTheMany, ce n'est pas une leçon que vous venez dispenser, c'est une expérience que vous proposez.
En tant que formateur/intervenant, votre rôle est de :
Partager votre vécu, vos expériences, vos outils et votre vision du terrain, pour donner du sens aux contenus abordés. Accompagner les apprenants dans leur montée en compétences, avec écoute, encouragement et exigence bienveillante. ️ Animer vos sessions avec clarté et dynamisme, que ce soit en présentiel ou à distance, en utilisant des formats interactifs (études de cas, mises en situation, quiz, etc.). Créer un lien avec le groupe, instaurer une dynamique de confiance et favoriser l'expression et la participation. Contribuer à la réussite des apprenants, en suivant leur progression et en les challengeant avec bienveillance.
Aucune session ne se ressemble. Ce que vous apportez, c'est vous, votre énergie, votre posture, votre envie.
Chez WeAndTheMany, nous croyons que tout le monde peut devenir formateur/intervenant, à partir du moment où la passion de transmettre, l'envie de contribuer à la réussite des autres et une posture professionnelle sont présentes.
réglementaires et opérationnelles sont fortes.
Jour 1
Comprendre les concepts fondamentaux de l'optimisation sans contraintes une variable (3H30)
- Comprendre le rôle de l'optimisation en data science
- Identifier les différents problèmes d'optimisation
- Appliquer des méthodes d'optimisation sans contrainte : méthodes de descente de gradient, méthode des coordonnées
- Optimiser une régression linéaire par descente de gradient avec Numpy
- Observer la convergence selon différents pas d'apprentissage
Utiliser la méthode de Newton (3H30)
- Appliquer les méthodes d'optimisation de deuxième ordre
- Comparer Newton, quasi-Newton et gradient
- Implémenter une méthode de Newton sur une fonction
- Analyser les avantages et limites de chaque approche
Jour 2
Optimiser avec contrainte (3H30)
- Expliquer les conditions d'optimalité de première et deuxième ordre
- Appliquer les méthodes de Lagrange et conditions KKT
- Résoudre des problèmes simples avec contraintes d'égalité et d'inégalité
- Résoudre une optimisation avec contrainte à la main puis avec Python
Rechercher les hyperparamètres (3H30)
- Relier les méthodes d'optimisation aux performances des modèles
- Optimiser les hyperparamètres d'un modèle supervisé (Grid Search, Random Search, Bayesian Optimization)
- Analyser la courbe d'apprentissage et le surapprentissage
- Evaluer l'impact de la régularisation et du surapprentissage
Requirements
Que vous soyez formateur confirmé ou débutant avec une passion pour la transmission : votre place est chez WeAndTheMany.