SF34428
2 jours
En présentiel ou distanciel
- 14 heures de formation
- Exercices pratiques
- Prise en charge OPCO possible
Un renseignement ?
Contactez-nous !- En entreprise ou à distance
- Cadrage pédagogique gratuit
- Programme de formation sur mesure
- Formateur expert dédié
- Prise en charge OPCO possible
Formation Fine-tuning des LLM : techniques, outils et bonnes pratiques.
De la donnée au modèle réellement adapté à votre cas d’usage !
Cette formation animée par un·e expert·e (à distance ou en présentiel) s’adresse aux professionnels de niveau intermédiaire à avancé qui souhaitent adapter des modèles pré-entraînés à des tâches et jeux de données spécifiques. Le parcours couvre les principes du fine-tuning, la préparation des données, la mise en œuvre pratique (notamment avec les Transformers), l’optimisation, l’évaluation et la mise à l’échelle, avec un focus dédié aux grands modèles de langage (LLM) et aux bonnes pratiques.
Programme de formation Fine-tuning des LLM : techniques, outils et bonnes pratiques.
Module 1 — Panorama du fine-tuning et du transfert d’apprentissage
Définition et bénéfices du fine-tuning
Modèles pré-entraînés et transfert d’apprentissage
Cas d’usage typiques et critères de choix
Module 2 — Données : collecte, nettoyage, EDA et préparation
Constitution et nettoyage des datasets
Exigences de données selon la tâche
Analyse exploratoire (EDA) et prétraitements
Module 3 — Techniques de fine-tuning
Transfert d’apprentissage vs extraction de caractéristiques
Stratégies pour tâches supervisées et non supervisées
Fine-tuning de Transformers avec l’écosystème Hugging Face
Module 4 — Adapter les LLM aux tâches NLP
Préparer des jeux de données spécifiques (classification, synthèse, etc.)
Entraîner/affiner des LLM sur des données personnalisées
Contrôler le comportement via le prompt engineering
Module 5 — Optimisation et évaluation
Réglage des hyperparamètres
Métriques et protocoles d’évaluation
Diagnostiquer et traiter sur-apprentissage/sous-apprentissage
Module 6 — Passage à l’échelle
Entraînement sur systèmes distribués
Exploiter le cloud pour la scalabilité
Études de cas de projets de fine-tuning à grande échelle
Module 7 — Bonnes pratiques, dépannage et éthique
Bonnes pratiques pour réussir un fine-tuning
Problèmes fréquents et pistes de résolution
Enjeux éthiques de l’adaptation des modèles
Module 8 — Sujets avancés (optionnel)
Fine-tuning de modèles multimodaux
Zero-shot et few-shot learning
LoRA (Low-Rank Adaptation) : principes et usages
Module 9 — Synthèse et prochaines étapes
Récapitulatif des acquis
Ressources et orientations pour aller plus loin
Nos autres formations en Intelligence Artificielle (IA) et Data Science .
Formation Analyse statistique et modélisation
Formation Analyste de données Microsoft Power BI (PL-300)
Formation Big Data, Data Science et Machine Learning : concepts et enjeux pour l’entreprise
Formation ChatGPT : les bases du prompt engineering
Formation Claude Code
Formation Computer Vision
A travers sa Charte Engagement Qualité, Sparks s’engage à tout mettre en œuvre pour que chaque session de formation soit un succès et que votre satisfaction soit totale.
