Formation Fine-tuning des LLM : techniques, outils et bonnes pratiques.
Score de satisfaction : 4.92/5
Durée :
2 jours
Distanciel et 16 villes en France
numero vert : 0805 950 800 (service et appel gratuits)
à partir de
1700 €HT
98% d'avis positifs* participants

Référence :
SF34428
Durée :
2 jours

En présentiel ou distanciel


  • 14 heures de formation
  • Exercices pratiques
  • Prise en charge OPCO possible
Vous souhaitez personnaliser cette formation ?
  • En entreprise ou à distance
  • Cadrage pédagogique gratuit
  • Programme de formation sur mesure
  • Formateur expert dédié
  • Prise en charge OPCO possible

Formation Fine-tuning des LLM : techniques, outils et bonnes pratiques.

De la donnée au modèle réellement adapté à votre cas d’usage !

Cette formation animée par un·e expert·e (à distance ou en présentiel) s’adresse aux professionnels de niveau intermédiaire à avancé qui souhaitent adapter des modèles pré-entraînés à des tâches et jeux de données spécifiques. Le parcours couvre les principes du fine-tuning, la préparation des données, la mise en œuvre pratique (notamment avec les Transformers), l’optimisation, l’évaluation et la mise à l’échelle, avec un focus dédié aux grands modèles de langage (LLM) et aux bonnes pratiques.

Objectifs pédagogiques.

1Expliquer les principes du fine-tuning et ses cas d’usage.

2Préparer et prétraiter des jeux de données adaptés à la tâche.

3Mettre en œuvre le transfert d’apprentissage et l’extraction de caractéristiques.

4Affiner des Transformers/LLM pour des tâches NLP (classification, synthèse, etc.) et piloter leur comportement via le prompt engineering.

5Régler les hyperparamètres et évaluer les performances tout en gérant sur-apprentissage et sous-apprentissage.

6Mettre à l’échelle les entraînements (systèmes distribués, cloud).

7Appliquer les bonnes pratiques, dépanner les problèmes courants et intégrer les considérations éthiques.

Prérequis : Bases solides en apprentissage automatique.Pratique de Python.Familiarité avec les Large Language Models et leurs usages.
Partagez cette formation

Programme de formation Fine-tuning des LLM : techniques, outils et bonnes pratiques.

Module 1 — Panorama du fine-tuning et du transfert d’apprentissage

Définition et bénéfices du fine-tuning
Modèles pré-entraînés et transfert d’apprentissage
Cas d’usage typiques et critères de choix

Module 2 — Données : collecte, nettoyage, EDA et préparation

Constitution et nettoyage des datasets
Exigences de données selon la tâche
Analyse exploratoire (EDA) et prétraitements

Module 3 — Techniques de fine-tuning

Transfert d’apprentissage vs extraction de caractéristiques
Stratégies pour tâches supervisées et non supervisées
Fine-tuning de Transformers avec l’écosystème Hugging Face

Module 4 — Adapter les LLM aux tâches NLP

Préparer des jeux de données spécifiques (classification, synthèse, etc.)
Entraîner/affiner des LLM sur des données personnalisées
Contrôler le comportement via le prompt engineering

Module 5 — Optimisation et évaluation

Réglage des hyperparamètres
Métriques et protocoles d’évaluation
Diagnostiquer et traiter sur-apprentissage/sous-apprentissage

Module 6 — Passage à l’échelle

Entraînement sur systèmes distribués
Exploiter le cloud pour la scalabilité
Études de cas de projets de fine-tuning à grande échelle

Module 7 — Bonnes pratiques, dépannage et éthique

Bonnes pratiques pour réussir un fine-tuning
Problèmes fréquents et pistes de résolution
Enjeux éthiques de l’adaptation des modèles

Module 8 — Sujets avancés (optionnel)

Fine-tuning de modèles multimodaux
Zero-shot et few-shot learning
LoRA (Low-Rank Adaptation) : principes et usages

Module 9 — Synthèse et prochaines étapes

Récapitulatif des acquis
Ressources et orientations pour aller plus loin

Notre charte qualité et éthique.

A travers sa Charte Engagement Qualité, Sparks s’engage à tout mettre en œuvre pour que chaque session de formation soit un succès et que votre satisfaction soit totale.

Amandine de Sparks
Des chiffres étincelants.
20 années
à vos côtés
+ de 1000
sujets de formation
8702
stagiaires formés en 2024
252
formateurs actifs en 2024
97,9%
de stagiaires satisfaits
23793
heures de formation réalisées en 2024
HAUT