Formation PyTorch.
Score de satisfaction : 4.93/5
Durée :
3 jours
18/12/2025 à Distance
numero vert : 0805 950 800 (service et appel gratuits)
PyTorch
à partir de
2550 €HT
99% d'avis positifs* participants

Référence :
SF33829
Durée :
3 jours

En présentiel ou distanciel


Réservez vos places pour la session du
  • 21 heures de formation
  • Exercices pratiques
  • Prise en charge OPCO possible
Vous souhaitez personnaliser cette formation ?
  • En entreprise ou à distance
  • Cadrage pédagogique gratuit
  • Programme de formation sur mesure
  • Formateur expert dédié
  • Prise en charge OPCO possible
Disponible à distance

Formation PyTorch.

Devenez opérationnel en Deep Learning avec PyTorch, du tensor au modèle déployable !

Cette formation PyTorch s’adresse aux data scientists, ingénieurs IA/ML, développeurs Python et data engineers qui souhaitent passer rapidement de l’expérimentation au prototypage opérationnel de modèles deep learning. En trois jours, les participants configurent leur environnement (local ou cloud), manipulent tenseurs et DataLoader, implémentent et entraînent des architectures MLP et CNN, puis mettent en œuvre du transfert d’apprentissage sur des cas concrets de vision ou de NLP. Ils apprennent à optimiser et régulariser leurs modèles, à structurer un pipeline complet d’inférence et à versionner leurs notebooks ou scripts pour une réutilisation en contexte projet. À l’issue de la formation, ils disposent d’un socle solide pour industrialiser leurs premiers cas d’usage IA avec PyTorch.

Objectifs pédagogiques.

1Configurer un environnement de développement PyTorch et manipuler des tenseurs, Datasets et DataLoader pour préparer des jeux de données

2Implémenter, entraîner et sauvegarder des architectures de réseaux de neurones (MLP et CNN) avec torch.nn et torch.optim pour des tâches de classification supervisée

3Appliquer des techniques de régularisation et d'optimisation afin d'améliorer la métrique de validation d'un modèle PyTorch existant

4Mettre en oeuvre un pipeline complet de transfert d'apprentissage en réutilisant un modèle pré-entraîné PyTorch pour un cas de vision par ordinateur ou de NLP et comparer quantitativement ses performances à un modèle entraîné from scratch

5Intégrer un modèle PyTorch entraîné dans un script ou notebook réutilisable et le versionner pour pouvoir le rejouer sur un nouveau jeu de données en contexte projet

Prérequis : Maîtrise opérationnelle de Python, notions en machine learning supervisé, connaissances de base en algèbre linéaire et en calcul différentiel, familiarité avec l'écosystème PyData et l'usage de notebooks Jupyter.
Partagez cette formation

Programme de formation PyTorch.

PDF

Prise en main de PyTorch et de l’environnement de développement

Installation de Python, PyTorch et bibliothèques associées (torchvision, torchaudio, numpy, pandas)
Organisation d’un projet : environnement virtuel, structure de répertoires, gestion des dépendances
Notions fondamentales : tenseurs, types, device (cpu/cuda), opérations de base et broadcasting
Présentation de l’auto-grad, du graphe de calcul et de la gestion des gradients
Création de Dataset personnalisés et usage des DataLoader (batchs, shuffle, num_workers)
Présentation des supports pédagogiques : notebooks Jupyter, Colab et dépôt de code fourni

Exemples de cas pratiques :
TP : installation guidée et test de l’environnement (import torch, détection du GPU, premier tensor)
Exercice : manipulation de tenseurs (création, reshape, opérations mathématiques, passage CPU/GPU)
Exercice : création d’un Dataset + DataLoader sur un jeu de données tabulaire open source et sur MNIST

Réseaux de neurones fully connected et entraînement de modèles

Rappels sur les réseaux de neurones feed-forward : couches linéaires, fonctions d’activation, fonctions de coût
Architecture d’un MLP dans PyTorch : nn.Linear, nn.ReLU, nn.Sequential vs classe personnalisée
Boucle d’entraînement standard : forward pass, calcul de la loss, backward, step de l’optimiseur
Séparation train/validation/test, gestion des epochs et suivi des métriques
Utilisation de torch.save et torch.load pour sauvegarder et recharger poids et modèles
Structuration d’un notebook d’expérimentation (config, données, modèle, entraînement, résultats)

Exemples de cas pratiques :
TP guidé : implémentation d’un MLP pour prédire une classe sur un dataset tabulaire (ex : churn / crédit)
Exercice : ajout de métriques personnalisées, traçage des courbes de perte et d’accuracy
Mini-projet : sauvegarde du meilleur modèle, rechargement et évaluation sur un jeu de test séparé

Convolutional Neural Networks, vision par ordinateur et optimisation des modèles

Rappels sur les convolutions, le pooling et la hiérarchie de caractéristiques en vision par ordinateur
Construction d’un CNN avec nn.Conv2d, nn.MaxPool2d, nn.Flatten, etc. et utilisation de torchvision.datasets
Optimisation : choix de la fonction de coût, des optimiseurs (SGD, Adam), learning rate et batch size
Régularisation : dropout, data augmentation, weight decay, early stopping, schedulers de taux d’apprentissage
Suivi et comparaison des expériences (logs, tableaux de résultats, éventuelle intégration avec TensorBoard)
Évaluation avancée : matrice de confusion, erreurs typiques, interprétation qualitative des prédictions

Exemples de cas pratiques :
TP : entraînement d’un CNN de base sur MNIST ou Fashion-MNIST avec un jeu de paramètres par défaut
Atelier : application progressive de dropout, data augmentation et scheduler, comparaison des métriques
Exercice : rédaction d’un court rapport d’expérimentation (config, résultats, choix retenus) dans le notebook

Données séquentielles, NLP et introduction aux Transformers

Pipeline NLP : collecte, nettoyage, tokenisation, encodage (index, embeddings) et gestion des longueurs de séquence
Utilisation de torch.nn.Embedding et des modules RNN, LSTM ou GRU pour modéliser des séquences
Gestion des DataLoader pour des séquences (padding, masks éventuels)
Présentation des mécanismes d’attention et de la structure générale d’un Transformer (sans entrer dans tous les détails mathématiques)
Introduction à Hugging Face Transformers ou équivalent pour l’inférence avec un modèle pré-entraîné (ex : DistilBERT)
Comparaison de performances et de coûts (temps d’entraînement, ressources) entre modèle LSTM maison et modèle pré-entraîné

Exemples de cas pratiques :
TP : construction d’un pipeline NLP complet pour de la classification de sentiment (tweets ou reviews) avec un LSTM PyTorch
Exercice : mise en place d’un script d’inférence utilisant un modèle Transformer pré-entraîné pour la même tâche
Comparaison des métriques et discussion des choix d’architecture en groupe (tableau de synthèse dans le notebook)

Transfert d’apprentissage et pipeline d’inférence réutilisable

Principe du transfert d’apprentissage : freeze/unfreeze de couches, réutilisation de features pré-apprises
Utilisation de modèles pré-entraînés de torchvision (ex : ResNet) ou d’un modèle NLP pré-entraîné en fine-tuning léger
Construction d’un pipeline d’inférence : chargement du modèle, prétraitement des données, prédictions et post-traitement
Sauvegarde des artefacts : poids du modèle, configuration, encoders, normalisation
Introduction aux bonnes pratiques de versionning (Git, branches simples), tracking des expériences et gestion de requirements.txt/conda.yaml
Bonnes pratiques de structuration d’un projet ML en vue d’une future mise en production (séparation entraînement / inférence, scripts CLI ou squelette d’API)

Exemples de cas pratiques :
Mini-projet : fine-tuning d’un modèle pré-entraîné (vision ou NLP) sur un petit dataset métier, comparaison avec un modèle from scratch
TP : création d’un notebook ou script d’inférence autonome prenant en entrée un fichier (image ou texte) et renvoyant une prédiction
Exercice de clôture : création d’un dépôt Git local du projet de formation (code, modèles sauvegardés, README de reprise en main)

Notre charte qualité et éthique.

A travers sa Charte Engagement Qualité, Sparks s’engage à tout mettre en œuvre pour que chaque session de formation soit un succès et que votre satisfaction soit totale.

Amandine de Sparks
Des chiffres étincelants.
20 années
à vos côtés
+ de 1000
sujets de formation
8702
stagiaires formés en 2024
252
formateurs actifs en 2024
97,9%
de stagiaires satisfaits
23793
heures de formation réalisées en 2024
HAUT