SF34535
3 jours
En présentiel ou distanciel
- 21 heures de formation
- Exercices pratiques
- Prise en charge OPCO possible
Un renseignement ?
Contactez-nous !- En entreprise ou à distance
- Cadrage pédagogique gratuit
- Programme de formation sur mesure
- Formateur expert dédié
- Prise en charge OPCO possible
Formation Ollama : déployer et optimiser des LLM en local.
Maîtrisez le déploiement de modèles d'IA en local pour garantir la confidentialité de vos données tout en optimisant les performances !
Les modèles de langage open-source permettent aujourd'hui d'exécuter de l'IA en local, sans dépendre de services cloud et en gardant le contrôle total sur ses données. Cette formation de 3 jours vous apprend à installer, configurer et exploiter Ollama pour déployer des LLM comme Llama, Mistral ou Gemma sur vos propres machines. Vous découvrirez comment personnaliser les modèles via les Modelfiles, les intégrer dans vos applications grâce à l'API REST et créer des agents IA avec LangChain. La formation couvre également l'optimisation des performances (quantization, batching, caching) et la sécurisation des déploiements via Docker. À l'issue de ces 3 jours, vous serez autonome pour déployer et maintenir une infrastructure d'IA locale adaptée à vos besoins.
Programme de formation Ollama : déployer et optimiser des LLM en local.
Introduction à l’IA locale et aux modèles open-source
– Avantages de l’IA locale : confidentialité des données, réduction des coûts et maîtrise de la latence face aux solutions cloud
– Panorama des LLM open-source : positionnement et caractéristiques des modèles Llama, Mistral et Gemma
– Exigences matérielles : impact de la RAM, du GPU et de l’architecture sur les performances des modèles
– Architecture d’Ollama : fonctionnement interne, gestion des modèles et cas d’usage en entreprise
Exemples d’activités pratiques :
– Comparaison des performances et coûts entre un LLM local et une API cloud sur un même jeu de prompts
Installation et configuration d’Ollama
– Installation multi-plateforme : procédures spécifiques pour macOS, Windows et Linux
– Dépendances et accélération GPU : configuration de Docker et des drivers CUDA pour exploiter le matériel disponible
– Bonnes pratiques de configuration : organisation des modèles, gestion de l’espace disque et variables d’environnement
– Diagnostic et dépannage : résolution des problèmes courants d’installation et de compatibilité
Exemples d’activités pratiques :
– Installation d’Ollama et lancement d’un premier modèle léger
– Diagnostic et résolution de problèmes d’installation simulés
Utilisation et gestion des modèles
– Interface CLI : commandes essentielles pour télécharger, lancer et gérer les modèles
– Interface WebUI : interaction graphique avec les modèles pour le prototypage rapide
– Gestion du cycle de vie : téléchargement, mise à jour et suppression des modèles
– Techniques de prompting : rédaction de prompts efficaces et tests comparatifs entre modèles
Exemples d’activités pratiques :
– Lancement de plusieurs modèles et comparaison de leurs réponses sur des prompts variés
Personnalisation des modèles avec les Modelfiles
– Modelfiles : syntaxe et structure pour définir des modèles personnalisés
– Paramétrage avancé : ajustement de la température, du contexte et des instructions système
– Adaptation métier : spécialisation d’un modèle pour un domaine ou une tâche spécifique
– Fine-tuning de base : principes et limites de l’ajustement de modèles en local
Exemples d’activités pratiques :
– Création d’un Modelfile pour spécialiser un LLM sur la génération de code Python
– Personnalisation d’un modèle avec des instructions système adaptées à un contexte métier
Intégration applicative via l’API REST et LangChain
– API REST Ollama : endpoints disponibles, formats de requêtes et gestion des réponses en streaming
– Intégration Python : appels programmatiques à l’API pour intégrer Ollama dans des applications existantes
– LangChain et Ollama : configuration du connecteur, création de chaînes de traitement et gestion de la mémoire
– Création d’agents conversationnels : architecture d’un chatbot exploitant un modèle local
Exemples d’activités pratiques :
– Développement d’un chatbot simple intégrant l’API Ollama
– Construction d’une chaîne LangChain connectée à un modèle local
Optimisation des performances
– Quantization : réduction de la taille des modèles et impact sur la qualité des réponses
– Batching : traitement par lots pour améliorer le débit dans les scénarios multi-utilisateurs
– Stratégies de caching : mise en cache des résultats pour accélérer les réponses récurrentes
– Monitoring : suivi des métriques de performance (temps de réponse, consommation mémoire, utilisation GPU)
Exemples d’activités pratiques :
– Application de la quantization sur un modèle large et mesure de l’impact sur les performances et la qualité
– Mise en place d’un monitoring de base pour suivre l’utilisation des ressources
Sécurisation et déploiement en environnement sensible
– Isolation avec Docker : conteneurisation d’Ollama pour limiter la surface d’attaque
– Chiffrement des données : protection des modèles et des échanges en transit et au repos
– Contrôle d’accès : gestion des permissions et restriction de l’utilisation des modèles
– Cas d’usage en secteurs réglementés : déploiement dans des contextes santé, finance ou défense
Exemples d’activités pratiques :
– Déploiement d’Ollama dans un conteneur Docker sécurisé avec contrôle d’accès
– Développement d’un agent d’analyse de texte confidentiel exploitant un modèle local isolé
Nos autres formations en Intelligence Artificielle (IA) et Data Science .
Formation Acculturation IA pour le CODIR/COMEX
Formation Analyse statistique et modélisation
Formation Analyste de données Microsoft Power BI (PL-300)
Formation Big Data, Data Science et Machine Learning : concepts et enjeux pour l’entreprise
Formation ChatGPT : les bases du prompt engineering
Formation Claude Code : automatiser vos tâches de développement
A travers sa Charte Engagement Qualité, Sparks s’engage à tout mettre en œuvre pour que chaque session de formation soit un succès et que votre satisfaction soit totale.
