SF34446
2 jours
En présentiel ou distanciel
- 14 heures de formation
- Exercices pratiques
- Prise en charge OPCO possible
Un renseignement ?
Contactez-nous !- En entreprise ou à distance
- Cadrage pédagogique gratuit
- Programme de formation sur mesure
- Formateur expert dédié
- Prise en charge OPCO possible
Formation Programmation assistée par l'IA - Vue d'ensemble.
Boostez votre productivité et transformez votre façon de coder grâce à la puissance de l’IA générative !
Cette formation s’adresse aux développeurs (back-end, front-end, full-stack, cloud), leads techniques et ingénieurs QA qui souhaitent intégrer concrètement l’IA générative dans leurs pratiques de développement. En deux jours, ils découvrent les concepts clés des LLM (prompts, tokens, embeddings, RAG) et apprennent à configurer leur environnement de travail avec des assistants IA comme GitHub Copilot. Au travers de cas pratiques, ils mettent en œuvre l’ingénierie de prompt pour générer, refactorer et documenter du code, et prototypent un composant applicatif consommant une API de LLM (OpenAI, Azure, AWS…). Ils repartent avec une check-list de bonnes pratiques pour exploiter l’IA de manière productive, maîtrisée et responsable dans leurs projets logiciels.
Programme de formation Programmation assistée par l'IA - Vue d'ensemble.
Panorama des IA génératives et impacts sur le cycle de développement
Rappels sur IA, machine learning, deep learning et positionnement des LLM
Notions essentielles pour développeurs : prompts, tokens, embeddings, température, top_p, context window
RAG en simplifié : principe de la génération augmentée par récupération et cas d’usage typiques
Cartographie des usages de l’IA générative dans le cycle de vie logiciel (idéation, conception, codage, tests, documentation, maintenance)
Biais, hallucinations, dépendance et enjeux éthiques : ce que tout développeur doit surveiller
Méthodes pédagogiques : exposés courts, démonstrations en live, échanges guidés à partir de cas concrets
Exemples de cas pratiques :
Atelier de cartographie : chaque participant identifie les tâches de son quotidien où l’IA pourrait aider et celles à proscrire
Analyse critique de réponses d’un LLM sur un problème de code pour repérer erreurs, hallucinations et biais
Mini quiz interactif pour valider la compréhension des notions clés (LLM, tokens, RAG, hallucinations)
Mettre en place un environnement de développement assisté par l’IA
Panorama des assistants IA pour développeurs : Copilot, Claude Code, Cursor, Codeium, extensions ChatGPT, autres outils d’IDE
Pré requis techniques et licences : comptes, accès, politiques d’usage en entreprise
Installation et configuration dans VS Code ou IDE équivalent (activation, project-level settings, filtrage)
Patterns d’usage efficaces : génération de squelette, complétion contextuelle, refactoring guidé, écriture de tests
Gestion de la confidentialité et de la propriété du code : données envoyées au cloud, options d’hébergement, restrictions d’usage
Méthodes pédagogiques : démonstration guidée, tutoriel pas à pas, échanges de bonnes pratiques
Exemples de cas pratiques :
Lab guidé : installation et configuration d’un assistant IA dans l’IDE, activation sur un projet existant de l’apprenant
Exercice pas à pas : utiliser l’assistant pour écrire ou refactorer une fonction, puis comparer avec une implémentation manuelle
Check technique : vérifier les logs et paramètres pour confirmer ce qui est (ou non) envoyé au fournisseur d’IA
Ingénierie de prompt orientée développement et qualité du code
Rappels sur les types de prompts : role prompting, zero shot, few shot, chain of thought
Structurer un prompt pour le développement : contexte, contraintes, format de sortie, exemples de code
Prompts pour le refactoring, la documentation, la génération de tests unitaires et d’exemples d’usage
Stratégies pour limiter les erreurs et hallucinations : itération, reformulation, ajout de contre exemples
Prise en compte de la sécurité, de la performance et de la maintenabilité dans les consignes de prompt
Méthodes pédagogiques : live coding avec prompts, revue collective de prompts, débriefs structurés
Exemples de cas pratiques :
Atelier de prompts code : demander à l’IA de générer une fonction non triviale dans un langage choisi, puis itérer pour améliorer lisibilité, tests et performance
Exercice de refactoring dirigé par l’IA : transformer un code legacy en code plus propre tout en vérifiant les résultats par tests unitaires
Atelier documentation : obtenir à partir de code existant une documentation technique cohérente (commentaires, readme, exemples) via des prompts dédiés
Consommer une API de LLM dans une application
Panorama des offres d’API LLM : OpenAI, Azure OpenAI, AWS Bedrock et alternatives
Structure d’un appel API typique : endpoint, payload JSON, paramètres du modèle, parsing de la réponse
Gestion des secrets et des quotas : stockage des clés, variables d’environnement, bonnes pratiques de sécurité
Pattern d’intégration minimal : service HTTP ou script backend qui interagit avec un LLM pour générer ou transformer du texte
Introduction à la génération augmentée par récupération (RAG) avec une base documentaire simple
Méthodes pédagogiques : décomposition du code fourni, codage en binôme, revue collective
Exemples de cas pratiques :
Lab guidé : implémenter dans un langage au choix un petit service (script ou microservice HTTP) qui interroge un LLM pour répondre à une requête métier simple
Extension avancée : connecter le service à un fichier ou un petit corpus textuel pour fournir un contexte de domaine dans la requête (mini RAG)
Test et durcissement : ajouter gestion d’erreurs, logs et limites de longueur pour fiabiliser le composant
Industrialiser et encadrer l’usage de l’IA assistée en équipe
Critères de qualité pour le code généré par IA : sécurité, performance, lisibilité, conformité aux standards internes
Intégration dans les workflows existants : revues de code, pipelines CI CD, gestion de la dette technique
Politiques d’usage et gouvernance : données sensibles, conformité, propriété intellectuelle, communication interne
Exemples de chartes d’utilisation et de bonnes pratiques pour les équipes de développement
Préparation d’un plan d’action : pilotes, indicateurs, limites à fixer et axes de montée en compétences
Méthodes pédagogiques : travail en sous groupes, partage d’expériences, restitution synthétique
Exemples de cas pratiques :
Revue critique d’un extrait de code généré par IA : identification des points forts, faiblesses et risques, puis proposition d’améliorations
Co construction en groupe d’une check list d’équipe pour l’usage des assistants IA et des APIs de LLM
Élaboration d’une mini feuille de route personnelle pour intégrer ou étendre l’usage de l’IA dans un projet en cours
Nos autres formations en Analyse, conception et méthodes de développement .
Formation Accessibilité numérique, sensibilisation
Formation Adobe XD
Formation Agile Business Analyst – Approfondissement
Formation Agile Business Analyst – Sensibilisation
Formation AirTable
Formation Algorithmique : initiation
A travers sa Charte Engagement Qualité, Sparks s’engage à tout mettre en œuvre pour que chaque session de formation soit un succès et que votre satisfaction soit totale.
