SF34434
1 jour
En présentiel ou distanciel
- 7 heures de formation
- Exercices pratiques
- Prise en charge OPCO possible
Un renseignement ?
Contactez-nous !- En entreprise ou à distance
- Cadrage pédagogique gratuit
- Programme de formation sur mesure
- Formateur expert dédié
- Prise en charge OPCO possible
Formation Sensibilisation aux risques et enjeux éthiques de l'IA.
Une journée pour comprendre les risques de l’IA et sécuriser vos usages professionnels !
Cette formation s’adresse aux managers, chefs de projet et collaborateurs non techniques qui utilisent ou vont utiliser des outils d’IA (générative ou non) dans leur activité. En une journée, les participants découvrent les principaux risques éthiques liés à l’IA (biais, opacité, atteinte à la vie privée, impacts sociaux) et les relient aux cadres réglementaires clés comme le RGPD et l’AI Act. À partir de cas d’usage concrets et d’ateliers guidés, ils apprennent à analyser leurs propres projets, à adopter des pratiques responsables (prompts éthiques, contrôles humains, gestion des données) et à co-construire les premières règles d’une charte interne d’usage responsable de l’IA.
Programme de formation Sensibilisation aux risques et enjeux éthiques de l'IA.
Panorama de l’IA et premiers repères éthiques
Tour de table des usages actuels de l’IA dans les métiers des participants
Définitions opérationnelles : IA, machine learning, IA générative expliqués sans jargon
Typologie des risques : biais algorithmiques, discrimination, boîtes noires, atteinte à la vie privée, risques de sécurité et d’image
Présentation des principes d’IA responsable et de leur lien avec la confiance, la réputation et la performance business
Survol accessible des cadres de référence : RGPD, AI Act, chartes éthiques d’organisations pionnières
Méthodes : exposé interactif, quiz en ligne, nuage de mots, mini-sondages en direct
Exemples de cas pratiques :
– Exercice « Où l’IA se cache-t-elle déjà dans mon métier ? »
– Mini-quiz interactif pour repérer les situations à risque
– Discussion guidée autour d’une courte vidéo illustrant un scandale ou échec lié à l’IA
Cartographier et analyser les risques éthiques dans les cas d’usage
Cycle de vie d’un cas d’usage d’IA vu du métier : besoin, données, modèle, déploiement, suivi
Biais humains vs biais algorithmiques : mécanismes concrets et exemples (recrutement, scoring, modération, IA générative)
Introduction à une grille de questionnement éthique simple (impact sur les personnes, transparence, contrôle humain, données, sécurité, environnement)
Illustration par 1 à 2 études de cas intersectorielles (recrutement, relation client, marketing, RH)
Méthodes : travail en sous-groupes, restitution en plénière, utilisation de modèles de canvas éthique imprimés ou numériques
Exemples de cas pratiques :
– Analyse guidée d’un cas d’usage d’IA avec la grille de questionnement éthique
– Construction d’une « carte des risques » avec classement par gravité/probabilité
– Synthèse individuelle : trois points de vigilance prioritaires pour son contexte
Adopter des pratiques responsables avec l’IA (focus IA générative)
Rappels clés : hallucinations, erreurs factuelles et amplification des biais par l’IA générative
Zones rouges et ambres : ce qu’il ne faut pas demander à une IA (données sensibles, secrets d’affaires, informations personnelles)
Bonnes pratiques de prompts éthiques : contextualisation, neutralité, inclusion, remises en question des réponses
Organisation du contrôle humain : relecture, validation, double vérification des contenus produits par l’IA
Check-lists pratiques : « avant / pendant / après l’usage d’un outil d’IA »
Méthodes : démonstration live, co-construction de bonnes pratiques, échanges d’expériences
Exemples de cas pratiques :
– Atelier « prompts responsables » : correction puis réécriture de prompts problématiques
– Simulation d’un mini-workflow avec points de contrôle humain
– Élaboration en groupes d’une check-list de 8 à 10 réflexes pour un usage responsable
Co-construire une charte et un plan d’action d’IA responsable
Exemples de chartes et engagements d’IA responsable
Composants d’une charte IA métier : principes, règles d’usage, rôles et responsabilités, accompagnement et formation
Introduction vulgarisée aux référentiels et initiatives (UNESCO, OCDE, NIST, ISO)
Étapes clés d’une démarche IA responsable : sensibiliser, cadrer les usages, piloter, revoir régulièrement
Méthodes : atelier de co-écriture, priorisation par vote, engagement individuel
Exemples de cas pratiques :
– Rédaction en groupes de 5 à 10 règles ou engagements pour une charte interne
– Restitution croisée pour consolider une version commune
– Rédaction individuelle d’un mini plan d’action 30-60-90 jours
Nos autres formations en Stratégie, pilotage et gouvernance .
Formation Bâtir et piloter un Schéma Directeur SI performant
Formation BPM (Business Process Management) avec BPMN 2 (Business Process Model and Notation)
Formation Cadre juridique de la cybersécurité
Formation Cartographier son SI avec ArchiMate et TOGAF
Formation CDPO : Certified Data Protection Officer (PECB/CNIL DPO)
Formation Directive RED et Cyber Resilience Act : conformité et cybersécurité des systèmes embarqués
A travers sa Charte Engagement Qualité, Sparks s’engage à tout mettre en œuvre pour que chaque session de formation soit un succès et que votre satisfaction soit totale.
