Formation Data Science Fondamentaux.
96% de clients Sparks satisfaits (3317 notes)
Durée :
5 jours
Distanciel et 16 villes en France
numero vert : 0805 950 800 (service et appel gratuits)
Data Science Fondamentaux
à partir de
2890 €HT
Formation référencée Datadock

Référence :
SF33373
Durée :
5 jours
TP :
50%

Disponible en distanciel et dans 17 villes
Ce stage comprend
 35 heures de formation
50% de travaux pratiques
Pauses et snacks à volonté
Prise en charge OPCO possible
Disponible à distance

Formation Data Science Fondamentaux.

Apprenez les outils, la méthodologie, les bonnes pratiques et les principes clés de la Data Science grâce à notre formation Data Science: Fondamentaux de 5 jours !

La Data Science est un pan du phénomène Big Data qui traite de l'analyse et de la visualisation des données entreprise pour les rendre exploitables dans une optique décisionnaire. Cette science a également donné lieu à la création d'un nouveau métier, data scientist, qui est en charge du traitement de ces données. Au travers de cette formation apportant les fondamentaux de la data science, vous apprendrez les principes clés ainsi que les méthodes principales de la data science. Vous maîtriserez également les bonnes pratiques de base pour le traitement et la visualisation des données. Grâce à notre formation en Data Science, vous aurez tous les outils pour intégrer la Data Science dans votre organisme !

Objectifs pédagogiques.

Programme de formation Data Science Fondamentaux.

PDF

Présentation de la Data Science

Big Data: définition, architecture…
La Big Data, quel enjeu pour les entreprises?
Volume, Vélocité, Variété: les 3V
Cas d’usage
Traiter les données: deep learning, analyse statistique…
Le Data Mining contre la Business Intelligence
Nouveaux challenges pour les organisations
Gouvernance des données

Principes, concepts clés de la Data Science

Data Science: présentation, définitions, vocabulaire et terminologie
Le métier de Data Scientist, « métier le plus sexy du XXIème siècle » ?
Data scientist: Rôle, responsabilités, compétences, philosophie
Objectifs et besoins
Processus de Data Science et Data Mining

Outils pour la Data Science

Outils propriétaires et outils open-source
Python et R: les langages pour la Data Science et leur environnement de développement
Notebooks Jupyter
Pandas, Numpy, SciKit-Learn… : les bibliothèques majeures
SQL, NoSQL, MongoDB : les principales bases de données pour la Data Science
Utiliser Excel, Tableau, D3.js ou encore Matplotlib pour visualiser les données
Installation d’outils pour les cas pratiques

Rappels mathématiques

Programmer avec Python et R

Python, R: les langages de la Data Science
Caractéristiques, structure
Opérations basiques, données, assignation de variables
Fonctions, listes, tableaux et packages

Obtenir et explorer les données

Trouver et importer des données
Données publiques, données privées
Entreposer les données (datawarehouse et datalake…)
Installation de bibliothèques et de packages
Pertinence des données: identification des caractéristiques des données
Contrôle de qualité: les bonnes pratiques

Prétraitement des données

De l’importance de nettoyer les données
Exemple d’un ensemble de données non-structurées
Nettoyage et préparation d’ensembles de données
Identification et résolution des valeurs manquantes, des valeurs « aberrantes »
Apache Spark et Apache Hadoop, MapReduce pour le Big Data
L’analyse en composantes principales (ACP, ou PCA pour Principal Component Analysis)
Extraire et sélectionner des features (Feature engineering)

Machine Learning pour analyser et modéliser

Entrées et sorties pour la modélisation d’un problème de Data Science
Machine Learning: capacités
Algorithmes supervisés, non-supervisés, semi-supervisés
Classification, régression d’algorithmes
Machine Learning et intuition
SciKit-Learn, gradDescent, TensorFlow… : les bibliothèques Machine Learning
Text Mining
Gestion des volumes du Big Data

Apprentissage supervisé: les méthodes

Construction d’un modèle de régression linéaire pour estimer les valeurs
Régression non-linéaire, logistique
Interpréter les coefficients de régression
Descente de gradient
Labels de jeux de données: automatisation
Méthodes ensemblistes
Forêts aléatoires, arbres de décision
SVM (machines à vecteurs de support)
Réseaux Bayésiens
Classification naïve bayésienne

Apprentissage semi-supervisé, non-supervisé, clustering

Algorithmes majeurs
Partitionnement en k-moyennes
Regroupement hiérarchique
Clustering basé sur la densité
Réseaux de neurones (Deep Learning)

Modèles d’apprentissage: évaluation et tests

Sur-apprentissage et cross-validation pour l’amélioration des modèles
Maintenance des modèles
Détérioration de la performance des modèles d’apprentissage
Ajustement, validation d’un modèle

Visualisation et restitution des données

Prendre des décisions à partir des données
Visualiser les données: les grands principes
Utiliser Tableau Software ou encore QlikSense pour la datavisualization
Raconter une histoire avec les données avec le Data storytelling

Intégrer la Data Science dans votre organisation

Implémentations dans les processus actuels
Considérer les objectifs et le contexte professionnel pour le choix des outils
Enjeux organisationnels, éthiques et juridiques

Notre charte qualité et éthique.

A travers sa Charte Engagement Qualité, Sparks s’engage à tout mettre en œuvre pour que chaque session de formation soit un succès et que votre satisfaction soit totale.

Amandine de Sparks
Des chiffres étincelants.
17 années
à vos côtés
+ de 1000
sujets de formation
6883
stagiaires formés en 2021
249
formateurs actifs en 2021
96%
de clients satisfaits
18581
heures de formation réalisées en 2021
HAUT