Machine Learning

A travers des applications et des présentations de cas pratiques, vous découvrirez les modèles utilisés en machine learning (apprentissage automatique), ainsi que les bases du deep learning pour l'intelligence artificielle. Cette formation vous fournira ainsi tout le bagage nécessaire à la compréhension de ce domaine passionnant et vous rendra capable de développer vos propres modèles, notamment grâce à la partie pratique de cette formation qui se fera sur les logiciels KNIME et Python (50%).

Présentiel
Format de la formation

Il n'y a pas encore de taux de satisfaction sur ce produit.

Formation

Informations sur la durée et les tarifs de la formation Machine Learning

Durée
21 heures sur 3 jours

Groupe
De 3 à 8 personnes

Tarifs
Inter :
1 990 € NET 3 jours
Intra : Nous consulter

Programme

Prérequis

Connaissances de base en algèbre (matrices) et statistiques. Connaissances en programmation, idéalement en Python.

Public concerné

Data analysts, data scientists, business analysts, toute personne s’intéressant à ce domaine fortement évolutif.

Objectifs pédagogiques

  • Comprendre les différents modèles d'apprentissage
  • Modéliser un problème pratique sous forme abstraite
  • Identifier les méthodes d'apprentissage pertinentes pour résoudre un problème
  • Appliquer et évaluer les méthodes identifiées sur un problème
  • Faire le lien entre les différentes techniques d'apprentissage

Contenu

1 — Introduction au Machine Learning
Présentation générale
Domaines d’application
Focus Data Science (Data Mining)
Focus Machine Learning
Focus Big Data
Focus Deep Learning
Définition du Machine Learning
Exemples de tâches traitées par le Machine Learning
Types d’apprentissages
Ce que les machines peuvent apprendre
Les différents modes d’entraînement

 

2 — Les fondamentaux du Machine Learning
Notions clés
Problème d’optimisation
Capacité optimale du modèle
Lien entre capacité et erreurs
Cadre statistique
Anatomie d’un modèle de Machine Learning
Jeux de données d’apprentissage
Variables prédictives
Chaîne de traitement des variables
Variables cibles
Fonctions hypothèses
Principe et rôle
Sélection et caractéristiques
Approches fréquentistes et bayésiennes
Fonctions de coût et estimation
Estimateurs
Maximum de vraisemblance (MLE)
Maximum a posteriori (MAP)
Biais et variance
Compromis biais-variance
Régularisation
Algorithmes d’optimisation
Grandes familles d’algorithmes
Descente de gradient
Méthodes de Newton
Optimisation batch et stochastique

 

3 — La classification
Introduction
Choisir un algorithme de classification
Régression logistique
Du perceptron à la régression logistique
Hypothèses et apprentissage des paramètres
Exemple avec scikit-learn
SVM (Support Vector Machines)
Principe de marge maximale
Marges souples
Méthodes à noyaux et kernel trick
Arbres de décision
Principe et fonctionnement
Gain informationnel
Mesures d’impureté
Exemple avec scikit-learn
k-plus proches voisins (kNN)
Principe
Points forts et limites
Synthèse des méthodes

 

4 — Les bonnes pratiques en Machine Learning
Prétraitement des données
Gestion des données manquantes
Traitement des variables catégorielles
Partitionnement des jeux de données
Mise à l’échelle
Feature Engineering
Sélection de variables
Régularisation L1
Sélection séquentielle
Importance des variables
Réduction dimensionnelle
ACP, LDA, ACP à noyau
Réglage et évaluation des modèles
Notion de pipeline
Validation croisée
Courbes d’apprentissage et de validation
Grid search
Validation croisée imbriquée
Métriques de performance

 

5 — L’apprentissage par ensembles (Ensemble Learning)
Principe du vote
Empilement (stacking)
Bagging
Forêts aléatoires
Boosting
AdaBoost
Gradient Boosting

 

6 — La régression
Régression linéaire simple et multiple
Analyse des relations entre variables
Détection des valeurs aberrantes (RANSAC)
Évaluation des performances
Régularisation
Régression polynomiale
Régression avec forêts aléatoires
Synthèse

 

7 — Le clustering
Introduction au clustering
Méthode k-means et variantes
Notion d’inertie
k-means++
Clustering flou
Choix du nombre de clusters (méthode Elbow)
Évaluation par silhouettes
Clustering hiérarchique
DBSCAN
Autres approches de clustering
Synthèse

Méthodes Pédagogiques

Beaucoup de tests et d’exemples concrets en lien direct avec les besoins des participants

Des techniques directement mobilisables dans le cadre de leurs fonctions

Formation axée sur la mise en pratique

Méthode participative

Mise en situation professionnelle

Alternance de cours et d’exercices dirigés ou en autonomie

Travaux individuels et corrections collectives

Evaluation croisée et partage de bonnes pratiques

Quizz

Modalités d'évaluation

Evaluation diagnostique en amont : questionnaire d’auto-positionnement et recueil des attentes & besoins - Evaluation formative en cours de formation : exercices - Evaluation sommative en fin de formation : exercice/QCM - Bilan individuel des compétences acquises – Attestation de fin de formation - Questionnaire de satisfaction à chaud - Questionnaire de satisfaction à froid envoyé 15 jours après la formation pour assurer le suivi post formation

Accessibilité

Nos formations sont accessibles aux personnes en situation de handicap et aux besoins spécifiques. Une étude personnalisée avec notre référente handicap, permettra d’adapter les moyens pédagogiques, techniques ou organisationnels.

Date de modification

07/01/2026

Fiche Programme

Télécharger le programme