A propos de cette formation

Le Deep Learning (Apprentissage Profond), s’il constitue aujourd’hui le fer de lance de l’Intelligence Artificielle est une technologie complexe et de nombreuses entreprises rencontrent régulièrement des difficultés à implémenter leurs projets.

En décomposant le problème, et en explicitant le fonctionnement d’un réseau de neurones, ses cas d’usages et la structuration d’un projet Deep Learning, cette formation vous donne les clés d’une implémentation complète et efficace

Objectifs pédagogiques

  • Comprendre la structure d’un réseau de neurones
  • Améliorer son modèle de Deep Learning
  • Structurer son projet Deep Learning

Qu'allez-vous apprendre ?

A l’issue de cette formation associant l’étude du fonctionnement d’un réseau de neurones à des exemples concrets d’implémentation, vous serez en mesure de :

Comprendre ce qu’est le Deep Learning et quelles sont ses applications

Maitriser ses architectures types et savoir lesquelles choisir pour vos projets

Structurer  vos projets de bout en bout jusqu’à leur mise en production

Penser et construire un algorithme de Deep Learning efficace

Programmer avec la librairie spécialisée Deep Learning Keras

Analyser et optimiser
les performance de vos algorithmes 

Le programme de la formation

​​Une formation sur 2 jours (2 x 7 heures) avec un parcours d’apprentissage clair et progressif. Nous veillons à ne pas vous perdre en chemin et faciliter la mémorisation des connaissances dont vous avez besoin pour avancer. 

Matin [4h] : Introduction au Deep Learning

M1 – CONTEXTE FAVORABLE AU DEEP LEARNING
Premières notions, introduction historique et compréhension du contexte depuis 2010
1. Clarification sémantique : IA, DS, ML, DL, quelles différences ?
2. La “révolution” du Deep Learning à la frontière du hardware, software et des données

M2 – INTRODUCTION AUX RÉSEAUX DE NEURONES
Comprendre les éléments constitutifs d’un réseau de neurones
1. Structure générale d’un problème d’optimisation : équations et nomenclature
2. Retour sur la régression logistique : équations, paramètres et méthodes d’optimisation
3. Le réseau de neurones : définition biologique et parallèle informatique via la régression logistique
4. Structure d’un réseau : notion de neurone, couche, paramètres et représentation matricielle
5. Spécificités d’un réseau de neurones : fonction d’activation, rétro-propagation et initialisation des paramètres

Après-Midi [3h] : Mise en place et apprentissage d’un réseau de neurone

M1 – RÉSEAUX DE NEURONES PROFONDS ET PRÉSENTATION DE LA LIBRAIRIE KERAS
Généralisation à N couches cachées et paramétrisation de la structure de son réseau avec le librairie Keras
1. Pourquoi profond plutôt que large ?
2. Réseau de neurones profond à L couches : propagation directe et rétro-propagation

M2 – HYPERPARAMÈTRES ET FINE-TUNING D’UN ALGORITHME DE DEEP LEARNING
Comment améliorer la performance et permettre une généralisation à de nouvelles données
1. Présentation des hyperparamètres : learning rate, régularisation, taille de mini-batch
2. Utiliser la régularisation pour rendre le modèle plus “simple” et prévenir l’overfitting. (Ex : régularisation L2 et Dropout)
3. Choisir la taille de son mini-batch pour optimiser la convergence liée à la descente de gradient
4. Quel algorithme d’optimisation pour booster la convergence ? Example d’optimisation classique ou Adam
5. Choix du taux d’apprentissage : équations et variables associées
6. Quelle importance relative entre cette multitude d’hyperparamètres ?

Matin [3h] : Méthodologie et convolutions

M1 – STRATÉGIE POUR DU DEEP LEARNING QUI FONCTIONNE !
Recueil de bonnes pratiques pour le Data Scientist
1. Jeux d’entraînement / développement / test
2. Analyse des erreurs
3. Choisir la stratégie la plus appropriée

M2 – PRÉSENTATION ET STRUCTURE D’UN RÉSEAU DE NEURONES À CONVOLUTION (CNN)
Contexte historique, utilité et structure
1. Notions usuelles d’un CNN : opération de convolution, stride, padding, pooling
2. Les limites de stockage liées aux réseaux fully connected et l’avantage concurrentiel des CNN

Après-Midi [4h] : Typologies et applications des réseaux de neurones à convolution

M1 – ARCHITECTURES CLASSIQUES
Comprendre les principales structures historique et leurs cas d’usage
1. Architectures historiques : LeNet, AlexNet
2. Architectures complexes : ResNet, Inception

M2 – COMMENT PALLIER AUX LIMITES RENCONTRÉES PAR LES CNN CLASSIQUES ?
Éviter le problème de manque de donnée et de temps de calcul – Comment analyser une image complexe ?
1. Principes du transfer Learning – les réseaux pré-entrainés pour contourner le besoin en data / ressources 
2. Détection d’objet(s) dans une image : notion de RoI, IoU, NMS
3. Evolution des algorithmes de détection d’objets : R-CNN, Fast R-CNN, Faster R-CNN, YOLO, Mask RCNN

Vous préférez télécharger ?

Les modalités pédagogiques

​Une formation qui se veut avant tout « Hands-on » avec 60% de pratique et nous espérons beaucoup d’échanges constructifs entre vous et avec nous.

40% d'exposé

Juste de qu'il faut de théorie pour comprendre les notions clés et passer directement à la pratique

60% de pratique

Une formation orientée pratique avec de multiples exercices et la revue en profondeur du code

Interactive

Echangez avec le groupe et votre formateur expert sur vos problématiques et trouvez des réponses

Remis pédagogiques :  vous repartez avec ...

  • Un book de fiches mémoires résumant les points clés de la formation
  • L'ensemble des codes présentés lors de la séance

Publics et Prérequis

Cette formation s’adresse à tout collaborateur technique souhaitant mieux comprendre et maîtriser l’implémentation d’un projet de Deep Learning de bout en bout.

Prérequis : Notions en Programmation (python avec numpy, matplotlib, pandas), Machine Learning, mathématiques (algèbre linéaire et principes d’optimisation)

Cette formation vous plaît ?
Faite la connaitre !
Partager sur linkedin
Partager sur facebook
Partager sur twitter
TARIF H.T.
2 147 €
Intra : Sur devis
Prix par stagiaire. Petit-déjeuner et repas du midi inclus.
VOTRE FORMATEUR
Grégoire

Grégoire

Expert IA / Data

Normalien en Physique, docteur en physique théorique et relativité numérique. Natural Language Processing (NLP), algorithmes adaptatifs.
-
#astrophysicien
#pianiste
#roliste

PROCHAINE(S) SESSION(S)

26maiToute la journée27Deep Learning en pratiqueParis - Saint Augustin

24junToute la journée25Deep Learning en pratiqueParis - Saint Augustin

Ces formations de l'Institut pourraient également vous intéresser