A propos de cette formation

Le Deep Learning (Apprentissage Profond) s’il constitue aujourd’hui le fer de lance de l’Intelligence Artificielle est une technologie complexe et de nombreuses entreprises rencontrent régulièrement des difficultés à implémenter leurs projets.

En décomposant le problème, et en explicitant le fonctionnement d’un réseau de neurones, ses cas d’usages et la structuration d’un projet Deep Learning, cette formation vous donne les clés d’une implémentation complète et efficace

Objectifs pédagogiques

  • Comprendre la structure d’un réseau de neurones
  • Améliorer son modèle de Deep Learning
  • Structurer son projet Deep Learning

Qu'allez-vous apprendre ?

A l’issue de cette formation associant l’étude du fonctionnement d’un réseau de neurones à des exemples concrets d’implémentation, vous serez en mesure de :

Comprendre ce qu’est le Deep Learning et quelles sont ses applications

Maitriser ses architectures types et savoir lesquelles choisir pour vos projets

Structurer  vos projets de bout en bout jusqu’à leur mise en production

Penser et construire un algorithme de Deep Learning efficace

Programmer avec la librairie spécialisée Deep Learning Keras

Analyser et optimiser
les performance de vos algorithmes 

Le programme de la formation

​​Une formation sur 2 jours (2 x 7 heures) avec un parcours d’apprentissage clair et progressif. Nous veillons à ne pas vous perdre en chemin et faciliter la mémorisation des connaissances dont vous avez besoin pour avancer. 

Matin [4h] : Introduction au Deep Learning

M1 – CONTEXTE FAVORABLE AU DEEP LEARNING
Premières notions, introduction historique et compréhension du contexte depuis 2010
1. Clarification sémantique : IA, DS, ML, DL, quelles différences ?
2. La “révolution” du Deep Learning à la frontière du hardware, software et des données

M2 – INTRODUCTION AUX RÉSEAUX DE NEURONES
Comprendre les éléments constitutifs d’un réseau de neurones
1. Structure générale d’un problème d’optimisation : équations et nomenclature
2. Retour sur la régression logistique : équations, paramètres et méthodes d’optimisation
3. Le réseau de neurones : définition biologique et parallèle informatique via la régression logistique
4. Structure d’un réseau : notion de neurone, couche, paramètres et représentation matricielle
5. Spécificités d’un réseau de neurones : fonction d’activation, rétro-propagation et initialisation des paramètres

Après-Midi [3h] : Mise en place et apprentissage d’un réseau de neurone

M1 – RÉSEAUX DE NEURONES PROFONDS ET PRÉSENTATION DE LA LIBRAIRIE KERAS
Généralisation à N couches cachées et paramétrisation de la structure de son réseau avec le librairie Keras
1. Pourquoi profond plutôt que large ?
2. Réseau de neurones profond à L couches : propagation directe et rétro-propagation

M2 – HYPERPARAMÈTRES ET FINE-TUNING D’UN ALGORITHME DE DEEP LEARNING
Comment améliorer la performance et permettre une généralisation à de nouvelles données
1. Présentation des hyperparamètres : learning rate, régularisation, taille de mini-batch
2. Utiliser la régularisation pour rendre le modèle plus “simple” et prévenir l’overfitting. (Ex : régularisation L2 et Dropout)
3. Choisir la taille de son mini-batch pour optimiser la convergence liée à la descente de gradient
4. Quel algorithme d’optimisation pour booster la convergence ? Example d’optimisation classique ou Adam
5. Choix du taux d’apprentissage : équations et variables associées
6. Quelle importance relative entre cette multitude d’hyperparamètres ?

Matin [3h] : Méthodologie et convolutions

M1 – STRATÉGIE POUR DU DEEP LEARNING QUI FONCTIONNE !
Recueil de bonnes pratiques pour le Data Scientist
1. Jeux d’entraînement / développement / test
2. Analyse des erreurs
3. Choisir la stratégie la plus appropriée

M2 – PRÉSENTATION ET STRUCTURE D’UN RÉSEAU DE NEURONES À CONVOLUTION (CNN)
Contexte historique, utilité et structure
1. Notions usuelles d’un CNN : opération de convolution, stride, padding, pooling
2. Les limites de stockage liées aux réseaux fully connected et l’avantage concurrentiel des CNN

Après-Midi [4h] : Typologies et applications des réseaux de neurones à convolution

M1 – ARCHITECTURES CLASSIQUES
Comprendre les principales structures historique et leurs cas d’usage
1. Architectures historiques : LeNet, AlexNet
2. Architectures complexes : ResNet, Inception

M2 – COMMENT PALLIER AUX LIMITES RENCONTRÉES PAR LES CNN CLASSIQUES ?
Éviter le problème de manque de donnée et de temps de calcul – Comment analyser une image complexe ?
1. Principes du transfer Learning – les réseaux pré-entrainés pour contourner le besoin en data / ressources 
2. Détection d’objet(s) dans une image : notion de RoI, IoU, NMS
3. Evolution des algorithmes de détection d’objets : R-CNN, Fast R-CNN, Faster R-CNN, YOLO, Mask RCNN

Vous préférez télécharger ?

Les modalités pédagogiques

​Une formation qui se veut avant tout « Hands-on » avec 60% de pratique et nous espérons beaucoup d’échanges constructifs entre vous et avec nous.

40% d'exposé

Juste de qu'il faut de théorie pour comprendre les notions clés et passer directement à la pratique

60% de pratique

Une formation orientée pratique avec de multiples exercices et la revue en profondeur du code

Interactive

Echangez avec le groupe et votre formateur expert sur vos problématiques et trouvez des réponses

Remis pédagogiques :  vous repartez avec ...

Publics et Prérequis

Cette formation s’adresse à tout collaborateur technique souhaitant mieux comprendre et maîtriser l’implémentation d’un projet de Deep Learning de bout en bout.

Prérequis : Notions en Programmation (python avec numpy, matplotlib, pandas), Machine Learning, mathématiques (algèbre linéaire et principes d’optimisation)

Cette formation vous plaît ?
Faite la connaitre !
Partager sur linkedin
Partager sur facebook
Partager sur twitter
TARIF H.T.
2 147 €
Intra : Sur devis
Prix par stagiaire. Petit-déjeuner et repas du midi inclus.
VOTRE FORMATEUR
Alberto

Alberto

Expert IA / Data


Docteur en physique théorique à l’ENS avec une thèse sur la théorie des graphes, il est pédagogue et communicateur passionné.
-
#jeunepapa
#pianoetcomposition
#teamcafeserre

PROCHAINES SESSIONS

Octobre

Aucune formation

Novembre

05novToute la journéeInitiation à la Data ScienceParis – Saint Augustin

09novToute la journée10Développement NLU avec PythonParis – Saint Augustin

16novToute la journée17Initiation Python AccéléréeParis – Saint Augustin

18novToute la journée19Gestion de projet Data ScienceParis – Saint Augustin

24novToute la journée25Traitement distribué avec Apache Spark™Paris – Saint Augustin

25novToute la journée26Deep Learning en pratiqueParis – Saint Augustin

Décembre

03décToute la journée04Deep Learning en pratiqueParis – Saint Augustin

09décToute la journée10Développement NLU avec PythonParis – Saint Augustin

15décToute la journée16Initiation Python AccéléréeParis – Saint Augustin

16décToute la journée17Gestion de projet Data ScienceParis – Saint Augustin

ACTIONS RAPIDES
Ces formations de l'Institut pourraient également vous intéresser