Titre : | Montage d’un Système de Reconnaissance des Expressions Faciales avec le Deep Learning |
Auteurs : | HADJER CHETTOUH, Auteur ; Dalila Hattab, Directeur de thèse |
Type de document : | Monographie imprimée |
Editeur : | Biskra [Algérie] : Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie, Université Mohamed Khider, 2020 |
Format : | 1 vol. (77 p.) / ill. / 29 cm |
Langues: | Français |
Mots-clés: | Expression faciale,émotion,Deep Learning,Réseaux de neurones convolutifs. |
Résumé : | L’expression faciale est l’un des moyens non verbaux les plus couramment utilisés par les humains pour transmettre les états émotionnels internes et, par conséquent, joue un rôle fondamental dans les interactions interpersonnelles. Bien qu’il existe un large éventail d’expressions faciales possibles, les psychologues ont identifié six expressions fondamentales (la joie, la tristesse,la surprise, la colère la peur et le dégoût) universellement reconnues.La reconnaissance des émotions est l’un des domaines scientifiques les plus complexes. Ces dernières années, de plus en plus d’applications tentent de l’automatiser. Ces applications innovantes concernent plusieurs domaines comme l’aide aux enfants autistes, les jeux vidéo, l’interaction homme-machine.Nous proposons dans ce travail un système capable de détecter et d’identifier l’utilisateur à travers ses expressions faciales afin de reconnaître son état émotionnel. Le système utilise un classifieur d’expressions faciales basé sur l’apprentissage profond (Deep learning) et qui applique un algorithme de réseaux de neurones convolutifs (Xception).Les expériences ont été menées afin de vérifier la faisabilité du système proposé. Son objectif est la validation de la détection des visages et la reconnaissance de l’utilisateur et de ses émotions à travers ses expressions faciales avec la base de données fer2013.Les résultats expérimentaux montrent la fiabilité du CNN Xception avec sa spécificité conventionnelle qui inclut des couches de convolution séparable. La précision augmente même lorsque le modèle ne traite pas la totalité de paramètres, ce qui génère des résultats remarquables sur la base de données FER-2013. |
Sommaire : |
Introduction 1
1 Les expressions faciales 11 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3 Expression faciale et émotion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.1 Définition des émotions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.2 Les expressions faciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.4 Un système d’analyse des expressions faciales . . . . . . . . . . . . . . . . . . . . . 21 1.4.1 Détection du visage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.4.2 Extraction des caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . 24 1.4.3 Classification des expressions . . . . . . . . . . . . . . . . . . . . . . . . . 25 1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2 Deep Learning 31 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2 L’Apprentissage En Profondeur (Le Deep Learning) . . . . . . . . . . . . . . . . 32 2.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.2.2 Histoire Du Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.2.3 Pour quoi le choix Deep Learning . . . . . . . . . . . . . . . . . . . . . . . 34 2.3 Réseaux De Neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.3.2 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.3.3 Topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.3.4 Les différentes Architectures du Deep Learning . . . . . . . . . . . . . . . 36 2.3.5 Exemples d’Application de Deep Learning . . . . . . . . . . . . . . . . . . 38 2.4 Réseaux de Neurones Convolutifs CNN . . . . . . . . . . . . . . . . . . . . . . . . 38 2.4.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.4.2 Architecture de Réseaux de Neurone Convolutifs . . . . . . . . . . . . . . . 39 2.4.3 Les Différentes Couches de CNN . . . . . . . . . . . . . . . . . . . . . . . 40 2.4.4 Les Fonctions d’Activation . . . . . . . . . . . . . . . . . . . . . . . . . . 44 2.5 Optimisation pour l’Apprentissage en Deep Learning . . . . . . . . . . . . . . . . 44 2.6 Quelques Réseaux Convolutifs Célèbres . . . . . . . . . . . . . . . . . . . . . . . . 45 2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3 Conception 47 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.2 Présentation du système REFCNN . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.3 Architecture globale du système REFCNN . . . . . . . . . . . . . . . . . . . . . . 48 3.4 Conception détaillé de système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.4.1 Détection du visage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.4.2 Extraction de caractéristiques faciales. . . . . . . . . . . . . . . . . . . . . 50 3.4.3 Présentation l’architecture Xception . . . . . . . . . . . . . . . . . . . . . 51 3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 4 Implémentation et résultats 54 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.2 Environnement de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.2.1 Environnement matériel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.2.2 Environnement de développement . . . . . . . . . . . . . . . . . . . . . . . 55 4.3 La Base De Données BDD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.4 Implémentation et Réalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 4.4.1 Module de reconnaissance . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.4.2 Présentation de l’application . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.4.3 Évaluation de notre classificateur d’images . . . . . . . . . . . . . . . . . . 68 4.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 |
Type de document : | Mémoire master |
Disponibilité (1)
Cote | Support | Localisation | Statut |
---|---|---|---|
MINF/594 | Mémoire master | bibliothèque sciences exactes | Consultable |