Titre : | L’apport de la perception/l’attention visuelle à l’amélioration de la fusion d’images multifocales |
Auteurs : | Sara Babahenini, Auteur |
Type de document : | Thése doctorat |
Format : | 1 vol. (97 p.) / couv. ill. en coul / 30 cm |
Langues: | Français |
Mots-clés: | système visuel humain, détection de la saillance visuelle, carte de saillance,fusion d’images multi-focales, cartes de poids, transformations en contourlet, matrice de décomposition |
Résumé : |
A ce jour, de nombreuses méthodes de fusion d’images multi-focales ont été développées. La méthode de fusion la plus simple consiste à faire la moyenne des images sources pixel par pixel mais cette méthode conduit généralement à des effets indésirables tels que la réduction du contraste de l’image fusionnée. Généralement, la méthode de fusion d’images multi-focales peut être classée en domaine spatial et domaine de transformation. La technique de fusion d’images multi focales qui donne une image fusionnée de haute précision est généralement compliquée et prend beaucoup de temps. Dans cette thèse, nous développons des techniques de fusion d’images multi-focales quisont peu coûteuses et ne prennent pas beaucoup de temps, mais il en résulte une image fusionnée de haute qualité. Pour cela nous utilisons des approches basées sur la perception visuelle, en calculant la saillance visuelle de plusieurs façons et en l’intégrant dans le calcul de fusion d’images. |
Sommaire : |
Table des matières Liste des figures v Liste des tableaux viii 1 Introduction 1 1.1 Contexte de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Enoncé du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.3 Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.4 Organisation de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 2 Perception visuelle 5 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2 Le système visuel humain . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.3 Processus attentionnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.3.1 Modèles neuronaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.3.2 Modèles à filtres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.3.2.1 Modèles Top-down . . . . . . . . . . . . . . . . . . . . . . . 12 2.3.2.2 Modèles de Buttom-up . . . . . . . . . . . . . . . . . . . . 15 2.4 Modèles d’attention . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.4.1 Modèles Cognitifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.4.2 Modèles Bayésiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.4.3 Modèles de la théorie de décision . . . . . . . . . . . . . . . . . . . . 23 2.4.4 Modèles se basant sur la théorie de l’information . . . . . . . . . . . 25 2.4.5 Modèles graphiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.4.6 Modèles d’analyse Spectrale . . . . . . . . . . . . . . . . . . . . . . . 28 2.4.7 Modèles de Classification . . . . . . . . . . . . . . . . . . . . . . . . 29 2.5 Modèles à base d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 iiTABLE DES MATIÈRES 3 Fusion d’images 33 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.2 Classification des méthodes de fusion d’images . . . . . . . . . . . . . . . . . 34 3.2.1 Domaine spatial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.2.2 Domaine de transformation . . . . . . . . . . . . . . . . . . . . . . . 36 3.2.3 A base de l’apprentissage profond . . . . . . . . . . . . . . . . . . . . 36 3.3 Description des méthodes de fusion d’images multi -focales . . . . . . . . . . 37 3.3.1 Méthodes du domaine spatial . . . . . . . . . . . . . . . . . . . . . . 37 3.3.1.1 Méthodes basées pixel . . . . . . . . . . . . . . . . . . . . . 37 3.3.1.2 Méthodes basées blocs . . . . . . . . . . . . . . . . . . . . . 39 3.3.2 Méthodes du domaine de transformation . . . . . . . . . . . . . . . . 43 3.3.2.1 Méthodes basées sur la décomposition multi-échelle . . . . 43 3.3.2.2 Méthodes basées sur le domaine du gradient . . . . . . . . 46 3.3.2.3 Méthodes basées sur la DCT (Discrete Cosine Transform) . 49 3.3.3 Méthodes basées sur l’apprentissage profond . . . . . . . . . . . . . . 49 3.3.3.1 Méthode supervisée basée sur l’apprentissage profond: Méthodes basées sur CNN . . . . . . . . . . . . . . . . . . . . . 50 3.3.3.2 Méthodes basées sur l’apprentissage profond non supervisé 51 3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4 Étude comparative de la robustesse au bruit dans les modèles d’attention visuelle 54 4.1 Introduction et motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4.2 Étude comparative de la robustesse au bruit dans les modèles d’attention visuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.2.1 Description des techniques de l’attention visuelle . . . . . . . . . . . 55 4.2.1.1 Détection de saillance à l’aide de suivi oculaire humain . . 55 4.2.1.2 Détection de la saillance en utilisant la transformée en contourlet (CT) . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.2.1.3 Détection de saillance à l’aide d’un modèle de décomposition matricielle creuse et structurée (LSMD) . . . . . . . . 56 4.2.2 Data sets utilisés et métriques d’évaluation . . . . . . . . . . . . . . 56 4.2.2.1 Data sets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.2.2.2 Métriques d’évaluation . . . . . . . . . . . . . . . . . . . . . 57 4.3 Expérimentation, évaluation et bilan . . . . . . . . . . . . . . . . . . . . . . 58 iiiTABLE DES MATIÈRES 4.3.1 Comparaison avec la vérité terrain . . . . . . . . . . . . . . . . . . . 58 4.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 5 Utilisation de la détection de saillance pour améliorer la fusion d’images multi-focales 64 5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 5.2 Description de la technique proposée . . . . . . . . . . . . . . . . . . . . . . 65 5.3 Résultats et discussions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.3.1 Evaluation des performances de la méthode proposée . . . . . . . . . 67 5.3.1.1 Métriques utilisées . . . . . . . . . . . . . . . . . . . . . . . 67 5.3.1.2 Datasets . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.3.2 Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 6 Algorithme de fusion d’images multi-focales basé sur un filtre d’image guidé rapide 78 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 6.2 Description de la technique proposée . . . . . . . . . . . . . . . . . . . . . . 78 6.2.1 Définition du filtre guidée et des travaux en relation . . . . . . . . . 78 6.2.2 Description de la méthode proposée . . . . . . . . . . . . . . . . . . 80 6.2.2.1 Définition du l’algorithme : Fast Guided Filter . . . . . . . 80 6.2.2.2 Algorithme de fusion d’images multi-focales basé sur un filtre d’image guidé rapide . . . . . . . . . . . . . . . . . . . 81 6.3 Résultats et bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 6.3.1 Métriques utilisées dans l’évaluation . . . . . . . . . . . . . . . . . . 83 6.3.2 Résultats et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . 83 6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 7 Conclusion générale 89 Références Bibliographiques 91 iv |
En ligne : | http://thesis.univ-biskra.dz/5551/1/Th%C3%A8se_Sara_Verion_finale_20_09_2021.pdf |
Disponibilité (1)
Cote | Support | Localisation | Statut |
---|---|---|---|
TINF/165 | Théses de doctorat | bibliothèque sciences exactes | Consultable |