| Titre : | Digital pathology image analysis with deep learning |
| Auteurs : | HATHEM KHELIL, Auteur ; Abdelmoumen Zerari, Directeur de thèse |
| Type de document : | Monographie imprimée |
| Editeur : | Biskra [Algérie] : Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie, Université Mohamed Khider, 2020 |
| Format : | 1 vol. (101 p.) / ill. / 29 cm |
| Langues: | Anglais |
| Mots-clés: | Digital pathology,Deep learning,Convolutional Neural Networks,Non-Hodgkin Lymphomas,Multi-classi?cation |
| Résumé : |
The advent of whole-slide imaging in digital pathology (DP) has helped the advancement of computer-aided diagnostics of tissue, via digital image analysis.In our master's project, we have explored the potential of deep learning (DL)for DP digital pathology image analysis.We have investigated the concepts of DL with a Convolutional Neural Network (CNN) algorithm to build a Non-Hodgkin Lymphomas (NHL) multi-classi?cation model that can accurately classify subtypes of NHL concerning chronic lymphocytic leukemia (CLL), follicular lymphoma (FL) and mantle cell lymphoma (MCL), on whole slide images.
The proposed deep learning CNN for classifying the Non-Hodgkin Lymphomas subtypes (NHL-CNN) model excels by learning relevant features directly from image patches of NIA curated dataset images.After successfully training the model, the testing accuracy is computed according to two methods: patch-based and entire image based method. In the ?rst method, we have achieved 98.2 % testing accuracy. However, the total accuracy (100%) is achieved in entire image based method. The experimental results clearly demonstrate the robustness and e?ciency of our proposed NHL-CNN as compared to existing DL approaches for NHL classi?cation in literature. |
| Sommaire : |
Introduction 1
1 WHOLE SLIDE IMAGING IN DIGITAL PATHOLOGY 4 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Digital pathology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3 The roots of digital pathology . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.4 Whole-slide imaging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4.1 Routine Histopathology . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.2 Telepathology and Data Transmission . . . . . . . . . . . . . . . . 8 1.4.3 Education . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4.4 Pathology Archiving . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.5 Histopathology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.6 Histopathological image analysis . . . . . . . . . . . . . . . . . . . . . . . 11 1.6.1 Segmentation and Detection Tasks . . . . . . . . . . . . . . . . . . 12 1.6.1.1 Nuclei segmentation . . . . . . . . . . . . . . . . . . . . . 12 1.6.1.2 Epithelium Segmentation . . . . . . . . . . . . . . . . . . 12 1.6.1.3 Tubule segmentation . . . . . . . . . . . . . . . . . . . . 13 1.6.1.4 Lymphocyte detection . . . . . . . . . . . . . . . . . . . . 13 1.6.1.5 Mitosis detection . . . . . . . . . . . . . . . . . . . . . . . 13 1.6.1.6 Invasive ductal carcinoma detection . . . . . . . . . . . . 13 1.6.2 Tissue-Based Classi?cation Task . . . . . . . . . . . . . . . . . . . 14 1.7 Problems speci?c to histopathological image analysis . . . . . . . . . . . . 14 1.7.1 Enormous density of data . . . . . . . . . . . . . . . . . . . . . . . 15 1.7.2 Di?erent levels of information . . . . . . . . . . . . . . . . . . . . . 15 1.7.3 WSI as orderless texture-like image . . . . . . . . . . . . . . . . . . 16 1.7.4 Color variation and artifacts . . . . . . . . . . . . . . . . . . . . . 16 1.8 Requirement of design Computer-aided diagnosis systems for histopathology 18 1.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2 MACHINE LEARNING 20 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.2 Machine learning concept . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.3 Types of machine learning algorithms . . . . . . . . . . . . . . . . . . . . 22 2.3.1 Supervised learning . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.3.2 Unsupervised learning . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3.3 Reinforcement learning . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3.4 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.4 Arti?cial neural networks . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.5 Convolutional Neural Networks . . . . . . . . . . . . . . . . . . . . . . . . 26 2.5.1 Convolutional layer . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.5.2 Pooling layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.5.3 Fully-connected layers . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.6 Network parameters and required memory for CNN . . . . . . . . . . . . 31 2.7 Training a network . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.7.1 Loss function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.7.2 Gradient descent . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.8 Advanced Training Techniques . . . . . . . . . . . . . . . . . . . . . . . . 34 2.8.1 Regularization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.8.2 Batch Normalization . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.9 Popular CNN Architectures . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.9.1 LeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.9.2 AlexNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.9.3 VGGNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.9.4 GoogLeNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.9.5 Residual Network (ResNet) . . . . . . . . . . . . . . . . . . . . . . 39 2.9.6 Densely Connected Network (DenseNet) . . . . . . . . . . . . . . . 39 2.9.7 FractalNet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.10 Deep learning for digital pathology image analysis . . . . . . . . . . . . . 40 2.11 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3 DEEP NEURAL NETWORK FOR NON-HODGKIN LYMPHOMAS CLASSIFICATION 44 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.2 Motivation and problem statement . . . . . . . . . . . . . . . . . . . . . . 45 3.3 Lymphoma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.3.1 Chronic Lymphocytic Leukemia . . . . . . . . . . . . . . . . . . . 49 3.3.2 Follicular Lymphoma . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.3.3 Mantle Cell Lymphoma . . . . . . . . . . . . . . . . . . . . . . . . 49 3.4 Construction of a DL architecture . . . . . . . . . . . . . . . . . . . . . . 50 3.4.1 Casting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.4.2 Patch generation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.4.3 Training model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.4.4 Testing model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.5 System design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.5.1 Data Preparation . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.5.1.1 Collect data . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.5.1.2 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . 52 3.5.1.3 Splitting Dataset . . . . . . . . . . . . . . . . . . . . . . . 55 3.5.2 Training . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.5.3 Testing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4 DETAIL DESIGN AND DEVELOPMENT OF NHL CLASSIFICA- TION MODEL 60 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.2 Environments and developing tools . . . . . . . . . . . . . . . . . . . . . . 60 4.3 Developing the back-end . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.3.1 Data Preparation . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 4.3.2 Building NHL-CNN . . . . . . . . . . . . . . . . . . . . . . . . . . 65 4.3.2.1 Import libraries and modules . . . . . . . . . . . . . . . . 65 4.3.2.2 NHL-CNN parameter initialization . . . . . . . . . . . . 66 4.3.2.3 Loading the datasets . . . . . . . . . . . . . . . . . . . . 67 4.3.2.4 Creating the model . . . . . . . . . . . . . . . . . . . . . 68 4.3.2.5 Compiling the model . . . . . . . . . . . . . . . . . . . . 70 4.3.2.6 Training the model . . . . . . . . . . . . . . . . . . . . . 71 4.3.2.7 Visualizing loss and accuracy during training . . . . . . 72 4.3.2.8 Predictions on the trained model . . . . . . . . . . . . . . 73 4.4 Developing the front-end . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 4.5 Empirical evaluation and results . . . . . . . . . . . . . . . . . . . . . . . 77 4.5.1 NHL-CNN architecture . . . . . . . . . . . . . . . . . . . . . . . . 77 4.5.1.1 Tuning the batch size . . . . . . . . . . . . . . . . . . . . 78 4.5.2 Visualize the performance of NHL-CNN . . . . . . . . . . . . . . . 81 4.5.3 Evaluate model on test data . . . . . . . . . . . . . . . . . . . . . . 84 4.5.3.1 Class prediction of an entire image . . . . . . . . . . . . . 85 4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Conclusion 89 |
| Type de document : | Mémoire master |
Disponibilité (1)
| Cote | Support | Localisation | Statut |
|---|---|---|---|
| MINF/511 | Mémoire master | bibliothèque sciences exactes | Consultable |



