Titre : | Vehicle Registration Plate Recognition |
Auteurs : | Mohamed Salah Ganibardi, Auteur ; Bilal Mokhtari, Directeur de thèse |
Type de document : | Monographie imprimée |
Editeur : | Biskra [Algérie] : Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie, Université Mohamed Khider, 2019 |
Format : | 1 vol. (42 p.) / ill. / 29 cm |
Langues: | Anglais |
Mots-clés: | object recognition,optical character recognition,real-time. |
Résumé : |
Objects recognition and reading characters are a natural and easy process for humans which can tell easily if an object is a home or a car, if a letter is a ‘C’ not a ‘G’ or is a ‘O’ not a ‘Q’, also can distinguish between a letter and a number like the letter ‘O’ and the number ‘0’, or the letter ‘I’ and the number ‘1’, what makes this process so easy is the ability of human to learn. Is this process easy for a computer? Learning is part of human nature, and the hippocampus of brain is where this happens as one keep assimilating new information on any subject, the other is trying to skill itself in. For a computer is a difference story, how we can make a computer learn? |
Sommaire : |
1 Background 2 1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2 Optical Character Recognition . . . . . . . . . . . . . . . . . . . . . . . 2 1.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 1.2.2 Optical Character Recognition use cases . . . . . . . . . . . . . . 2 1.2.3 OCR processing steps . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.3.1 Preprocessing . . . . . . . . . . . . . . . . . . . . . . 3 1.2.3.2 Shape matching and pattern recognition . . . . . . . . 3 1.2.3.2.1 Feature extraction . . . . . . . . . . . . . . . 3 1.2.3.2.2 Shape matching . . . . . . . . . . . . . . . . 3 1.3 Machine learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.4.2 Segmentation approaches . . . . . . . . . . . . . . . . . . . . . . 5 1.4.2.1 Discontinuity detection . . . . . . . . . . . . . . . . . 5 1.4.2.2 Similarity detection . . . . . . . . . . . . . . . . . . . 6 1.4.3 Segmentation for OCR . . . . . . . . . . . . . . . . . . . . . . . 6 1.4.3.1 Line segmentation . . . . . . . . . . . . . . . . . . . . 7 1.4.3.2 Segmenting words and characters . . . . . . . . . . . . 7 1.5 Vehicle Plate Recognition . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.5.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2 Neural Network 9 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.2 Artificial Neural Network . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2.2.1 Biological neural network . . . . . . . . . . . . . . . . . . . . . 9 2.2.1.1 Neural networks components . . . . . . . . . . . . . . 9 2.2.2 The perceptron . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . 10 2.2.2.2 The perceptron learning algorithm . . . . . . . . . . . 11 2.2.2.3 Limitations of the perceptron . . . . . . . . . . . . . . 11 2.2.3 Multilayers neural network . . . . . . . . . . . . . . . . . . . . 11 2.2.3.1 Artificial neuron input . . . . . . . . . . . . . . . . . . 11 2.2.3.2 Weights . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.4 Biases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2.4.1 Activation function . . . . . . . . . . . . . . . . . . . 12 2.2.4.2 Multilayer neural network architecture . . . . . . . . . 12 2.2.4.3 Input layer . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.4.4 Hidden layer . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.4.5 Output layer . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.4.6 Connections . . . . . . . . . . . . . . . . . . . . . . . 13 2.3 Deep Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.4 History of deep learning application . . . . . . . . . . . . . . . . . . . . 13 2.5 Deep learning applications . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.6 Deep learning architecture . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.6.1 Activation functions . . . . . . . . . . . . . . . . . . . . . . . . 14 2.6.2 Hidden layers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.6.3 Output layer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.6.4 Parameters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.6.5 Loss functions . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.6.6 Optimization methods . . . . . . . . . . . . . . . . . . . . . . . 15 2.6.7 Hyperparameters . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 3 Faster Region-based Convolutional Neural Network 17 3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2 Convolution Neural network . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.1 Feature extraction . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.2 Pooling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.2.3 Fully connected layers . . . . . . . . . . . . . . . . . . . . . . . 20 3.3 Faster Region-based Convolutional Neural Network . . . . . . . . . . . . 20 3.3.1 Faster R-CNN architecture . . . . . . . . . . . . . . . . . . . . . 21 3.3.2 Base network . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3.3.3 Region Proposal Network . . . . . . . . . . . . . . . . . . . . . 23 3.3.3.1 Anchors . . . . . . . . . . . . . . . . . . . . . . . . . 24 3.3.3.2 Training, target and loss functions . . . . . . . . . . . . 25 3.3.3.3 Post processing . . . . . . . . . . . . . . . . . . . . . 25 3.3.4 Region of Interest Pooling . . . . . . . . . . . . . . . . . . . . . 26 3.3.5 Region-based Convolutional Neural Network . . . . . . . . . . . 26 3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 4 Implementations 28 4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 4.2 Project description and objectives . . . . . . . . . . . . . . . . . . . . . 28 4.3 Concept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 4.3.1 Licence plate detection . . . . . . . . . . . . . . . . . . . . . . . 30 4.3.1.1 Pre-process image . . . . . . . . . . . . . . . . . . . . 31 4.3.1.1.1 Binarization . . . . . . . . . . . . . . . . . . 31 4.3.1.1.2 Re-size . . . . . . . . . . . . . . . . . . . . . 32 4.3.1.2 Optical character recognition . . . . . . . . . . . . . . 34 4.3.1.2.1 Layout analysis . . . . . . . . . . . . . . . . 34 4.3.1.2.2 Baseline and text detection . . . . . . . . . . 35 4.3.1.2.3 Classification . . . . . . . . . . . . . . . . . 36 4.3.1.2.4 Training . . . . . . . . . . . . . . . . . . . . 36 4.4 The graphical user interface . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.4.1 Used Softwares and Materials . . . . . . . . . . . . . . . . . . . 39 4.4.1.1 Materials . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.4.1.2 Softwares . . . . . . . . . . . . . . . . . . . . . . . . 39 4.5 Limitations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 References 41 |
Type de document : | Mémoire master |
Disponibilité (1)
Cote | Support | Localisation | Statut |
---|---|---|---|
MINF/497 | Mémoire master | bibliothèque sciences exactes | Consultable |