Titre : | Orchestration de web sevices fiables |
Auteurs : | Okba Tibemacine, Auteur ; Foudil Cherif, Directeur de thèse |
Type de document : | Thése doctorat |
Editeur : | Biskra [Algérie] : Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie, Université Mohamed Khider, 2015 |
ISBN/ISSN/EAN : | TINF/78 |
Format : | 1 vol. (201 p.) / ill. / 29 cm |
Langues: | Anglais |
Résumé : |
L’Informatique Orienté Services représente un paradigme pour construire des applications distribuées sur Internet. L’Architecture Orientée Services(SOA) est un style architectural qui permet le développement de ces applications à base de services. Au cours de la dernière décennie, l’orchestration des services Web est devenue un domaine très actif dans la recherche scientifique et académique. Bien que de nombreux défis liés à l’orchestration aient été abordés,la fiabilité de l’orchestration et de sa vérification restent encore un sujet ouvert,prérequis et important de fait que ces orchestrations affectent aujourd’hui plusieurs activités quotidiennes.Cette thèse focalise sur le sujet d’orchestration des Services Web Fiables.En particulier, elle contribue avec un ensemble d’approches, de techniques et d’outils pour améliorer la sélection et l’orchestration des services web fiables. Premièrement, elle affine les phases du cycle de vie d’orchestration de services web afin d’assurer une vérification continuée de fiabilité lors des phases de conception et d’exécution. En outre, elle propose une architecture conceptuelle basée sur un registre de service amélioré, pour la mise en ÅSuvre d’orchestrations fiables. Deuxièmement, elle présente une approche de mesure de similarité entre les services web. L’approche repose sur la comparaison des interfaces WSDL de services. L’approche sert à identifié les relations de similarité, de substituabilité et de composabilité entre services. L’outil WSSIM a été développé pour mettre en oeuvre l’approche proposée. Pour validation,l’outil a été expérimenté avec un ensemble important de services web éels.Troisièmement, la thèse contribue avec une approche pour l’identification des substituts de services simples et complexes. L’approche utilise les techniques de mesure de similarité, la classification de service avec FCA et l’analyse de fiabilité pour identifier et sélectionner les meilleurs substitutes. Un ensemble d’algorithmes aient été proposés pour décrire le processus d’identification.Quatrièmement, pour examiner la réputation des services comme un autre critère de fiabilité, la thèse introduit un Framework et un modèle mathématique pour la gestion de réputation de service Web. |
Sommaire : |
1 Introduction 1 1.1 Context . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Problem Statement . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2.1 Reliable web service orchestration . . . . . . . . . . . . . . 4 1.2.2 Web service interface similarity measurement . . . . . . . . 5 1.2.3 Web service substitutes selection . . . . . . . . . . . . . . 5 1.2.4 Web service reputation management . . . . . . . . . . . . 5 1.3 Contributions and main results . . . . . . . . . . . . . . . . . . . 6 1.4 Thesis outline . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 I State of the Art 11 2 Background 12 2.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2 Web service fundamentals . . . . . . . . . . . . . . . . . . . . . . 13 2.2.1 Web Services . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2.2 Web service model and its underlying technologies . . . . . 14 2.2.3 Quality of Service . . . . . . . . . . . . . . . . . . . . . . . 18 2.2.4 Web services composition . . . . . . . . . . . . . . . . . . 20 2.2.5 Web services composition life cycle . . . . . . . . . . . . . 22 2.2.6 Web service composition languages . . . . . . . . . . . . . 23 2.3 Similarity measurement schemes . . . . . . . . . . . . . . . . . . . 26 2.3.1 Vector space model . . . . . . . . . . . . . . . . . . . . . . 27 2.3.2 Term Frequency - Inverse Document Frequency . . . . . . 27 2.3.3 Latent Semantic Indexing . . . . . . . . . . . . . . . . . . 29 2.3.4 Similarity and Distance Measures . . . . . . . . . . . . . . 30 2.4 Formal Concept Analysis . . . . . . . . . . . . . . . . . . . . . . . 33 2.4.1 Case study . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.4.2 Formal Context . . . . . . . . . . . . . . . . . . . . . . . . 34 2.4.3 Formal Concept . . . . . . . . . . . . . . . . . . . . . . . . 36 2.4.4 Object and attributes concepts . . . . . . . . . . . . . . . 36 2.4.5 Subconcept and superconcept . . . . . . . . . . . . . . . . 36 2.4.6 Concept lattice . . . . . . . . . . . . . . . . . . . . . . . . 36 2.4.7 FCA for web Services . . . . . . . . . . . . . . . . . . . . . 38 2.5 Trust and Reputation . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.5.1 Trust . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.5.2 Reputation . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.5.3 Trust management systems . . . . . . . . . . . . . . . . . 40 2.5.4 Reputation computation methods . . . . . . . . . . . . . . 40 2.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3 Literature Review 43 3.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 3.2 Web service composition methods . . . . . . . . . . . . . . . . . . 44 3.2.1 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.2.2 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.3 Reliable web service compositions methods . . . . . . . . . . . . . 50 3.3.1 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.3.2 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3.4 Fault recovery in web service composition . . . . . . . . . . . . . . 55 3.4.1 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.4.2 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.5 Similarity measurement for service discovery and selection . . . . 56 3.5.1 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 3.5.2 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 3.6 Lattice-based web service classification . . . . . . . . . . . . . . . 59 3.6.1 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.6.2 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.7 Reputation management models . . . . . . . . . . . . . . . . . . . 63 3.7.1 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.7.2 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 3.8 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 II Contributions 70 4 Framework for Reliable Web Services Orchestration 71 4.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2 Reliable WS orchestrations life-cycle . . . . . . . . . . . . . . . . 72 4.2.1 Phase 1: Requirement specification . . . . . . . . . . . . . 73 4.2.2 Phase 2: Abstract process modeling . . . . . . . . . . . . . 73 4.2.3 Phase 3: Service search, selection and contracting . . . . . 73 4.2.4 Phase 4: Binding and business process execution . . . . . . 74 4.2.5 Run-time monitoring . . . . . . . . . . . . . . . . . . . . . 74 4.2.6 Reliability analysis . . . . . . . . . . . . . . . . . . . . . . 75 4.2.7 Repair and reconfiguration . . . . . . . . . . . . . . . . . . 75 4.2.8 Web service recommendation . . . . . . . . . . . . . . . . 75 4.3 Architecture for reliable WS orchestrations . . . . . . . . . . . . . 75 4.3.1 Service provider . . . . . . . . . . . . . . . . . . . . . . . . 78 4.3.2 Designer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4.3.3 Web Service Recommendation System . . . . . . . . . . . 80 4.4 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 5 An approach for web service similarity assessment 84 5.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.2 Similarity assessment approach . . . . . . . . . . . . . . . . . . . 85 5.2.1 Identifiers similarity . . . . . . . . . . . . . . . . . . . . . 88 5.2.2 Documentation similarity . . . . . . . . . . . . . . . . . . 89 5.2.3 Grammatical tags for enhancing identifier similarity . . . . 90 5.2.4 Operations similarity . . . . . . . . . . . . . . . . . . . . . 91 5.2.5 Messages similarity . . . . . . . . . . . . . . . . . . . . . . 92 5.2.6 Complex-type parameters similarity . . . . . . . . . . . . . 93 5.2.7 Simple-type parameter similarity . . . . . . . . . . . . . . 94 5.2.8 Maximal score computation from the similarity matrix . . 95 5.3 WSSim: a tool for measuring web service similarity . . . . . . . . 96 5.3.1 Overview of WSSim Functionalities . . . . . . . . . . . . . 96 5.3.2 Underlying Technologies . . . . . . . . . . . . . . . . . . . 97 5.3.3 WSSim as a Web Service . . . . . . . . . . . . . . . . . . . 98 5.4 Experiments and validation . . . . . . . . . . . . . . . . . . . . . 100 5.4.1 Tuning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.4.2 Case Study . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.5 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 6 Web Service Substitutes Identification Approach 105 6.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.2 Case study . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.3 Architecture’s overview . . . . . . . . . . . . . . . . . . . . . . . . 106 6.4 Components description . . . . . . . . . . . . . . . . . . . . . . . 109 6.4.1 Keyword and Signature extractor . . . . . . . . . . . . . . 109 6.4.2 Service retriever . . . . . . . . . . . . . . . . . . . . . . . . 110 6.4.3 Service filterer . . . . . . . . . . . . . . . . . . . . . . . . . 113 6.4.4 Similarity assessor . . . . . . . . . . . . . . . . . . . . . . 114 6.4.5 Context builder and FCA classifier . . . . . . . . . . . . . 116 6.4.6 Lattice interpreter . . . . . . . . . . . . . . . . . . . . . . 123 6.4.7 Reliability Analyzer . . . . . . . . . . . . . . . . . . . . . . 125 6.5 Experiment and validation . . . . . . . . . . . . . . . . . . . . . 126 6.5.1 Methodology . . . . . . . . . . . . . . . . . . . . . . . . . 127 6.5.2 Data selection . . . . . . . . . . . . . . . . . . . . . . . . . 127 6.5.3 Orchestration extraction . . . . . . . . . . . . . . . . . . . 127 6.5.4 Substitute extraction . . . . . . . . . . . . . . . . . . . . . 128 6.5.5 System performances . . . . . . . . . . . . . . . . . . . . . 129 6.5.6 Result measurement . . . . . . . . . . . . . . . . . . . . . 130 6.5.7 Threats to validity . . . . . . . . . . . . . . . . . . . . . . 132 6.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 7 Web Service Reputation Management Framework 134 7.1 Overview . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 7.2 Reputation management framework . . . . . . . . . . . . . . . . . 135 7.2.1 Framework architecture . . . . . . . . . . . . . . . . . . . 135 7.2.2 Feedback collector . . . . . . . . . . . . . . . . . . . . . . 136 7.2.3 Reputation manager . . . . . . . . . . . . . . . . . . . . . 137 7.2.4 Search and selection interface . . . . . . . . . . . . . . . . 138 7.2.5 Service recommender . . . . . . . . . . . . . . . . . . . . . 138 7.3 Reputation assessment model . . . . . . . . . . . . . . . . . . . . 139 7.3.1 Evaluation metrics . . . . . . . . . . . . . . . . . . . . . . 139 7.3.2 Assessment formula . . . . . . . . . . . . . . . . . . . . . . 140 7.3.3 Reputation . . . . . . . . . . . . . . . . . . . . . . . . . . 141 7.3.4 Honesty factor . . . . . . . . . . . . . . . . . . . . . . . . . 141 7.3.5 Suspicious user penalization . . . . . . . . . . . . . . . . . 143 7.3.6 Provider reputation . . . . . . . . . . . . . . . . . . . . . . 143 7.3.7 WS Orchestration reputation assessment . . . . . . . . . . 143 7.4 Reputation bootstrapping Model . . . . . . . . . . . . . . . . . . 145 7.4.1 Provider reputation-based estimation . . . . . . . . . . . . 148 7.4.2 Reputation estimation from similar services . . . . . . . . 148 7.4.3 Regression-based Reputation estimation . . . . . . . . . . 151 7.4.4 Evaluation of the bootstrapping Model . . . . . . . . . . . 152 7.5 Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 7.5.1 Description . . . . . . . . . . . . . . . . . . . . . . . . . . 157 7.5.2 Reputation with varying maliciousness density . . . . . . . 164 7.5.3 Impact of time sensitivity factor . . . . . . . . . . . . . . . 166 7.5.4 Effect of the penalization mechanism . . . . . . . . . . . . 167 7.5.5 Execution time performance . . . . . . . . . . . . . . . . . 168 7.5.6 Performance comparison . . . . . . . . . . . . . . . . . . . 169 7.5.7 Limitations . . . . . . . . . . . . . . . . . . . . . . . . . . 175 7.6 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 8 Conclusion and Future Work 177 8.1 Summary . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 8.2 Future Work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 8.2.1 Improvement on the proposed approaches . . . . . . . . . 180 8.2.2 Formal Requirement Engineering Method . . . . . . . . . . 180 8.2.3 Web services monitoring approach . . . . . . . . . . . . . . 181 Bibliography 182 |
En ligne : | http://thesis.univ-biskra.dz/id/eprint/1418 |
Disponibilité (1)
Cote | Support | Localisation | Statut |
---|---|---|---|
TINF/78 | Théses de doctorat | bibliothèque sciences exactes | Consultable |