Résumé :
|
Dans ce travail, nous nous sommes intéressés aux problèmes de contrôle optimal stochastique où le système est gouverné par une équation différentielle stochastique du type Ito. Plus précisémment, notre intérêt s'est porté sur les conditions nécessaires d'optimalité ainsi que sur le principe de la programmation dynamique. Le premier chapitre est une introduction à la théorie des processus stochastiques, on rappelle les principaux outils qui seront utilisés par la suite. Au second chapitre, on dé.nit le problème de contrôle et on étudie en détails l.équation de la programmation dynamique, appelée aussi équation de Hamilton Bellmann Jacobi. Le troisième chapitre est une étude du principe du maximum stochastique. On traite l.approche de Haussmann utilisant la transformation de Girsanov, ainsi que celle de Peng pour les systèmes où le coe¢ cient de di¤usion dépend explicitement du contrôle. Au dernier chapitre nous étudions le lien qui existe entre le principe du maximum et le principe de la programmation dynamique. On montre en particulier que le processus adjoint est la dérivée spatiale de la fonction de valeur
|