Optimisation continue

  • Établissement

    INP - ENSEEIHT

Description

Ce cours dresse un bref état de l’art des méthodes d’optimisation pour la résolution de problèmes non-linéaires et continus. Les différents points abordés dans les différents chapitres concernent : 

-          La formulation d’un problème d’optimisation monobjectif (sans contraintes), les conditions d’optimalité, la classification des différentes méthodes permettant de traiter un problème ;

-          Les méthodes d’optimisation monodimensionnelles : subdivisions d’intervalles, interpolation quadratique, passage par zéro de la dérivée de la fonction objectif ;

-          Les méthodes d’optimisation à base de gradient : plus grande pente, gradient accéléré ou conjugué, techniques de Gauss-Newton ou Quasi-Newton ;

-          Les méthodes d’optimisation géométriques : à directions fixées ou adaptées au cours de la recherche (Gauss-Seidel, Powell, Hooke & Jeeves), Simplex de Nelder & Mead ;

-          Les méthodes d’optimisation stochastiques : recuit simulé, algorithmes évolutionnaires et méthodes de nichage, essaims particulaires ;

-          La formulation d’un problème d’optimisation sous contraintes d’inégalités : notion de Lagrangien, conditions d’optimalité de KKT, méthodes de pénalisation ;

-          La formulation d’un problème multiobjectif : optimalité au sens de Pareto, décision a priori sur les objectifs (objectifs pondérés, méthodes de la contrainte epsilon, méthode du critère global), décision a posteriori sur les objectifs (par utilisation d’algorithmes à base de population), techniques progressives ou séquentielles (méthode lexicographique).

Lire plus