Établissement
INP - ENSEEIHT
Description
Ce cours dresse un bref état de l’art des méthodes d’optimisation pour la résolution de problèmes non-linéaires et continus. Les différents points abordés dans les différents chapitres concernent :
- La formulation d’un problème d’optimisation monobjectif (sans contraintes), les conditions d’optimalité, la classification des différentes méthodes permettant de traiter un problème ;
- Les méthodes d’optimisation monodimensionnelles : subdivisions d’intervalles, interpolation quadratique, passage par zéro de la dérivée de la fonction objectif ;
- Les méthodes d’optimisation à base de gradient : plus grande pente, gradient accéléré ou conjugué, techniques de Gauss-Newton ou Quasi-Newton ;
- Les méthodes d’optimisation géométriques : à directions fixées ou adaptées au cours de la recherche (Gauss-Seidel, Powell, Hooke & Jeeves), Simplex de Nelder & Mead ;
- Les méthodes d’optimisation stochastiques : recuit simulé, algorithmes évolutionnaires et méthodes de nichage, essaims particulaires ;
- La formulation d’un problème d’optimisation sous contraintes d’inégalités : notion de Lagrangien, conditions d’optimalité de KKT, méthodes de pénalisation ;
- La formulation d’un problème multiobjectif : optimalité au sens de Pareto, décision a priori sur les objectifs (objectifs pondérés, méthodes de la contrainte epsilon, méthode du critère global), décision a posteriori sur les objectifs (par utilisation d’algorithmes à base de population), techniques progressives ou séquentielles (méthode lexicographique).

