ECTS
6 crédits
Composante
UFR Mathématiques
Période de l'année
Semestre 6
Description
- Cas sans contrainte : Existence, convexité (stricte, forte), coercivité, conditions d'optimalité.
- Cas sans contrainte 1D : méthode de recherche linéaire (Armijo, Wolfe, Goldstein), Newton.
- Cas sans contrainte ND : algorithme de gradient à pas fixe, à pas optimal, Newton.
- Cas avec contraintes : Lagrangien, conditions d'optimalité (Kuhn-Tucker).
- Cas avec contraintes : algorithme de gradient projeté, d'Uzawa, méthode de pénalisation.
- Cas linéaire avec contraintes : algorithme du simplexe.
Objectifs
Les objectifs du cours sont :
- de savoir formuler un problème d'optimisation dans RnRn, avec ou sans contraintes;
- de savoir écrire les conditions d'optimalité ;
- de connaître et maîtriser les algorithmes de base (simplexe, gradient, gradient conjugué, Newton)
Syllabus
- Michel Bierlaire. Introduction à l'optimisation différentiable. Presses polytechniques et universitaires romandes, 2013.
- J. Frédéric Bonnans, Jean Charles Gilbert, Claude Lemaréchal, and Claudia Sagastizábal. Optimisation numérique, volume 27 of Mathématiques & Applications (Berlin). Springer-Verlag, Berlin, 1997.
- Stephen Boyd and Lieven Vandenberghe. Convex Optimization Boyd and Vandenberghe. Cambridge Univerity Press, 2004.
- Philippe G. Ciarlet. Introduction à l'analyse numérique matricielle et à l'optimisation. Dunod, 2007.
- Jean-Baptiste Hiriart-Urruty. Optimisation et analyse convexe. EDP Sciences, 2009.
Dernière mise à jour le 17 octobre 2023