* Ces horaires sont donnés à titre indicatif.
Introduction à l'optimisation, existence des optimiseurs (avec exemples de semi-continuité).
Conditions d'optimalité, multiplicateurs de Lagrange.
Algorithme de Newton (pour satisfaire les conditions d'optimalité) et rappels sur le théorème des contractions de Picard.
Rôle de la convexité en minimisation, algorithme de gradient à pas fixe et pas optimal.
Algorithme du gradient conjugué pour le cas quadratique et comparaison avec les autres algorithmes.
Optimisation convexe sous contraintes : conditions d'optimalité, projection sur un convexe fermé, algorithme du gradient projeté, méthode de pénalisation.
Davantage sur les fonctions convexes : différentiabilité, sous-différentiel, algorithme de sous-gradient, problèmes de minimum avec un paramètre, dualité, transformé de Legendre, algorithme d'Uzawa et du lagrangien augmenté.
Programmation linéaire, algorithme du simplexe et variantes.