Cerfacs Entrez dans le monde de la haute performance...

Du 23 mai 2016 au 25 mai 2016

Méthodes numériques pour les problèmes d’optimisation

nasri |  

FORMATION PROGRAMMEE
Limite d’inscription : 15 jours avant le début de la formation
Durée : 3 jours / (21 heures)

S’inscrire à cette formation

 

Descriptif

Au cours de cette formation, quelques méthodes modernes pour la résolution de problèmes d’optimisation sont détaillées. Les méthodes de Newton ou Quasi-Newton pour la résolution de problèmes de minimisation sans contrainte sont revues en premier lieu. Les techniques de globalisation de convergence telles les méthodes de région de confiance ou la régularisation cubique adaptative sont ensuite évoquées. Des méthodes sans dérivée pour résoudre des problèmes avec ou sans contraintes sont également détaillées. Enfin, la résolution de problèmes de moindres carrés non-linéaires issus de problèmes inverses de grande taille avec des applications en géosciences est évoquée.

 

Public cible

Ce cours s’adresse aux ingénieurs, physiciens, informaticiens et numériciens désirant acquérir les bases de méthodes de résolution de problèmes d’optimisation.

 

Pré-requis

Connaissances en algèbre linéaire et en analyse numérique ainsi qu’’en géométrie

Responsable scientifique : Serge GRATTON

Tarifs

  • Stagiaires/PhDs/PostDocs : 150 €
  • Associés CERFACS/CNRS/INRIA : 450 €
  • Public : 900 €

Programme

(Tous les jours de 9h00 à 17h30)

Jour 1

  1. Présentation d’exemples d’optimisation en design industriel
  2. Précautions à prendre pour la modélisation d’un problème d’optimisation : Caractère borné de la fonction et des contraintes,importance de la convexité, de la mise à l’échelle de variables, fléau de la dimension pour l’optimisation globale
  3. Condition d’optimalité sans contrainte et mise en oeuvre de méthodes d’optimisation sans contraintes en Matlab
  4. Amphi inversé 1 : les participants présentent leurs problèmes et l’équipe de formateurs proposent des voies de résolution

Jour 2

  1. Théorie des multiplicateurs de Lagrange l’optimisation sous contrainte
  2. Principaux algorithmes d’optimisation par pénalité intérieure, extérieure, Méthode de projection dans le cas de contraintes convexes
  3. Mise en oeuvre de la méthode du Lagrangien augmenté
  4. Amphi inversé 2 (suite du 1)

Jour 3

  1. Optimisation sans dérivées en 1D
  2. Généralisation et présentation des méthodes basées sur des méta modèles ou sur de la recherche directe
  3. Mise en oeuvre d’une méthode stochastique en Matlab