Modèles de programmation parallèle MPI, OpenMP
Du jeudi 15 novembre 2018 au vendredi 16 novembre 2018
Formation
FORMATION PROGRAMMEE
Limite d’inscription : 15 jours avant le début de chaque formation
Durée : 2 jours / (14 heures)
Descriptif
Au cours de cette formation, le standard Message Passing Interface (MPI) est détaillé afin de programmer sur des machines à mémoire distribuée. Les fonctionnalités principales de MPI1 sont décrites (variables d’environnement, communications point à point, communications collectives, types de données dérivés et topologie de processus). Une introduction à Open-MP pour la programmation sur machine à mémoire partagée est également proposée. Une session d’exercices est prévue pour illustrer les principaux concepts.
Public cible
Ce cours s'adresse aux ingénieurs, physiciens, informaticiens et numériciens désirant acquérir les bases de la programmation parallèle MPI, OpenMP.
Pré-requis
Afin de pouvoir suivre cette formation vous devez:
- connaitre l’usage des commandes Linux basiques,
- maitriser l’un des deux langages de programmation suivants : Fortran ou C.
Responsable scientifique : Isabelle d’Ast
Objectifs pédagogiques
Apprendre a paralléliser ses applications pour réduire le temps de calcul ou effectuer de plus gros calculs en utilisant MPI et OpenMP.
À l'issue de la formation, les participants sont capables de :
- paralléliser un programme C/FORTRAN simple (50 lignes) avec la librairie MPI et/ou des directives OpenMP
- rechercher et utiliser les directives OpenMP dans la catégorie adaptée ( partage de travail, synchronisation) en fonction du problème a résoudre,
- rechercher et utiliser les fonctions MPI dans la catégorie adaptée (communications point à point, collectives, communicateurs, topologies) en fonction du problème à résoudre,
- résoudre les principales difficultés de programmation parallèle (passage du modèle séquentiel au parallèle, mémoire partagée, échanges de messages , blocage).
Tarifs
- Stagiaires/PhDs/PostDocs : 120 €
- Associés CERFACS/CNRS/INRIA : 360 €
- Public : 720 €
Programme
La formation alternera des séances d'explications théoriques avec des phases de mise en pratique sur ordinateur (programmation avec Fortran ou C). Les exemples dans le cours seront donnés en Fortran.
Jour 1
- 9h00 : Accueil et café
- 9:15 – 10h00 : Introduction au calcul parallèle, et aux modèles de programmation MPI – OpenMP
Bases d’OpenMP – Mémoire partagée - 10h – 10h45 : Exercices
- 10h45 – 11h : Pause
- 11h – 11h45 : Partage de travail
- 11h45 – 12h30 : Exercices
- 12h30 – 14h : Pause déjeuner
- 14h – 14h45 : Synchronisations – Pièges
- 14h45 – 15h30 : Exercices
- 15h30 – 15h45 : Pause
- 15h45 – 16h30 : Introduction au modèle de programmation parallèle par échange de messages –
Communications point à point - 16h30 – 17h30 : Exercices
Jour 2
- 9h – 10h : Communications point à points – Communications collectives
- 10h – 10h45 : Exercices
- 10h45 – 11h : Pause
- 11h – 11h45 : Communications collectives
- 11h45 – 12h30 : Exercices
- 12h30 – 14h : Pause déjeuner
- 14h – 14h45 : Types dérivés
- 14h45 – 15h30 : Exercices
- 15h30 – 15h45 : Pause
- 15h45 – 16h30 : Communicateurs – Topologies
- 16h30 – 17h15 : Exercices
- 17h15 – 17h30 : Synthèse