Permalien :
Calcul scientifique parallèle Cours, exemples avec Open MP et MPI, exercices corrigés.
- Date_TXT
- Malakof, Dunod, 2017
- Auteur
- Frédéric Magoulès
- Type de document
- Livre
Description :
La première partie introduit dans le chapitre 1, l’architecture des calculateurs scientifiques, les différents types de parallélisme, et l’architecture mémoire des calculateurs scientifiques. Le chapitre 2 présente les modèles de programmation, les critères de performances et la parallélisation de données. Pour sa part, le chapitre 3, présente l’exemple concret du produit de matrices pour illustrer la démarche de parallélisation, de localisation temporelle et spatiale des données puis de distribution.
La deuxième partie consiste en un bref et succinct complément d’analyse numérique matricielle. Le chapitre 4 rappelle tout d’abord quelques notions de base en algèbre linéaire, les propriétés des matrices, ainsi que les notations utilisées dans la suite de l’ouvrage. Le chapitre 5 s’intéresse plus particulièrement aux matrices creuses, notamment à l’origine et à la formation en parallèle de ces matrices dans le cadre de méthodes d’éléments finis. Le chapitre 6 présente succinctement les principales méthodes de résolution des systèmes linéaires. La mise en œuvre parallèle de ces méthodes étant détaillée dans les parties suivantes.
La troisième partie étudie les méthodes de résolution de grands systèmes linéaires. Après avoir présenté dans le chapitre 7 le principe des méthodes directes (LU, Cholesky, Gauss-Jordan, factorisation de Crout), le chapitre 8, puis le chapitre 9 s’intéressent respectivement à la parallélisation des méthodes LU pour les matrices pleines, puis creuses.
La quatrième partie traite des méthodes itératives de résolution de grands systèmes linéaires par les méthodes de Krylov. Un rapide rappel des espaces de Krylov et de la construction de la base d’Arnoldi est détaillé au chapitre 10. Le chapitre 11 présente les méthodes de Krylov avec orthogonalisation complète pour des matrices symétriques définies positives. Le chapitre 12 s’intéresse aux méthodes avec orthogonalisation exacte pour des matrices quelconques, suivi au chapitre 13 des méthodes avec bi-orthogonalisation pour des matrices non symétriques. Les techniques de parallélisation des méthodes de Krylov sont abordées et détaillées au chapitre 14. Les techniques de préconditionnement et les méthodes hybrides de type décomposition de domaines sont ensuite brièvement décrites au chapitre 15.
L’utilisation efficace des calculateurs parallèles pour la simulation numérique exige un effort de conception des logiciels qui doit nécessairement s’appuyer sur la connaissance et l’analyse des méthodes mathématiques. Cette question des méthodes est primordiale et présente un champ très actif de la recherche dans le domaine des mathématiques appliquées; comme par exemple les méthodes de décomposition de domaines introduites à la fin de l’ouvrage. Cet ouvrage aura atteint son but si le lecteur a compris d’une part pourquoi le parallélisme était incontournable pour les grandes applications et d’autre part que les problèmes posés par la parallélisation demandaient de repenser les méthodes mathématiques et algorithmes numériques.