Chargement...
 

Parallelism-High Performance Computing-Grid

Domaine
Parallelism-High Performance Computing-Grid
Domain - extra
High-Level & Runtime Compilation
Année
2011
Starting
Septembre
État
Open
Sujet
Parallélisation et Optimisation Dynamiques et Hiérarchiques
Thesis advisor
BASTOUL Cédric
Co-advisors
Christine Eisenbeis, INRIA, directrice de thèse
Laboratory
LRI
Collaborations
Cette thèse sera menée dans l'équipe Alchemy du laboratoire LRI. Elle collabore sur ce type de sujet, dans le cadre de projets ANR ou européens, avec d'autres équipes académiques de la région (en particulier le groupe Parkas de l'ENS et le groupe Armines de l'École des Mines de Paris) ainsi que des industriels du secteur (notamment Thalès, le CEA et la PME HPC Project). Au niveau international, nous entretenons d'étroits contacts avec le groupe du Pr Sadayappan à Ohio State University.
Abstract
Les super-calculateurs comme les stations de travail modernes disposent de plusieurs niveaux de parallélisme et de hiérarchies mémoires profondes. La programmation efficace de ces systèmes est encore réservée à des experts maîtrisant les techniques d'optimisation des codes et familiers avec plusieurs langages et architectures. Les outils de parallélisation et d'optimisation automatiques actuels ne visent typiquement qu'un seul niveau de parallélisme et se révèlent médiocres lorsqu'ils ne peuvent analyser statiquement les programmes avec précision. Le but de cette thèse est d'apporter des solutions novatrices pour résoudre ces défauts. Il s'agira de se baser sur les propriétés d'analyse et de composition des outils actuels pour proposer, étudier et développer un système de
parallélisation et d'optimisation hiérarchiques capable de résoudre le défaut d'analyse statique durant l'exécution même du programme.
Context
Nous souhaitons repousser l'état de l'art vers des optimisations globales impliquant de multiples niveaux de parallélisme aux propriétés diverses. Nos principaux concurrents (mais également collaborateurs) sont tout d'abord le groupe du Pr. Sadayappan à The Ohio State University qui oriente ses efforts vers
des transformations plus générales (paramétriques) mais visant toujours essentiellement le multi-coeur. Ensuite, le groupe du Pr. Hall à The University of Utah ouvre les techniques d'optimisation des compilateurs de haut niveau à l'utilisateur alors que nous souhaitons au contraire l'assister automatiquement. Enfin les entreprises IBM (Watson Research Center, USA) et Reservoir Labs Inc. (New York, USA) développent des compilateurs basés entre autre sur nos techniques et sur leurs propres extensions. Il est difficile de connaître leur état d'avancement mais leur succès est une démonstration de l'attrait des industriels pour nos technologies.
Objectives
Ce projet a pour but la réalisation tant théorique que technique d'un système
de parallélisation et d'optimisation multi-niveaux dont l'approche d'analyse est à la fois statique et dynamique. Le premier vecteur de diffusion des résultats sera les publications scientifiques dans les principales conférences et revues du domaines. Notre équipe a de plus une profonde culture de réalisation d'outils de niveau industriel. L'outil créé viendra compléter notre écosystème logiciel dédié à l'optimisation des programmes. Sa distribution sera le second vecteur de diffusion de nos résultats. La qualité de la réalisation sera évaluée par la comparaison avec les compilateurs de production et les bibliothèques optimisées les plus récentes. L'intérêt scientifique sera mesuré par la qualité des publications associées alors que l'intérêt industriel sera indiqué par la distribution logicielle de l'outil réalisé.

Work program
Il s'agira tout d'abord de se familiariser avec les différents concepts et outils qui seront manipulés durant cette thèse ainsi que de l'état de l'art du domaine. Un projet simple mais utile sera réalisé dans cet objectif. En fonction des affinités de l'étudiant par rapport au sujet, on pourra étudier la génération de code MPI (nouvelle) en conjonction avec celle OpenMP (existante) pour entamer la construction de l'optimisation hiérarchique, ou préparer l'analyse dynamique. La conjonction de ces deux aspects sera abordée dans un dernier temps.
Extra information
Prerequisite
Ce sujet de thèse est à destination de tout étudiant intéressé par les domaines de la performance et du parallélisme. Bien qu'elle soit à ce propos, aucune expérience particulière en compilation, architecture ou géométrie (au dessus d'algèbre linéaire de base) n'est requise. Des compétences raisonnables en programmation C et/ou Java et en environnement Unix/Linux sont requises.
Détails
Expected funding
Institutional funding
Status of funding
Expected
Candidates
Utilisateur
Créé
Samedi 18 juin 2011 00:29:10 CEST
dernière modif.
Samedi 18 juin 2011 00:36:06 CEST

Fichiers joints

 filenamecrééhitsfilesize 
Aucun fichier joint à cette fiche


Ecole Doctorale Informatique Paris-Sud


Directrice
Nicole Bidoit
Assistante
Stéphanie Druetta
Conseiller aux thèses
Dominique Gouyou-Beauchamps

ED 427 - Université Paris-Sud
UFR Sciences Orsay
Bat 650 - aile nord - 417
Tel : 01 69 15 63 19
Fax : 01 69 15 63 87
courriel: ed-info à lri.fr