-- Site/ Recherche --

Présentation | Publications | Thèse


PRÉSENTATION




Thèmes de recherche développés

  • Algorithmique parallèle en mémoire partagée (OpenMP/pThreads) ou distribuée (MPI)
  • Résolution de problèmes combinatoires, CSP (Constraint Satisfaction Problems)
  • Allocation mémoire en mémoire partagée
  • Calcul pair-à-pair
  • Architectures massivement parallèles - GPU
    • génération de code CUDA (bas niveau) à partir de code OpenMP (haut niveau)
    • calcul multi-GPU

^Top


Projets de recherche et collaborations

  • challenge ROADEF'2005
    • problème de "Car Sequencing" : ordonnancement de véhicules pour une chaîne de montage automobile
    • étude préalable réalisée avec le constructeur automobile RENAULT
    • travail réalisé en collaboration avec Marc Gravel et Caroline Gagné, GRI, UQAC (Chicoutimi, Québec, Canada)
  • projet RMCSim
    • simulation du commandement militaire
      • modélisation par automates cellulaires, n-body problem
      • parallélisation en mémoire partagée
    • collaboration avec BJ Fugère, CMR (Collège Militaire Royal), Kingston, Ontario, Canada
  • résolution de problèmes NP-complets
    • projet Résolution parallèle de problèmes NP-complets en mémoire partagée (projet CINES, 2000-2006)
    • projet GNP, Grilles pour problèmes NP-complets (projet émergence 2005, région Champagne-Ardenne)
    • collaborations :
  • HPC sur accélérateurs graphiques
    • thèse de doctorat de G Noaje, 2008-2013
      Un environnement parallèle de développement haut niveau pour les accélérateurs graphiques : mise en oeuvre à l'aide d'OpenMP
    • co-direction, avec M Krajecki
    • collaboration avec le CEA

^Top


Encadrement

  • 2004-2005 : (2 étudiants de Master)
    Le Shift algorithm pour la construction de règles de Golomb optimales ; résolutions séquentielle et parallèle (mémoire partagée et échange de messages).
    • optimisation combinatoire
    • programmation séquentielle et parallèle
  • 2005-2006 : (1 étudiant de Master)
    Allocation mémoire pour les applications parallèles en mémoire partagée.
    • contention mémoire (problèmes combinatoires, OpenMP)
      • mesure et analyse du phénomène (irrégularité des temps d'exécution)
      • proposition d'un nouveau modèle d'allocation mémoire, et validation
  • 2008-2012 : (thèse de doctorat, G Noaje)
    Un environnement parallèle de développement haut niveau pour les accélérateurs graphiques : mise en oeuvre à l'aide d'OpenMP
    1. transformation automatique de code, source-to-sourve : code OpenMP vers code CUDA
      • cible : codes antérieurs, basés sur la programmation en mémoire partagée
        • exploiter les nids de boucles des boucles POUR parallèles
        • le code généré doit être simple à exploiter pour des optimisations ultérieures
      • étendre le compilateur OMPi pour générer du code CUDA
        • extension de la grammaire (C étendu)
        • transformations sur l'AST (arbre syntaxique)
        • visibilité des variables, généation de kernel, ...
    2. modèle d'exécution sur architectures multi-GPU
      • objectif : exploiter les architectures hybrides des calculateurs HPC actuels
        • au sein des noeuds multi-GPU, gestion des cartes graphiques
      • bonnes pratiques du calcul multi-GPU
        • comparaison des modèles (multi-thread / multi-processus) + modèles d'allocation mémoire
        • partitionnement mémoire + communications
        • recouvrement de transferts par les calculs
        • ...

^Top