Projet de réalisation d’une grappe de 200 PC pour le calcul scientifique et les serveurs de données

 

 

 

 

Le projet est présenté par le l’Unité de Recherche I.D. (équipe postulante 2024) pour les chercheurs des équipes suivantes :

Les équipes partenaires dans l’utilisation de la grappe sont :

Le pilotage du projet sera assuré par :

Jacques Briat (Apache-ID) 04 76 51 45 72 Jacques.Briat@imag.fr

Xavier Rousset (SIRAC) 04 76 61 52 65 Xavier.Rousset@imag.fr

Philippe Augerat (Apache-ID) 04 76 51 45 95 Philippe.Augerat@imag.fr

Loïc Prylli (ReMaP) 04 72 72 80 37 Loic.Prylli@ens-lyon.fr

 

 

Objectif du projet

Le projet vise à :

Cette action nécessite la coordination de plusieurs équipes dans les domaines des systèmes distribués (SIRAC, CAPS), des environnements de calcul parallèle (APACHE, ReMaP), des serveurs de données (SIRAC, ReMaP) et des applications exigeant du calcul intensif (APACHE et les collaborations citées ci-dessus). Ce projet constitue également une contribution significative aux travaux des groupes de travail Grappe et Hiperf du GDR ARP (Architecture, Réseau et Parallélisme). Il se situe dans le cadre d’un projet d’équipement de calculateurs de moyenne puissance sur le site de Grenoble, appelé CIMENT, dont le coordonnateur est Laurent Desbat pour l’UJF, l’INPG, le CNRS et l’INRIA à Grenoble.

 

1 - Originalité du projet et facteur mobilisateur

Les activités de recherche et développement de ces dernières années ont montré que les architectures en grappe (cluster), fondées sur l’interconnexion de stations de travail par un réseau local à haut débit pour exécuter de façon parallèle une application, permettaient d’atteindre un niveau d’efficacité significatif par rapport à un calculateur spécialisé. L’effort de développement a essentiellement porté sur des outils permettant la mise en œuvre de programmes parallèles (compilateur paralléliseur, interface de programmation parallèle, bibliothèques parallélisées d’algèbre linéaire numérique et formelle, traceur – analyseur de performances, ..). L’exécution de ces programmes repose toujours sur des bibliothèques de communication standardisées (MPI, PVM) et des noyaux de gestion de processus légers ("threads" Posix).

Objectifs et Positionnement du projet  : Les enjeux aujourd’hui sont de deux ordres.

Facteur mobilisateur Parce que la nouvelle génération de grappe demande une intégration des communications, du système et des environnements applicatifs parallèles, le projet Grappe 200-PC est porté par trois équipes ayant acquis une expérience et une notoriété dans les deux domaines concernés. Le projet SIRAC est depuis de longues années à la pointe de la recherche en systèmes distribués sur réseau local. Il a en particulier acquis une grande compétence dans le domaine de la mémoire virtuelle distribuée, appliquée à la mise en œuvre d'un serveur de fichiers distribué sur une architecture en grappe (collaboration avec le groupe BULL sur des grappes de machines Escala sous système AIX), et plus récemment avec le développement du système SCIOS de gestion d'une grappe de PC sur le système d’exploitation libre LINUX. Le projet APACHE a développé un environnement de programmation parallèle Athapascan utilisé pour le développement d’applications de calcul scientifique en coopération avec de nombreux partenaires sur les domaines d’applications suivants : dynamique moléculaire, EDP, Transport urbain, calcul formel, chimie quantique en astrophysique, etc. Cet environnement de programmation est disponible et utilisé sur des grappes de PC, de stations mais aussi des machines parallèles telles que l’IBM SPx, les Silicon Graphics Origin 2000 ou le Cray T3E. Le projet ReMaP conçoit des méthodes et des outils pour le parallélisme, à tous les niveaux, depuis la définition de protocoles pour les réseaux à haut débit (logiciel BIP) jusqu'à l'étude de techniques de compilation automatique (logiciel TransTOOL/Nestor) , en passant par les supports d'exécution multithreads (logiciel PM2) et les bibliothèques de calcul et de communication pour la parallélisation d'applications (logiciel Scilab//).

L’association d’une équipe système et de deux équipes de calcul parallèle aux compétences complémentaires est un atout pour la préparation des grappes du futur.

Formation doctorale  Les systèmes parallèles et répartis, vus sous l'angle des architectures et des environnements applicatifs, constituent des thématiques centrales du DEA ISC (Informatique, système et communication) à Grenoble et du DEA IF (Informatique Fondamentale) à Lyon. Par ailleurs les équipes proposantes s'investissent dans l’organisation d’écoles pour la formation de chercheurs/utilisateurs (école ICARE par exemple).

Rayonnement du projet La plate-forme développée par le projet sera très largement utilisée pour les besoins de calcul d'applications réelles, dans le domaine du calcul scientifique d'une part (calcul formel, EDP, chimie et biologie, trafic routier, imagerie, etc.) et des serveurs d'information à haute performance d'autre part (recherche documentaire, serveurs multi-média, cache Web). De ce fait, la diffusion des résultats du projet concerne directement une large population dans la communauté scientifique.

 

2 - Applications visées

Il n’existe pas aujourd'hui de tests synthétiques permettant d’évaluer l’efficacité d’une grappe pour le calcul haute performance ou l'accès intensif à de grandes quantités d'information. C’est pourquoi cette évaluation n’est possible qu’à travers des tests réels issus des différents domaines d’application que sont le calcul scientifique et les serveurs de données. Le projet APACHE a particulièrement investi dans le domaine scientifique depuis plusieurs années et dispose d’une large palette d’applications opérationnelles ou qui le seront au cours du déploiement de la grappe. L'investissement du projet SIRAC dans le domaine est plus récent et concerne les serveurs de données. Ces deux domaines applicatifs sont présentés plus en détail dans la suite.

2.1. Calcul Scientifique

La validation des activités de recherche dans le domaine des environnements de programmation parallèle et de l’algorithmique parallèle procède par réalisation d’applications parallèles pilotes dans différents domaines du calcul intensif. Ces réalisations se font par coopération étroite avec les spécialistes des domaines concernés. Cette coopération prend souvent la forme d’un travail de thèse co-encadré.

Calcul formel Le calcul formel est un domaine du calcul scientifique où les algorithmes sont particulièrement gourmands en ressources de calcul et de mémoire et qui doivent donc être parallélisés afin de résoudre de véritables problèmes de l'ingénieur. De plus, ces algorithmes sont très irréguliers car ils manipulent des données de taille difficilement prévisible et non bornée. Les domaines traités sont les nombres algébriques, les polynômes et l'algèbre linéaire, les bases de Gröbner ou la résolution d'équations différentielles.. Ce travail se fait en liaison avec le projet IMAG ACTE du LMC-IMAG et le projet SAPHIR (Sophia). Le doctorant est J.G. Dumas.

Algèbre linéaire sur des structures creuses Les bibliothèques parallèles d'algèbre linéaire dense sont maintenant bien diffusées. En calcul scientifique, beaucoup de problèmes se ramènent à la résolution numérique de très grands systèmes linéaires creux (optimisation par méthode de Newton, éléments finis...) qui est l'archétype des problèmes irréguliers. L'utilisation de structures creuses nécessite des schémas algorithmiques qui prennent en compte de façon dynamique le remplissage des matrices. Deux approches complémentaires sont suivies. Nous étudions la parallélisation d'un code itératif (basé sur les méthodes de type Gradient Conjugué, CS-Stab et GMRES). Par ailleurs, les méthodes directes de résolution sont une alternative intéressante pour la parallélisation à cause de l'espace mémoire fourni par les grappes. Dans ce cadre, au problème intrinsèque de remplissage de la matrice lors de la factorisation, s'ajoute celui de la régulation de charge en parallèle. Ce travail est conduit en collaboration avec l'École Polytechnique de Bucarest (B. Dumitrescu). Le doctorant est M. Doreille.

Équations aux Dérivées Partielles et raffinement de maillage : La parallélisation de problèmes d'EDP se fait classiquement par des méthodes de décomposition de domaines. Dans ce cadre, une modélisation fine de certains phénomènes physiques impose de raffiner le maillage en certaines zones du domaine. Ce raffinement peut par ailleurs s'accompagner de l'utilisation d'un modèle différent (couplage de code). Ce raffinement peut être statique (e.g. dépendant d'une géométrie fixe du problème) ou bien dynamique (e.g. déplacement d'une turbulence). Ceci pose des problèmes spécifiques de répartition dynamique de la charge. Deux domaines d'application sont actuellement en cours d'étude : un problème d'évolution en océanographie qui fait intervenir des maillages structurés et des méthodes multigrilles, et un problème de turbulence en aérodynamique, qui fait intervenir des maillages non structurés.
Ces travaux sont réalisés en collaboration avec le projet IMAG/INRIA IDOPT (E. Blayo et I. Charpentier), avec l’IRIT Toulouse (P. Spiteri) et avec l’INRIA Sophia (S. Lanteri). Le doctorant est A. Charao.

Chimie et biologie : La simulation des particules, atomes et molécules, suivant les lois de la mécanique quantique ou newtonienne sont des algorithmes coûteux (de complexité égale au carré, au cube ou à la puissance 4 du nombre de particules mises en jeu). Ces simulations trouvent des applications dans de nombreux domaines : pharmacologie, structure des matériaux, astrophysique, etc. Le parallélisme est une voie incontournable pour traiter plus vite des phénomènes plus complexes afin de rendre l'approche de modélisation et de calcul cohérente avec l'approche expérimentale.

Trafic routier  : La modélisation du trafic routier est abordée par plusieurs types de méthodes : les modèles statiques qui prennent en compte des équations de flux, des modèles dynamiques continus qui considèrent le trafic comme un fluide, et les modèles à événements discrets. C'est à ces derniers que nous nous intéressons car ils sont couramment utilisés en modélisation des systèmes informatiques. L'apport de certaines techniques de modélisation et la parallélisation des algorithmes de simulation nous permet d'envisager de faire de la prédiction sur de grandes zones urbaines (106 tronçons)

Cette application se situe dans le cadre d'un projet européen HIPERTRANS et fait l'objet d'une collaboration avec le projet IMAG MAI (LMC), le projet SLOOP (INRIA Sophia) et la société Simulog (entre autres). Il s'agit de mettre au point un simulateur de trafic urbain qui soit à même de rendre des services prédictifs en temps réel. Pour cela, nous travaillons à la mise au point de techniques de simulation rapides et parallélisées pour la modélisation des phénomènes transitoires de circulation routière.

Imagerie :   L'appariement dense d'images est une opération qui apparaît lorsque qu'on utilise des images réelles pour faire de la réalité virtuelle. Etant donné des images (2D) qui couvrent tous les points de vue d'une scène réelle, l'appariement dense de deux images voisines (i.e. la mise en correspondance dans les deux images de points significatifs) permet ensuite par interpolation de se situer suivant n'importe quel point de vue dans cette scène. Dans ce processus, l'opération chère en calcul est l'appariement de deux images, sachant qu'il faut en apparier une quarantaine en moyenne pour une scène, ce qui prend environ une heure. L'objectif est d'étudier la parallélisation de ces algorithmes dans le but de réduire les temps de réponse. Ces travaux se mènent en collaboration avec le projet MOVI (R. Mohr et R. Horaud) de Gravir-IMAG et Inria-RA. Le doctorant est G. Fernandes.

2.2. Serveurs de données

Les applications du coté des serveurs de données sont plus récentes. Le développement d'applications de type "mémoire d'entreprise" nécessite l'utilisation d'entrepôts de données (Data Warehouse) dont la taille croit régulièrement. L'exploitation de ces données en vue d'extraire des informations significatives pour la gestion de l'entreprise (Data Mining) est réalisée à l'aide de requêtes de complexité significative. L'exécution de ces requêtes en temps réel pour les applications d'aide à la décision requiert de paralléliser le traitement correspondant.

Un autre exemple d'utilisation des architectures parallèles pour la mise en œuvre de serveurs de données est lié à l’extension du World-Wide-Web. En effet, le développement rapide du Web implique non seulement un accroissement du débit du réseau Internet mais aussi la nécessité d'une augmentation de puissance des différents serveurs de données pour faire face à la croissance du nombre de requêtes. Parmi ces serveurs, on peut distinguer les serveurs de données primaires dont le rôle est d’archiver et d’indexer des données (par exemple le service AltaVista) et les serveurs "caches" dont le rôle est de réduire le trafic réseau pour les données fréquemment accédées depuis un lieu géographique donné. Pour fixer les idées, en fin 97, le serveur principal d’AltaVista était une grappe de DEC Alpha où 2 stations ont la tâche de parcourir le Web (676000 sites à explorer soit 110 millions de pages W3), 3 stations réceptionnent les requêtes http (40 millions par jour) et 18 SMP (10 processeurs / 8Go par SMP) gèrent les données du serveur AltaVista (400 Go RAID). On pourrait croire que la gestion de données se résout simplement par l’insertion d’un serveur base de données classique. Des expériences récentes ont montré que l’utilisation d’une indexation à la AltaVista était plus efficace qu’une recherche dans une base de données classique (serveur Oracle par exemple). Dans le cas du service de données du FBI (40 millions de fiches en 250 Go ), le gain d’efficacité obtenu par cette technique est de plusieurs ordres de grandeur.

Le problème d’un serveur ou d'un cache W3 est non seulement la puissance mais encore l’évolutivité (scalability) nécessaire pour assurer une croissance continue de celle-ci en rapport avec la croissance des données à gérer et l'augmentation du nombre de requêtes simultanées. La grappe est une bonne réponse à ce besoin de puissance et d’évolutivité. Outre les problèmes techniques, les problèmes à résoudre concernent l’équilibrage de charge entre les nœuds de la grappe tant pour le placement des données que celui des requêtes de recherche.

Les applications envisagées dans ce domaine sont un service de cache W3 et un serveur d’images en relation avec le projet INRIA MOVI.

Dans le cadre du LHPC, ReMaP développe des logiciels permettant de transformer des grappes d'ordinateurs standard en serveurs de cache Internet à hautes performances pour les têtes de réseau des boucles haut débit. Ce système, réalisé conjointement par MS&I et le LIP, utilise des technologies issues du parallélisme pour garantir son extensibilité. Le système de cache intègre des fonctionnalités d'indexation en ligne et de filtrage. Un autre aspect novateur du système réside dans le support des flux audio et vidéo par des mécanismes de cache ou de miroir pour tenir compte de la part grandissante des documents multimédia dans le trafic Internet. Le projet inclut des phases d'expérimentation sur le réseau haut débit \emph{Autoroutes Rhodaniennes de l'Information} de Rhône Vision Câble. Cette plate-forme permettra de vérifier l'adéquation des solutions proposées en termes de fonctionnalités et de performances et de mettre en avant les bénéfices des infrastructures à haut débit.

 

3 - Contexte technologique de la demande

Le rapport coût-performance des processeurs et des réseaux indique qu’il est économiquement viable aujourd’hui de construire des systèmes à haute performance et coût réduit en interconnectant des composants standard et que ces systèmes peuvent être compétitifs par rapport aux systèmes spécialisés. Les applications visées sont aussi bien celles qui nécessitent des capacités de calcul intensif (applications scientifiques) que celles qui requièrent la manipulation de gros volumes d’information (serveurs de bases de données, data-mining, serveurs web). Ainsi, tous les super ordinateurs du programme américain ASCI sont des grappes de SMP ( Origin2000, IBM SPx, etc..). Par ailleurs, on assiste depuis quelques années à une grimpée en puissance de la technologie Intel Pentium qui réduit constamment l’écart de puissance avec la technologie concurrente RISC. Ainsi le prototype ASCI RED du Sandia National Labs est une énorme grappe de 9000 Pentiums.

Plusieurs technologies d’interconnexion permettent de concevoir des noyaux de communication à partir desquels il est possible de mettre en œuvre des protocoles standard (TCP/IP) ou des mécanismes de communication de plus bas-niveau, caractérisés par une latence faible et un débit élevé, nécessaires aux applications à haute performance. Ces technologies peuvent être classées en deux familles. La première regroupe les réseaux commutés qui, comme Myrinet et ATM, fournissent une interface basée sur l'envoi de messages. La seconde, plus récente, regroupe les réseaux dits à capacité d’adressage qui fournissent un accès transparent à la mémoire d’un ensemble de processeurs. Dans ce type de réseau, après une phase d’initialisation (création et projection de segments de mémoire partagée), la communication entre processeurs s’effectue directement par leurs instructions load et store du processeur. Il existe aujourd’hui deux versions (disponibles pour un coût raisonnable) de cette technologie, l’une développée par DEC (Memory Channel [M. Fillo 97]) et l’autre développée par Dolphin Interconnect Solutions [Dolphin 96].

De nombreux travaux ont été menés ces dernières années sur l’utilisation de réseaux commutés pour l’utilisation de grappes pour le calcul intensif. L’obtention de débit élevé au niveau applicatif n’a été possible qu’en reconcevant la couche de communication du système. Les résultats obtenus à l’ENS Lyon (projet LHPC) sur une grappe de PC interconnectés par Myrinet sont tout à fait remarquables. Cependant, on peut légitimement penser que les réseaux à capacité d'adressage devraient permettre de réduire encore la latence puisqu'ils n'imposent pas la traversée de couches logicielles pour communiquer. Par ailleurs, les fonctionnalités de lecture/écriture directe dans des mémoires distantes devraient améliorer l’efficacité du partage de données entre calculs distribués. C'est la raison qui a conduit un certain nombre d'équipes françaises, dont les nôtres, à regrouper leurs compétences afin d’expérimenter et d’évaluer la technologie SCI pour la construction de grappes de PC. Nous avons choisi la technologie SCI, d’une part parce qu’elle offre des caractéristiques techniques plus élaborées, et d’autre part parce qu’elle est disponible sur une plus large gamme d'architectures matérielles et logicielles. On peut signaler que plusieurs constructeurs ont déjà intégré la technologie SCI dans leurs architectures de processeurs parallèles (Data General par exemple) pour réaliser des machines à mémoire commune CC-NUMA. D’autres utilisent SCI pour implanter des protocoles de communication rapide pour améliorer l’interconnexion de leur grappe.

Dans le cadre de cette collaboration nationale, l'équipe SIRAC a réalisé une extension au système libre LINUX. Cette extension, baptisée SCIOS [P. Koch 98-1 et 2], regroupe un service de gestion de mémoire virtuelle distribuée sur une grappe et des mécanismes élémentaires de synchronisation. Les mémoires physiques des machines interconnectées sont considérées comme une mémoire unique à partager de la façon la plus efficace possible entre les différents processeurs. SCIOS a été choisi comme système support pour tous les développements expérimentaux autour de SCI.

L’équipe APACHE porte son environnement de programmation parallèle Athapascan sur le système SCIOS pour profiter d’une part de l’efficacité des communications due à SCI et des fonctionnalités de partage de mémoire et migration de données offertes par SCIOS.

L’équipe ReMaP porte également son environnement multi-thread PM2 sur SCIOS, avec les mêmes motivations.

4 - Programme Scientifique

Le programme scientifique s’inscrit complètement dans le cadre du déploiement et de l’évolution d’une grappe de calcul haute performance de nouvelle génération. La taille de cette grappe a été fixée à un ordre de grandeur de 200 PC. Atteindre cette taille nous paraît nécessaire pour mettre en évidence les problèmes de passage à l'échelle liés à une architecture de plusieurs milliers de processeurs. Ces problèmes concernent essentiellement les aspects suivants :

 

Choix technologiques

Nous avons choisi de travailler avec les composants de base suivants  :

Déploiement

Le déploiement de la grappe nécessite de résoudre divers problèmes d’architecture matérielle et logicielle :

Evaluation

Chacune des actions précédentes nécessite des évaluations spécifiques afin d’obtenir les meilleurs réglages des stratégies de régulation de charge de calcul et des stratégies de migration de pages. Les applications développées par le cadre des projets APACHE et ReMap et leurs partenaires seront utilisées pour évaluer le comportement de la grappe pour le calcul intensif. En ce qui concerne le service de données, cette évaluation sera réalisée dans le projet Sirac en faisant jouer à la grappe le rôle d’un cache W3.

 

5 - Mise en œuvre

Le programme sera mis en œuvre sur trois ans (1999-2001). Ce déploiement a débuté fin 98 par l’installation du "germe" de la grappe. Il est constitué de 14 PC bi-processeurs interconnectés en une commutation de 4 anneaux SCI. Ce germe est financé par l’unité de recherche INRIA Rhône-Alpes. L’objectif est d’arriver à la configuration maximum de la grappe en fin de l’année 2000 (ou le début 2001) afin de procéder aux évaluations en vraie grandeur au cours de l’année 2001. L’unité de recherche INRIA Rhône-Alpes a fait équiper électriquement / thermiquement une salle à cet effet.

Depuis avril 99, nous réalisons aussi des expérimentations sur des grappes de grande taille déjà installées (grappe SCI 192 processeurs de l’Université de Paderborn et grappe Myrinet 128 processeurs de l’université de New Mexico) pour mesurer les performances et le passage à l’échelle de benchmarks. Nous avons déjà constaté que les résultats obtenus sur ces benchmarks étaient très intéressants en terme de speed-up et relativement équivalents entre les deux architectures. Le déploiement de nos applications sur ces grappes permettra une comparaison plus fine.

Ces expériences permettent aussi de juger le fonctionnement matériel de grappes de grande taille et de juger la qualité des outils logiciels (job manager, MPI,…) fournis avec ces grappes. Cela nous amène à souligner l’importance du packaging matériel et logiciels dans le fonctionnement global d’une grappe.

La sortie d’une nouvelle génération de cartes Myrinet et SCI est prévue en production pour l’été et nous nous apprêtons à être beta -testeurs de ces cartes afin de finaliser notre choix du réseau à faible latence au plus tôt.

 

L’échéancier global de l’opération est le suivant :

Les chercheurs permanents directement impliqués dans la mise en œuvre de la Grappe 200-PC sont :

Xavier Rousset Prof. INPG SIRAC

Jacques Briat MCF UJF APACHE

Yves Denneulin MCF INPG APACHE

Loïc Prylli CR CNRS ReMaP

Raymond Namyst MCF ENS Lyon ReMaP

40 à 50 personnes sont concernées par l’utilisation de la grappe pour le développement et l’exploitation d’applications.

Aucun moyen supplémentaire en ingénieur n’est demandé. Les ingénieurs travaillant dans le projets APACHE et maintenant déjà des plates-formes expérimentales pourront être affectés à ce projet :

J. Prevost IR CNRS

P. Augerat IE UJF

 

7 - Suivi et Ouverture

Les équipes concernées ont une action continue et visible autour des serveurs de calculs et de données. Elles présentent cette action comme un rebondissement des investissements précédents

Le suivi sera assuré par un comité scientifique (celui du projet CIMENT de l’UJF) comprenant des membres des différents établissements contractants : UJF, INPG, ENS Lyon, CNRS et INRIA, en particulier les représentants des divers projets de calcul concernés.

Par ailleurs, le projet est largement ouvert à la communauté Rhône-Alpine et nationale. Il incorpore de fait les applications de calcul en cours d’étude ou développement (cf. paragraphe 2 "applications visées"). Il est ouvert à tout nouvel utilisateur. La collaboration initiée dans l’action de recherche coopérative INRIA Rescapa continue sur la Grappe200 et concerne le LIFL de Lille et l’IRISA. Il faut y ajouter l’université de Copenhague qui contribue par l’intermédiaire de P. Koch au développement de SCIOS. Enfin, le projet Grappe200 se rattache aux groupes de travail Grappe (JL Pazat) et HiPerf (L. Bougé) du GDR ARP (Architecture, Réseaux, Parallélisme).

 

8 - Budget Prévisionnel

L’enveloppe budgétaire d’une telle opération est de 5 MF (5MF pour la grappe , 1MF pour l'aménagement de la salle d’accueil déjà réalisée). Dans le cadre du contrat de plan Etat-Région, nous proposons le plan de financement suivant pour un montant total de 3.7 MF.

Des financements obtenus hors contrat plan Etat-Région  pour un total de 1.1 MF:

9 – Etude de prix

 

Afin d’évaluer le budget à réunir, nous avons considéré la configuration suivante :

-100 PC bi-processeurs ;- un réseau standard gigabit ethernet ;- réseau rapide faible latence (Myrinet ou SCI) .

Aucun logiciel, ni serveur externe (fichiers, login, job manager, administration,…) n’est demandé.Il est par contre nécessaire que le packaging matériel des PC soit complet, par exemple du type de celui de l'IBM SP, c'est à dire :- racks ;- concentration de liaison série ;- concentrateurs d'alimentation électrique ;- possibilité pour les machines d’un boot réseau sans disquette.

 

Une telle offre est proposée par la société SCALI, revendeur de SCI recommandé, au coût de 5,9 MF avec un réseau fast ethernet non commuté et un réseau SCI.

Une seconde étude a été faite auprès de Compaq, revendeur conseillé par la société Myricom, dans le cas où le réseau à faible latence choisi serait myrinet de Myricom. L'offre de Compaq est de 6 MF. Elle inclut des réseaux fast ethernet commuté et Myrinet.

Une autre proposition de prix a été demandée à l'intégrateur de PC Intersed aussi revendeur de Myrinet. La réponse est de 3,3 MF avec réseaux Myrinet et fast ethernet. La différence de coût provient des éléments choisis. Par rapport aux offres précédentes, les PC ne sont pas de la même génération (processeur, bus système, mémoire, bus PCI). Outre les performances intrinsèques bien moins bonnes, la carte mère, non Intel, et la carte réseau entrée de gamme n'offrent pas un certain nombre de fonctionnalités importantes pour le management du clusters (standards EMP, PXE, ACPI). Enfin cette génération de PC ne permet pas d'utiliser les nouvelles cartes réseaux (Myrinet, SCI) sur bus PCI 64 bits/66 MHz comme nous voudrions l'utiliser.Il faut aussi noter que les offres SCALI et COMPAQ contiennent des outils logiciels de déploiement et d'administration ce qui n'est pas le cas d'Intersed.

Aucune des trois offres ne contient de solution réseau Gigabit Ethernet. La raison de ce choix est la non disponibilité de réseau Gigabit Ethernet sur support cuivre. Cette solution sera vulgarisée au moment de l'appel d'offre, moins chère que les solutions gigabit sur fibre optique mais malgré tout plus chère que la solution fast ethernet.

Au vu de ces estimations, le chiffre de 5MF apparaît comme une hypothèse jouable pour l’achat de la grappe.

 

 

ANNEXES

État de l'art

Le domaine des systèmes à hautes performances fait l’objet de nombreux travaux. Néanmoins, si la gestion de la mémoire a été très explorée (cohérence dans les mémoires virtuelles réparties [P. Keleher 94], gestion globale de mémoire dans les clusters [M. Feeley 95], caches coopératifs [V. Pai 97]) la grande majorité des travaux a été faits sur des réseaux d’interconnexion commutés (notamment Myrinet), alors que les architectures utilisant le couplage de mémoire à mémoire (Memory Channel, SCI ou des architecture semblables) ont été beaucoup moins explorées.

Plusieurs projets de recherche aux États-Unis sont impliqués dans l’expérimentation des réseaux à capacité d’adressage. Le projet Cashmere [R. Stets 97] de l’Université de Rochester vise à concevoir une gestion de mémoire virtuellement partagée exploitant la technologie Memory Channel de DEC. Le projet Shasta [D. Scales 97] du DEC Western Research Lab vise également à concevoir une mémoire virtuelle partagée sur une plate-forme similaire à celle utilisée par Cashmere. Ces deux projets diffèrent par le choix de leur modèle de cohérence de mémoire. Le projet CAPS de l'IRISA, avec lequel nous avons des contacts suivis, a également démarré des travaux sur la conception d’une mémoire virtuelle partagée utilisant les mécanismes matériels offerts par SCI [CAPS 98]. Alors que nous mettons l'accent sur l'aspect gestion globale de la mémoire virtuelle, CAPS s'intéresse à fournir une mémoire virtuelle partagée générique dont les fonctionnalités peuvent être enrichies par l’utilisateur. D'autre part ils s'intéressent plutôt aux aspects calcul haute performance qu'aux serveurs de données.

Bibliographie

[CAPS 98] "Description du projet Pacha", http://www.irisa.fr/caps/PROJETS/Cobras/#pacha

[Dias 96] Daniel M. Dias, William Kish, Rajet Mukherjee, Rene Tewari, A Scalable and Highly Available Web Server, In Proceedings of the IEEE Computer Conference (COMPCON), Santa Clara, March, 1996

[Dolphin 96] Dolphin Interconnect Solutions; PCI-SCI Cluster Adapter Specification, Version 1.2, May 1996. http://www.dolphinics.com

[M. Feeley 95] M. J. Feeley, W. E. Morgan, F. H. Pighin, A. R. Karlin, H. M. Levy and C. A. Thekkath. Implementing Global Memory Management in a Workstation Cluster, In Proceeding of the 15th ACM Symposium on Operating System Principles, pages 201-212, 1995.

[M. Fillo 97] M. Fillo and R. B. Gillett, Architecture and Implemention of MEMORY CHANNEL, Digital Technical Journal, 9(1), pages 27 - 41, 1997

[P. Koch 98-1] P. Koch, X. Rousset de Pina, SCIOS: Flexible Operating System Support for SCI Clusters, In Proceeding of EuroPar’98, Southampton, 1-4 Sept 1998. [to appear]

[P. Koch 98-2] P. Koch, E. Cecchet, X. Rousset de Pina, Global Management of Coherent Shared Memory on an SCI Cluster, In Proceeding of SCI Europe’98 EMMSEC’98 (European Multimedia, Microprocessor Systems and Electronic Commerce), Bordeaux, 28 - 30 Sept 1998. [to appear]

[P. Keleher 94] P. Keleher, A. L. Cox, S. Dwarkadas and W. Zwaenepoel, TreadMarks: Distributed Shared Memory Management, In Proceeding of the 1994 Winter USENIX Conference, Pages 115-132, 1994

[V. Pai 97] V. Pai, I. O. Lite: A Unified I/O Buffering and Caching System, Rice University C. S. Technical Report TR97-294

[V. Pai 98] Vivek S. Pai, Mohit Aron, Gaurav Banga, Michael Svendsen, Peter Drushel, Willy Zwaenepoel, Erich Nahum, Locality-Aware request Distribution in Cluster based Network Servers, In Proceedings of the Eighth International Conference on Architectural Support for Programming Language and Operationg Systems (ASPLOS-VII), San Jose, C.A., October 1998.

[D. Scales 97] D. J. Scales and K. Gharachorloo, Towards Transparent and Efficient Software Distributed Shared Memory. In Proceedings of the 16th ACM Symposium on Operating System Principles, pages 157-169, October 1997.

[R. Stets 97] R. Stets, S. Dwarkadas, N. Hardavellas, G. Hunt, L. Kontothanassis, S. Parthasarathy, and M. Scott. Cashmere-2L: Software Coherent Shared Memory on Clustered Remote-write Network. In Proceedings of the 16th ACM Symposium on Operating System Principles, pages 170-183, October 1997.

 

 

L'équipe de recherche APACHE

Responsable scientifique : Brigitte Plateau professeur INPG

Assistante de projet : Hélène Emin SARF INPG, à mi-temps depuis le 1/10/98

Personnel Inria

Thierry Gautier

Personnel CNRS

JacquesChassin de Kergommeaux CR

JoellePrévost IR

Personnel INPG

Yves Denneulin maître de conférence, depuis le 1/10/98

Jean-Louis Roch maître de conférence

Denis Trystram professeur

Personnel UJF

Jacques Briat maître de conférence

Jean-Marc Vincent maître de conférence

Philippe Waille maître de conférence

Chercheurs invités

Youcef Saad U. du Minnesota, USA, juillet~1997

William Stewart U. de Caroline du Nord, USA, janvier-novembre~1998

Chercheurs doctorants

Alexandre Carissimi allocataire CAPES-COFECUB, Brésil

Martha-Rosa Castaneda-Retiz allocataire CIES, Mexique

Gerson Cavalheiro allocataire CAPES-COFECUB, Brésil

Andrea Charao allocataire CAPES-COFECUB, Brésil

Mathias Doreille allocataire MENESR

Jean-Guillaume Dumas allocataire MENESR

Luiz-GustavoFernandes allocataire CNPq, Brésil

François Galilée allocataire MENESR

Roberta Jungblut-Hessel allocataire CAPES-COFECUB, Brésil

RenaudLepeyre allocataire MENESR

Nicolas Maillard allocataire MENESR

Gregory Mounié allocataire MENESR

Marcello Pasin allocataire CAPES-COFECUB, Brésil

Christophe Rapine allocataire normalien moniteur

Benhur Stein allocataire CAPES-COFECUB, Brésil

Collaborateur extérieur

Gilles Villard CR CNRS, LMC-IMAG

Le projet APACHE est un projet commun entre le CNRS, l'INPG et l'UJF (UMR LMC-IMAG n° 5523) et l'Inria (UR Inria Rhône-Alpes), localisé dans les locaux du LMC-IMAG.

Les architectures parallèles offrent une puissance de calcul et une capacité de stockage potentiellement très importantes. Les progrès des composants matériels permettent de disposer de multiprocesseurs très performants quel que soit leur niveau d'intégration: machines parallèles propriétaires, grappes autour d'un accélérateur de communication, calcul distribué, etc. Cependant, le problème technologique qui n'est pas résolu est celui de l'exploitation efficace de ce potentiel par les applications.

Dans ce projet, nous proposons une approche originale de la programmation des machines parallèles

pour le calcul haute performance qui permette d'atteindre un bon compromis performance-portabilité,

indépendamment des particularités de chaque machine et de chaque application. La démarche suivie est expérimentale et consiste à construire un environnement de programmation permettant la mise en oeuvre

de notre approche afin d'en prouver la pertinence.

L'environnement de programmation Athapascan tente de répondre à ces impératifs d'efficacité et de portabilité. Pour cela, un noyau d'exécutif, à base de processus légers communicants a été construit et sa pertinence a été démontrée. Une interface de programmation est en cours de test. Cette plate forme privilégie un modèle de parallélisme de tâches asynchrone assorti d'un modèle de cohérence de données. Elle permet une répartition automatique de la charge de calcul et des données. Des applications existent en Athapascan : dynamique moléculaire, chimie quantique, calcul formel, décomposition de domaines et simulation à événements discrets. Enfin, un environnement de prise de traces permet l'observation, l'évaluation et la visualisation d'Athapascan et de ses applications. Le noyau exécutif est appelé Athapascan-0 et l'interface de programmation Athapascan-1.

 

 

Publications et thèses du projet APACHE

Publications 1996-1998

 

1 E. Bampis, F. Guinand, and D. Trystram. Some models for scheduling parallel programs with communication delays. Discrete Applied Mathematics, (72):5-24, 1997.

2 P.-E. Bernard. Parallélisation et multiprogrammation pour une application irégulière de dynamique moléculaire opérationnelle (Résuméftp://ftp.imag.fr/pub/Mediatheque.IMAG/theses/97-Bernard.Pierre-Eric/notice,

Postscriptftp://ftp.imag.fr/pub/Mediatheque.IMAG/theses/97-Bernard.Pierre-Eric/these.ps.gz).

Thèse de doctorat en mathématiques appliquées, Institut National Polytechnique de Grenoble, France, October 1997.

3 P.-E. Bernard and D. Trystram. Report on a Parallel Molecular Dynamics Implementation. In Parallel Computing, Bonn, Germany, May 1997.

4 J. Blazewicz, M. Drozdowski, F. Guinand, and D. Trystram. Scheduling a divisible task in a 2-dimensional toroidal mesh. Discrete Applied Mathematics, 1998. à paraître.

5 J. Briat, J.-M. Geib, and J.-F. Méhaut. Technologie et objectifs des supports d'exécution pour la régulation. In D. Barth, J. Chassin de Kergommeaux, J.-L. Roch, and J. Roman, editors, ICaRE'97: conception et mise en œuvre d'applications parallèles irrégulières de grande taille. CNRS, December 1997.

6 J. Briat, I. Ginzburg, and M. Pasin. ATHAPASCAN-0B : un noyau exécutif parallèle. Lettre du Calculateur Parallèle, 1998. à paraître.

7 J. Briat, I. Ginzburg, M. Pasin, and B. Plateau. Athapascan runtime : Efficiency for irregular problems. In Proceedings of the Europar'97 Conference, pages 590-599, Passau, Germany, Aug 1997. Springer Verlag.

8 M. Brilman and J-M. Vincent. Synchronization by resource sharing : a performance analysis. Stochastic Models, 13(3):605-619, November 1997.

9 M. Brilman and J-M. Vincent. On the estimation of the throughput for a class of stochastic resources sharing systems. Mathematics of Operations Research, November 1998. à paraître.

10 Gerson G. H. Cavalheiro, Yves Denneuli, and Jean-Louis. Roch.

11 Gerson G. H. Cavalheiro, François Galilée, and Jean-Louis Roch. Athapascan-1: Parallel Programming with Asynchronous Tasks. In Proceedings of the Yale Multithreaded Programming Workshop, Yale, USA, june 1998. Postscripthttp://www-apache.imag.fr/gersonc/publications/yale98.ps.gz Abstracthttp://www-apache.imag.fr/gersonc/publications/yale98.txt.

12 Gerson G. H. Cavalheiro and Jean-Louis Roch. Un schéma modulaire pour l'écriture des ordonnanceurs. In RenPar'98, Strasbourg, France., June1998. Postcripthttp://www-apache.imag.fr/gersonc/publications/renpar98.ps.gz Abstracthttp://www-apache.imag.fr/gersonc/publications/renpar98.txt.

13 A.S. Charão, I. Charpentier, and B. Plateau. Using threads for developing parallel domain decomposition methods. In Workshop onIterative Domain Decomposition Methods and Communications in Parallel Computing, Journées Numériques de Besançon, Ballon d'Alsace, September 1997.

14 J. Chassin de Kergommeaux. Environnements et outils de mise au point. In Ordinateurs et calcul parallèles, volume 19 of ARAGO, chapter 14, pages 255-271. OFTA, 5, rue Descartes, 75005 Paris, 1997.

15 J. Chassin de Kergommeaux, B. de Oliveira Stein, and P. Waille. Mise au point d'applications parallèles irrégulières. In D. Barth, J. Chassin de Kergommeaux, J.-L. Roch, and J. Roman, editors, ICaRE'97: conception et mise en œuvre d'applications parallèles irrégulières de grande taille. CNRS, December

1997.

16 V.-D. Cung, P. Fraigniaud, T. Gautier, and D. Trystram. De l'algorithme au support. In D. Barth, J. Chassin de Kergommeaux, J.-L. Roch, and J. Roman, editors, ICaRE'97: conception et mise en oeuvre d'applications parallèles irrégulières de grande taille. CNRS, December 1997.

17 B. de Oliveira Stein and J. Chassin de Kergommeaux. Interactive visualisation environment of multi-threaded parallel programs. In Proceedings of ParCo'97. Elsevier, 1997. A paraître. 18 M. Doreille, B. Dumitrescu, J.-L. Roch, and D. Trystram. Influence of Scheduling on Actual High-performance Computing Applications. In Proceedings of PPAM'97 - 2nd International Conference on Parallel Processing and Applied Mathematics, pages 41-55, Zakopane, Poland, 1997.

19 M. Doreille, B. Dumitrescu, J.-L. Roch, and D. Trystram. Partitionnements par blocs bi-dimensionnels pour la factorisation parallèle de Cholesky. In Second Séminaire sur les Techniques Nouvelles de Traitement des Matrices Creuses pour les Problèmes industriels, Lille, April 1997.

20 M. Doreille, B. Dumitrescu, J.-L. Roch, and D. Trystram. Two-dimensional block partitionings for the parallel sparse cholesky factorization: the fan-in method. Technical Report RR-3156, INRIA, April 1997.

21 M. Doreille, B. Dumitrescu, J.-L. Roch, and D. Trystram. Two-dimensional block partitionings for the parallel sparse Cholesky factorization. Numerical Algorithms, 1998. A paraître.

22 M. Doreille, F. Galilé, and J.-L. Roch. Graphe de flot de données ATHAPASCAN et ordonnancement. In Denis Trystram André Schiper, editor, RenPar'9 -- 9èmes rencontres francophones du parallélisme, Lausanne, Suisse, May 1997.

23 B. Dumitrescu, M. Doreille, J.-L. Roch, and D. Trystram. Influence of scheduling on actual high-performance computing applications. Numerical Algorithms, 1998. à paraître.

24 A. Fagot. Réexécution déterministe pour un modèle procédural parallèle basé sur les processus légers(Résuméftp://ftp.imag.fr/pub/Mediatheque.IMAG/theses/97-Fagot.Alain/notice,

Postscriptftp://ftp.imag.fr/pub/Mediatheque.IMAG/theses/97-Fagot.Alain/these.ps.gz).

Thèse de doctorat en informatique, Institut National Polytechnique de Grenoble, France, September 1997.

25 P. Fernandes, B. Plateau, and W.J. Stewart. Efficient descriptor-vector multiplications in stochastic automata networks. JACM, (3):381-414, 1998.

26 P. Fernandes, B. Plateau, and W.J. Stewart. Optimizing tensor product computations in stochastic automata networks. RAIRO, Operations Research, (3):325-351, 1998.

27 François Galilée, Jean-Louis Roch, Gerson G. H. Cavalheiro, and Mahtias Doreille. A general modular specification for distributed schedulers. In Pact'98, Paris, France., Oct 1998.

28 F. Galilée and J.-L. Roch. Langages pour l'expression dynamique de parallélisme et graphe de tâches. In D. Barth, J. Chassin de Kergommeaux, J.-L. Roch, and J. Roman, editors, ICaRE'97: conception et mise en oeuvre d'applications parallèles irrégulières de grande taille. CNRS, December 1997.

29 T. Gautier and J.-L. Roch. computation of a gcd-free basis and application to parallel algebraic number computations. In Erich Kaltofen, editor, Parallel Symbolic Computation (PASCO'97), July 1997.

30 Ilan Ginzburg. Athapascan-0b : Intégration efficace et portable de multiprogrammation légère et de communications (Résuméftp://ftp.imag.fr/pub/Mediatheque.IMAG/theses/97-Ginzburg.Ilan/notice,

Postscriptftp://ftp.imag.fr/pub/Mediatheque.IMAG/theses/97-Ginzburg.Ilan/these.ps.gz).

Thèse de doctorat en informatique, Institut National Polytechnique de Grenoble, France, September 1997.

31 A. Goldman and D. Trystram. An efficient parallel algorithm for solving the knapsack problem on the hypercube. In Proceedings of IPPS (11th International Parallel Processing Symposium), Genève, Suisse, 1997. IEEE.

32 F. Guinand, C. Rapine, and D. Trystram. Worst case analysis of lawler's algorithm for scheduling trees with communication delays. IEEE Trans. on Parallel and Distributed Systems, 8(10), 1997.

33 F. Guinand and D. Trystram. Optimal scheduling of uect trees on two processors. RAIRO - Recherche Opérationnelle, 1998. à paraître.

34 J.-C. Konig, P.S. Rao, and D. Trystram. Analysis of gossiping algorithms with restricted biffers. Parallel Algorithms and Applications, 1998. à paraître.

35 J.-C. Konig and J.-L. Roch. Machines virtuelles et techniques d'ordonnancement. In D. Barth, J. Chassin de Kergommeaux, J.-L. Roch, and J. Roman, editors, ICaRE'97: conception et mise en oeuvre d'applications parallèles irrégulières de grande taille. CNRS, December 1997.

36 I. Kort and D. Trystram. Some results on scheduling flat trees in logp model. INFOR, 1998. à paraître.

37 N. Maillard, J.-L. Roch, and P. Valiron. Parallélisation du calcul ab-initio de l'énergie de corrélation électronique. In RenPar'9 -- 9èmes rencontres francophones du parallélisme, page 45, Lausanne, Suisse, May 1997.

38 J. Mattes, D. Trystram, and J. Demongeot. Parallel image processing using neural networks: applications in contrast enhancement of medical images. Parallel Processing Letters, 1998. à paraître.

39 É. Morel, J. Briat, and J. Chassin de Kergommeaux. Cuts and side-effects in distributed-memory or-parallel prolog. Parallel Computing, 22:1883-18896, 1997.

40 B. Plateau. Les réseaux d'automates stochastiques : présentation des principaux résultats. In Actes d'ISYPAR 97, École d'Informatique des Systèmes Parallèles et Répartis, IRIT, Toulouse, 1997.

41 B. Plateau and W.J. Stewart. Advances in Computational Probability, Chapter Stochastic Automata Networks. Kluwer Academic Publishers, 1998. à paraître.

42 M. Riviere. Concepts structurants pour la mise en œuvre d'applications irrégulières : Application au support exécutif parallèle Athapascan0mp. Thèse de doctorat en informatique, Université Joseph Fourier, Grenoble, France, October 1997.

43 J.-L. Roch and G. Villard. Parallel computer algebra. Technical report, Lecture notes for a tutorial, 1997. ISSAC'97.

44 F. Siewe, M. Tchuente, and J.-L. Roch. Sémantique dénotationnelle pour langages PRAM. In RenPar'9 -- 9èmes rencontres francophones du parallélisme, Lausanne, Suisse, may 1997.

45 F. Teodorescu and J. Chassin de Kergommeaux. On correcting the intrusion of tracing non deterministic programs by software. In Proceedings of EuroPar'97. Springer-Verlag, August 1997.

46 A. Tisserand, J-M. Muller, and J-M. Vincent. Asynchronous sublogarithmic adders. In IEEE Computer Society Press, editor, IEEE Pacific Rim Conference on Communication, Computers and Signal Processing, August 1997.

47 J-M. Vincent. On the (max,+)-structure of reservation systems. In European Control Conference, Brussels, July 1997.

48 J-M. Vincent. Some Ergodic Results on Stochastic Iterative Discrete Event Systems. Discrete Event Dynamic Systems, 7(2):209-232, 1997.

Publications 99 :

[1] Pierre-Eric Bernard, Thierry Gautier, and Denis Trystram. Large scale simulation of parallel molecular dynamics. In Proceedings of Second

Merged Symposium IPPS/SPDP 13th International Parallel Processing Symposium and 10th Symposium on Parallel and Distributed

Processing, San Juan, Puerto Rico, April 1999.

[2] Eric Blayo, Laurent Debreu, Grégory Mounié, and Denis Trystram. Topic 03 - dynamic load balancing for ocean circulation model with

adaptive meshing. In Patrick Amestoy, Philippe Berger, Michel Daydé, Iain Duff, Valérie Frayssé, Luc Giraud, and Daniel Ruiz, editors,

Euro-Par' 99 Parallel Processing - 5th International Euro-Par Conference, number 1685 in Lecture Notes in Computer Science, pages

303--312, September 1999.

[3] J. Blazewicz, M. Drozdowski, F. Guinand, and D. Trystram. Scheduling a divisible task in a two-dimensional toroidal mesh. DAMATH:

Discrete Applied Mathematics and Combinatorial Operations Research and Computer Science, 94:35--50, 1999.

[4] J. Blazewicz, K. Ecker, B. Plateau, and D. Trystram, editors. Handbook on Parallel and Distributed Processing. International Handbook on

Information Systems. Springer-Verlag, 1999.

[5] J. Briat and A. Carissimi. Intégration de threads et communications: une étude de cas. In 11$^\mbox(?)ème$ Rencontres francophones du

parallélisme, des architectures et des systèmes, Rennes, France, June 1999.

[6] Alexandre Carissimi. Le noyau exécutif Athapascan-0 et l'exploitation de la multiprogrammation légère sur les grappes de stations

multiprocesseurs. Thèse de doctorat en informatique, Institut National Polytechnique de Grenoble, France, November 1999.

[7] M. R. Castañeda-Retiz. Étude quantitative des mécanismes d'équilibrage de charge dans les systèmes de programmation pour le calcul

parallèle. Thèse de doctorat en informatique, Institut National Polytechnique de Grenoble, France, November 1999.

[8] Gerson-Geraldo-Homrich Cavalheiro. Athapascan 1 : Interface genérique pour l'ordonnancement dans un environnement d'exécution

parallèle. Thèse de doctorat en informatique, Institut National Polytechnique de Grenoble, France, November 1999.

[9] Gerson-Geraldo-Homrich Cavalheiro, Matthias Doreille, François Galilée, Thierry Gautier, and Jean-Louis Roch. Scheduling parallel

programs on non-uniform memory architecture s. In HPCA Conference -- Workshop on ``Parallel Computing for Irregular Applications

WPCIA1'', Orlando, USA, January 1999.

[10] A. S. Charão, I. Charpentier, and B. Plateau. A framework for parallel multithreaded implementation of domain decomposition methods. In

Proceedings of Parallel Computing'99, Delft, The Netherlands, August 1999. to appear.

[11] A. S. Charão, I. Charpentier, and B. Plateau. Programmation par objet et utilisation de processus légers pour les méthodes de décomposition

de domaine. Technique et Science Informatiques, 1999. to appear.

[12] A. S. Charão, I. Charpentier, and B. Plateau. Un environnement modulaire pour l'exploitation des processus légers dans les méthodes de

décomposition de domaine. In J.-L. Pazat and P. Quinton, editors, 11$^\mbox(?)ème$ Rencontres francophones du parallélisme, des

architectures et des systèmes, pages 145--150, Rennes, France, June 1999.

[13] J. Chassin de Kergommeaux and A. Fagot. Execution replay of parallel procedural programs. Journal of Systems Architecture, 1999.

accepted for publication.

[14] J. Chassin de Kergommeaux, M. Ronsse, and K. De Bosschere. Mpl*: efficient record/replay of nondeterministic features of message passing

libraries. In Proc. EuroPVM/MPI'99. Springer Verlag, September 1999.

[15] Benhur de Oliveira Stein. Visualisation interactive et extensible de programmes parallèles à base de processus légers. Thèse de doctorat

en informatique, Institut National Polytechnique de Grenoble, France, October 1999.

[16] Yves Denneulin and Jean-François Méhaut. Customizable thread scheduling directed by priorities. In Proceedings of Workshop on

Multi-Threaded Execution, Architecture and Compilation (MTEAC 99), joint with HPCA'5, Orlando, USA, January 1999.

[17] Yves Denneulin, Jean-François Méhaut, Benoit Planquelle, and Nathalie Revol. Parallelization of continuous verified global optimization. In

Proceedings of IFIP TC7 conference on System Modelling and Optimization., Cambridge, Angleterre, July 1999.

[18] Mathias Doreille. Athapascan 1 : vers un modèle de programmation parallèle adapté au calcul scientifique. Thèse de doctorat en

mathématiques appliquées, Institut National Polytechnique de Grenoble, France, December 1999.

[19] F. Galilée. Athapascan-1: interprétation distribuée du flot de données d'un programme parallèle. Thèse de doctorat en informatique,

Institut National Polytechnique de Grenoble, France, September 1999.

[20] Thierry Gautier and Niklaus Mannhart. Parallelism in aldor - the communication library piit for parallel, distributed computation. In

Proceedings of the Europar'99 Conference, Toulouse, France, August 1999.

[21] A. Goldman. Impact des modèles d'exécution pour l'ordonnancement en calcul parallèle. Thèse de doctorat en informatique, Institut

National Polytechnique de Grenoble, France, November 1999.

[22] F. Guinand and D. Trystram. Optimal scheduling of uect trees on two processors. RAIRO -- Recherche Opérationnelle, 1999. à paraître.

[23] I. Kort and D. Trystram. Some Results on Scheduling Flat Trees in LogP Model. Journal of Information Systems and Operational Research

(INFOR), 37(1), 1999.

[24] D. Kranzlmüller, J. Chassin de Kergommeaux, and Ch Schaubschläger. Correction of monitor intrusion for testing nondeterministic

mpi-programs. In Proc. Euro-Par'99, pages 154--158. Springer Verlag, August 1999.

[25] C. Labbé and J-M. Vincent. An efficient method for performance analysis of high speed networks : Hardware emulation. In XIV International

Symposium on Computer and Information Sciences (Iscis'99), Izmir, Turquie, October 1999.

[26] C. Labbé, J-M. Vincent, and P.Vrel. Analyse de perturbation de trafic atm en sortie d'un serveur fair queueing à l'aide d'une architecture

reconfigurable. In deuxième Congrès de la Société Française de Recherche Opérationnelle et d'Aide à la Décision (ROADEF'99), Autrans,

France, January 1999.

[27] É. Morel, J. Briat, J. Chassin de Kergommeaux, and C. Geyer. Side-effects in PloSys OR-parallel Prolog on distributed Memory Machines. In

Parallelism and Implementation of Logic and Constraint Logic Programming, chapter 9. NOVA Science Publishers, Inc, New York, USA,

1999.

[28] Grégory Mounié, Christophe Rapine, and Denis Trystram. Efficient approximation algorithms for scheduling malleable tasks. In Eleventh

ACM Symposium on Parallel Algorithms and Architectures (SPAA'99), pages 23--32, June 1999.

[29] F. Ottogalli and J-M Vincent. Mise en cohérence et analyse de traces multi-niveaux. In première Conférence Française sur les Systèmes

d'Exploitation (CSFE'1), Rennes, France, June 1999.

[30] Mareclo Pasin. Mouvement efficace de données pour la programmation parallèle irrégulière. Thèse de doctorat en informatique, Institut

National Polytechnique de Grenoble, France, November 1999.

[31] B. Penz, C. Rapine, and D. Trystram. Sensitivity analysis for total completion time scheduling algorithms. In ECCO XII, Conference of the

European Chapter on Combinatorial Optimization, 1999.

[32] B. Penz, C. Rapine, and D. Trystram. Une classe d'heuristiques par appariement pour le problème de flowshop à deux machines. Journal

Européen des Sytèmes Automatisés, 1999. à paraître.

[33] Bernard Penz, Christophe Rapine, and Denis Trystram. Une classe d'heuristiques par appariement pour le problème du flow-shop a deux

machines. In deuxième Congrès de la Société Française de Recherche Opérationnelle et d'Aide à la Décision (ROADEF'99), Autrans, France,

January 1999.

[34] B. Plateau, R. Jungblut, W. Stewart, and B. Ycart. Simulation performante pour les réseaux d'automates stochastiques. In Actes de ROADEF,

Deuxième congrès de la société Française de Recherche Opérationnelle et Aide à la décision, Autrans, 1999.

[35] B. Plateau and W.J. Stewart. Advances in Computational Probability, Chapter Stochastic Automata Networks, Ed. Winfried Grassmann,

chapter Stochastic Automata Network. International Series in Operations Research and Management Science, Vol. 24, Kluwer Academic

Publishers, 1999.

[36] B. Plateau and D. Trystram. chapter Parallel and Distributed Computing : state-of-art and emerging trends. International Handbook on

Information Systems. Springer-Verlag, 1999.

[37] B. Robic R. Lepere, G. Mounie, D. Trystram. Malleable tasks: an efficient model for solving actual parallel applications. In Parallel

Computing, Parco99, Book of Abstracts, page 59, August 16-20 1999.

[38] Christophe Rapine. Algorithmes d'approximation garantie pour l'ordonnancement de tâches. Thèse de doctorat en informatique, Institut

National Polytechnique de Grenoble, France, January 1999.

[39] M. Ronsse, J. Chassin de Kergommeaux, and K. De Bosschere. Execution replay for an mpi-based multi-threaded runtime system. In Proc.

ParCo99, August 1999. presented at the conference. To appear in the proceedings.

[40] J-M. Vincent. Parallelism: from applications to portable implantations. In premières Journées Franco-Mexicaines d'Informatique et

Automatique (JFMIA'99), Xalapa, Mexique, March 1999.

 

 

L'équipe de recherche SIRAC

Responsable scientifique : Roland Balter professeur UJF

Assistante de projet : Béatrice Claudio (contractuelle)

Personnel Inria

Daniel Hagimont (CR1)

Claude Castelluccia (CR2)

Personnel INPG

Luc Bellissard maître de conférences

Jacques Mossière professeur

Michel Riveill professeur

Xavier Rousset de Pina professeur

Christine Lacombe Ingénieur d'Etude

Personnel UJF

Sacha Krakowiak professeur

Fabienne Boyer maître de conférences

Chercheurs post-doctorants

Povl Koch université de Copenhague

Chercheurs doctorants

Sarha Bouchenak-Khelladi contractuel

Eric Bruneton allocataire CNET

Emmanuel Cecchet allocataire MENESR

Noël dePalma allocataire MENESR

Thierry Ernst Cifre Motorola

Leila Ismail bourse gvt. libanais

Christian Jensen contractuel

Vladimir Marangozov allocataire MENESR

Marie-Claude Pellegrini bourse CNET

Jean-Yves Vion-Dury Cifre Xerox

Ingénieurs contractuels

Loïc Decloedt

Olivier Fambon

David Foliot

Maria Serrano

L'équipe Sirac est une Unité propre de l'Enseignement Supérieur (EA 2412 : Université J. Fourier et Institut National Polytechnique de Grenoble). Sirac est également un projet INRIA de l’Unité de Recherche Rhône Alpes.

Le domaine de recherche couvert par l’unité est la construction de systèmes et d’applications informatiques répartis. L’objectif global du projet est de fournir des services et outils pour le développement et l’exécution d’applications réparties. L’activité scientifique de Sirac s'est organisée autour d’un petit nombre de projets finalisés, à dominante expérimentale, avec des objectifs précis et un calendrier de réalisation. Les axes de recherche considérés en priorité concernent :

  1. le support système pour la construction de serveurs d’information à haute performance,
  2. les outils et méthodes pour la construction d’applications réparties,
  3. les protocoles et services système pour l’accès mobile à l’Internet.

Le projet présenté ici relève du premier axe de recherche. Depuis plusieurs années, l'équipe du projet Sirac s'intéresse aux approches fondées sur la gestion d'une mémoire virtuelle partagée pour réaliser le partage de données réparties. Cela a conduit, entre autres, à la réalisation d'un système de gestion globale de mémoire (ARIAS) pour des grappes de machines interconnectées par un réseau Ethernet. Depuis un an, le projet a entrepris un travail visant à exploiter les possibilités d’un réseau d’interconnexion SCI pour la réalisation de serveurs de calcul performants, cette activité est menée en liaison avec les équipes APACHE (LMC/IMAG), CAPS (IRISA), ESPACE (LIFL), ReMaP (LIP) déjà mentionnées et reçoit un soutien financier de l'INRIA.

 

Publications de l’Unité SIRAC (1996-1998)

 

[Balter 98]

R. Balter, L. Bellissard, F. Boyer, M. Riveill and J.Y. Vion-Dury, "Architecturing

and Configuring Distributed Applications with Olan", Proc. IFIP Int. Conf. on

Distributed Systems Platforms and Open Distributed Processing (Middleware'98), The

Lake District, 15-18 September 1998 [to appear]

[Bellissard 98a]

L. Bellissard, F. Boyer, M. Riveill and J.Y. Vion-Dury, "System Services for

Distributed Application Configuration", Proc. of the 4th IEEE Intn'l Conf. on

Configurable Distributed Systems (ICCDS'98), Annapolis MD, 4-6 May 1998.

[Bellissard 98b]

L. Bellissard, N. de Palma, M. Riveill , "Dynamic Reconfiguration of Agent-Based

Applications", ACM European SIGOPS Workshop, Sintra, 7-10 Sept. 1998 [to

appear]

[Castelluccia 98]

A Hierarchical Mobility Management Scheme for IPv6. Third Symposium on

Computers and Communications (ISCC'98), Athens, Greece, June 1998. [to appear]

[Hagimont 98]

D. Hagimont, D. Louvegnies, "Javanaise: Distributed Shared Objects for Internet

Cooperative Applications", Proc. IFIP Int. Conf. on Distributed Systems Platforms

and Open Distributed Processing (Middleware'98), The Lake District, 15-18

September 1998 [to appear]

[Jensen 98a]

C. Jensen, D. Hagimont, "Protection Reconfiguration for Reusable Software",

Proceedings of the 2nd Euromicro Conference on Software Maintenance and

Reengineering, Florence, March 1998, pp. 74-80.

[Jensen 98b]

C. Jensen, "Secure Software Architectures", Proc. 8th Nordic Workshop on

Programming Environment Research (NWPER'98), Bergen, 14-16 june 1998 [to

appear]

[Jensen 98c]

C. Jensen, D. Hagimont, "Protection Wrappers: a Simple and Portable Sandbox for

Untrusted Applications", ACM European SIGOPS Workshop, Sintra, 7-10 Sept.

1998 [to appear]

[Koch 98]

P. Koch, X. Rousset de Pina, "Flexible Operating System Support for SCI

Clusters", Proc. EuroPar'98, Southampton, 1-4 Sept. 1998. [to appear]

[Balter 97]

R. Balter, S. Krakowiak, "Rétrospective sur le projet Guide : un environnement à

base d'objets pour applications réparties", L'Objet, vol. 3 (2), pp. 113-140, juin 1997.

[Castelluccia 97a]

C. Castelluccia, V. Roca, "Mobile Access to the Internet: Improving Performance

with Movement Prediction", Proc. HIPPARCH'97, Uppsala, Sweden, June 1997.

[Castelluccia 97b]

C. Castelluccia, "Generating efficient protocol code from abstract specifications",

Technique et Science Informatiques, vol. 16 (9), pp. 1141-1164, 1997

[Dechamboux 97]

P. Dechamboux, A. Knaff, "Reliable Support for a Persistent Distributed Shared

Memory", Proc. 17th Int. Conf on Distributed Computing Systems (ICDCS'97),

Baltimore, 27-30 May 1997, pp. 68-77.

[Hagimont 97a]

D. Hagimont, O. Huet, J. Mossière, "A Protection Scheme for a CORBA

Environment", ECOOP'97 Workshop on CORBA: Implementation, Use and

Evaluation, Jyväskyllä, Finland, 10 June 1997, [to appear (IEEE)].

[Hagimont 97b]

D. Hagimont, L. Ismaïl, "A Protection Scheme for Mobile Agents on Java", Proc.

Third ACM/IEEE Int. Conf on Mobile Computing and Networking (MobiCom'97),

Budapest, 26-30 September 1997.

[Hagimont 97c]

D. Hagimont, L. Ismaïl, "Contrôle d'accès dans un système à agents mobiles sur

Java", Notere'97, Colloque International sur les Nouvelles Technologies de la

Répartition, Pau, 4-6 novembre 1997.

[Jensen 97a]

C. Jensen, L. Ismaïl, "Capability-Based Protection for Hosting Mobile Code", Proc.

2nd European Research Seminar on Advances in Distributed Systems (ERSADS'97),

Zinal, 17-21 March 1997, pp. 234-239.

[Jensen 97b]

C. Jensen, " Reducing Complexity of Distributed Application Protection ", presented

at the 4th Cabernet Radicals Workshop, Rithmynon, Crete, September 1997.

[Marangozov 97]

V. Marangozov, L. Bellissard, J.-Y. Vion-Dury, M. Riveill, "Connectors: a Key

Feature for Building Distributed Component-Based Architectures", Proc. 2nd

European Research Seminar on Advances in Distributed Systems (ERSADS'97),

Zinal, 17-21 March 1997, pp. 246-251.

[Pérez Cortés 97]

E. Pérez Cortés, J. Mossière, "Adaptable Consistency Protocols in a Distributed

Shared Memory", Technique et Science Informatiques, vol. 16 (10), pp. 1283-1310,

1997

[Roca 97]

V. Roca, T. Braun, C. Diot, "Demultiplexed Architectures, a Solution for Efficient

Streams-Based Communication Stacks", IEEE Networks Journal, July-August 1997

[to appear].

[Vion-Dury 97a]

J.-Y. Vion-Dury, L. Bellisssard, V. Marangozov, "A Component Calculus for

Modelling the Olan Configuration Language", Proc. Second Int. Conf. on

Coordination Models and Languages, (COORDINATION'97), Berlin, 1-3 September

1997.

[Vion-Dury 97b]

J.-Y. Vion-Dury, F. Pacull, "A Structured Interactive Workspace for a Visual

Configuration Language", Proc. 13th IEEE Symposium on Visual Languages

(VL'97), 23-26 September 1997.

[Bellissard 96a]

L. Bellissard, S. Ben Atallah, F. Boyer, M. Riveill, "Distributed Application

Configuration", Proc. 16th International Conference on Distributed Computing

Systems, pp. 579-585, IEEE Computer Society, Hong-Kong, May 1996.

[Bellissard 96b]

L. Bellissard, M. Riveill, "From Distributed Objects to Distributed Components: the

Olan Approach.", Workshop Putting Distributed Objects to Work, ECOOP'96, Linz,

Austria, Juillet 1996.

[Dechamboux 96a]

P. Dechamboux, D. Hagimont, M. Lopez, "Using a Distributed Shared Memory for

Implementing Efficient Information Mediators", Poster Session, High Performance

Computing and Networking (HPCN Europe 96), Bruxelles, 16-18 April 1996.

[Dechamboux 96b]

P. Dechamboux, D. Hagimont, J. Mossière, X. Rousset de Pina, "Un serveur de

gestion de données persistantes réparties", Rencontres du Parallélisme (RENPAR'8),

Bordeaux, 20-24 Mai 1996.

[Dechamboux 96c]

P. Dechamboux, D. Hagimont, J. Mossière, X. Rousset de Pina, "The Arias

Distributed Shared Memory: An Overview", 23rd Seminar on Current Trends in

Theory and Practice of Informatics, Milovy, Czech Republic, Nov. 1996, in

SOFSEM'96 :Theory and Practice of Informatics(K. Jeffery, J. Kral, M. Bartosek,

editors), Lecture Notes in Computer Science nr. 1175, 1996

[Hagimont 96a]

D. Hagimont, J. Mossière, "Problèmes de désignation, de localisation et d'accès dans

les systèmes répartis à objets", Technique et Science Informatiques, 15, 1, pp. 9-36,

1996.

[Hagimont 96b]

D. Hagimont, J. Mossière, X. Rousset de Pina, F. Saunier, "Hidden Software

Capabilities", Proc. 16th International Conference on Distributed Computing

Systems, pp. 282-289, IEEE Computer Society, Hong-Kong, May 1996.

[Hagimont 96c]

D. Hagimont, J. Mossière, X. Rousset de Pina, "Hidden Capabilities: Towards a

Flexible Protection Utility for the Internet", ACM European SIGOPS Workshop,

Connemara, Eire, Sept. 1996.

[Hagimont 96d]

D. Hagimont, J. Mossière, X. Rousset de Pina, P.-Y, Chevalier, "Le système réparti

à objets Guide", Technique et Science Informatiques, numéro spécial sur les Systèmes

à Objets, vol. 15 (6), pp. 801-830, 1996.

[Jensen 96]

C. Jensen, "Répartition de charge dans un système à objets. Expérience avec

différentes tailles d'objets dans Guide-2", Calculateurs parallèles, vol. 8 (1), 1996.

[Oueichek96a]

I. Oueichek, X. Rousset de Pina, "Dynamic Configuration Management in the Guide

Object-Oriented Distributed System", Proc. International Conference on Configurable

Distributed Systems (ICCDS) , Annapolis, MD, USA, May 6-9, 1996.

[Oueichek 96b]

I. Oueichek, X. Rousset de Pina, "Configuration Management in the Guide

Distributed System", Proc. 2nd IEEE Systems Management Workshop ,Toronto,

June 19-21, 1996.

[Pérez Cortés 96]

E. Pérez-Cortés, J. Han, J. Mossière, "Construction de protocoles de cohérence sur

une interface générique de mémoire répartie partagée", Journées sur la Mémoire

Partagée Répartie (MPR'96), Bordeaux, Mai 1996.

[Saunier 96]

F. Saunier, "Service de protection d'une mémoire virtuelle répartie dans Sirac",

Journées sur la Mémoire Partagée Répartie (MPR'96), Bordeaux, Mai 1996

(également : Journée des Jeunes Chercheurs, Réseau Doctoral en Architecture des

Systèmes et des Machines Informatiques, Irisa, Rennes, octobre 1995.)

 

Thèses de l’Unité SIRAC (1996-1998)

 

D. Hagimont, Accès à l'information répartie : adressage et protection, Mémoire d'habilitation à diriger des recherches en informatique, Institut National Polytechnique de Grenoble, avril 1998

S. Ben Atallah, Architectures système pour la construction et l'exécution de collecticiels, Université de Savoie, juin 1997

L. Bellissard, Construction et configuration d'applications réparties, Institut National Polytechnique de Grenoble, décembre 1997

A. Danes, Service transactionnel souple pour systèmes répartis à objets persistants , Université Joseph Fourier, octobre 1996

J. Han, Motivation, conception et réalisation d'une mémoire virtuelle partagée répartie, Institut National Polytechnique de Grenoble, novembre1996

A. Knaff, Conception et réalisation d'un systèmede stockage fiable extensible pour un système à objets persistants répartis, Université Joseph Fourier, octobre 1996

E. Lenormand, Coordination d'activités dans unsystème réparti, Université Joseph Fourier, novembre 1996

Y. Laribi, Sauvegarde et reprise d'activités dans un système réparti, Institut National Polytechnique de Grenoble, novembre 1996

I. Oueichek, Conception et réalisation d'un noyau d'administration pour un système réparti à objets persistants, Institut National Polytechnique deGrenoble, octobre 1996

E. Pérez Cortés, La cohérence sur mesure dans une mémoire virtuelle partagée répartie, Institut National Polytechnique de Grenoble, octobre 1996

F. Saunier, Protection d'une mémoire virtuelle répartie par capacités implicites, Institut National Polytechnique de Grenoble, octobre 1996

D. Veillard, Conception et réalisation d'un protocole de diffusion fiable pour réseaux locaux, Université Joseph Fourier, février 1996

 

 

 

L'équipe de recherche ReMaP

Responsable scientifique : Yves Robert professeur ENS Lyon

Assistante de projet : Valérie Roger-Ubéda Adjointe administratif ENS Lyon, 30 % sur le projet

Sylvie Boyer Contractuelle, 50 % sur le projet

Personnel Inria

Frédéric Desprez (CR1)

Jean-François Méhaut (CR2), détaché de l'université. Lille~1 depuis le 01/10/98

Personnel CNRS

Alain Darte (CR1)

Loïc Prylli (CR2)

Jean-Christophe Mignot (Ingénieur Recherche)

Personnel ENS-LYON

Luc Bougé professeur

Lionel Brunie maître de conférences, départ le 01/09/98

Raymond Namyst maître de conférences

Chercheurs doctorants

Gabriel Antoniu allocataire MENRT, arrivée le 01/09/98

Alice Bonhomme allocataire Cifre MSI, arrivée le 01/09/98

Vincent Boudet élève ENS Cachan, arrivée le 01/09/98

Frédérique Chaussumier allocataire Cifre MSI, arrivée le 01/09/98

Stéphane Domas allocataire MENRT

Guillaume Huard allocataire MENRT, arrivée le 01/09/98

Emmanuel Jeannot allocataire MENR

Ahmed Mostefaoui boursier algérien MAE

Christian Perez allocataire moniteur normalien

Cyril Randriamaro boursier DRET

Fabrice Rastello allocataire MENRT

Olivier Reymann allocataire MENRT

Nicolas Schabanel allocataire moniteur normalien

Georges-André Silber boursier DRET

Ingénieurs contractuels

Christophe Barberet ingénieur étude ENS Lyon, départ le 31/05/98

Rémi Choquet ingénieur étude Inria, arrivée le 01/09/98

David Jourand ingénieur étude Inria, départ le 31/12/98

Gilles Lebourgeois ingénieur étude Inria, départ le 31/10/98

Christelle Saintier assistante ingénieur Inria

Lionel Tricon ingénieur étude Inria, départ le 30/06/98

 

Articles et thèses du projet ReMaP (en 1998)

 

L.Boeszormenyi, L.Brunie, K.Hameurlain, K.H. (réd.),

Parallel databases : innovative applications and new architectures (in conjunction with DEXA'98),

Vienna, Austria, IEEE Computer Society Press, septembre 1998.

J.Dongarra, B.Tourancheau (réd.),

Clusters and Computational grids for Scientific Computing IV,

Townsend, Tennessee, USA, University of Tennessee, Knoxville, mai 1998,

http://www.cs.utk.edu/~dongarra/blackberry.html

D.Cachera,

Validation formelle des langages à parallélisme de données,

Thèse de doctorat, Ecole Normale Supérieure de Lyon, janvier 1998,

\url{ftp://ftp.lip.ens-Lyon.fr/pub/LIP/Rapports/PhD/PhD1998/PhD1998-01.ps.Z

S.Domas,

Contribution à l'écriture et à l'extension d'une bibliothèque d'algèbre linéaire parallèle,

thèse de doctorat, Ecole Normale Supéerieure de Lyon, octobre1998,

\url{ftp://ftp.lip.ens-lyon.fr/pub/LIP/Rapports/PhD/PhD1998/PhD1998-06.ps.Z

L.Prylli,

Réseaux et Systèmes de Communication Locaux: Etude des couches logicielles de base,

thèse de doctorat, Ecole Normale Supérieure de Lyon, janvier 1998,

\url{http://lhpca.univ-lyon1.fr/~lprylli/These.ps.gz

P.Boulet, A.Darte, G.-A. Silber, F.Vivien,

"Loop parallelization algorithms: from parallelism extraction to code generation",

Parallel Computing 24, 3, 1998, p.421--444.

L.Brunie, H.Kosch,

"From the modelling of parallel relational query processing to the query optimization and simulation",

Parallel Processing Letters 8(1)}, mai 1998.

D.Cachera,

"Prouver des programmes {Alpha} : l'approche externe",

Technique et science informatiques (TSI) 17, 5, 1998, p.589--612,

Numéro spécial des meilleures communications de RenPar'9, EPFL, Lausanne, 1997.

P.-Y. Calland, A.Darte, Y.Robert, F.Vivien,

"On the removal of anti- and output-dependences",

Int. J. Parallel Programming 26, 3, 1998, p.~285--312.

P.-Y. Calland, A.Darte, Y.Robert},

"Circuit retiming applied to decomposed software pipelining ",

IEEE Trans. Parallel Distributed Systems 9, 1, 1998, p.24--35.

A.~Darte,

"Mathematical tools for loop transformations: from systems of uniform recurrence equations to the polytope model",

in,: Algorithms for Parallel Processing}, M.Heath, A.Ranade, et R.Schreiber (réd.), IMA Volumes in Mathematics and its Applications, 105, Springer Verlag, 1998.

F.Desprez, J.Dongarra, A.Petitet, C.Randriamaro, Y.Robert,

"Scheduling block-cyclic array redistribution", IEEE Trans. Parallel Distributed Systems 9, 2, 1998, p.192--205.

F.Desprez, J.Dongarra, F.Rastello, Y.Robert,

"Determining the idle time of a tiling: new results",

Journal of Information Science and Engineering 14, 1998, p.167--190.

A.Ferreira, C.Kenyon, A.Rau-Chaplin, S.Ubéda,

"d-Dimensional Range Search on Multicomputers",

Algorithmica, 1998, A paraître.

A.Ferreira, A.Rau-Chaplin, S.Ubéda,

"Scalable 2d Convex Hull and Triangulation Algorithms for Coarse Grained Multicomputers",

Journal of Parallel and Distributed Computing, 1998, A paraître.

A.Ferreira, S.Ubéda,

"Computing the Medial Axis Transform in Parallel With Eight Scan Operations,

IEEE Trans. on Pattern Analysis and Machine Intelligent 21, 1, 1998, A paraître.

M.Herbert, F.Naquin, L.Prylli, B.Tourancheau, R.Westrelin,

"Protocole pour le (Gbit/s) en réseau local: l'expérience Myrinet",

Calculateurs Parallèles, Réseaux et Systèmes Répartis 10, 1, février 1998, p.35--54,

\url{http://lhpca.univ-lyon1.fr/PUBLICATIONS/pub/BIP-CP.ps.gz}.

J.-F. Méhaut, I.Demeure,

"Environnements d'exécution pour applications parallèles; exemples: PVM et MPI",

in,: Calculateurs parallèles, réseaux et systèmes répartis, J.-P. Arcangeli et A.~Hameurlain (réd.),

Hermès, 1998, Ecole Isypar'98, A paraître.

R.Namyst, Y.Denneulin, J.-M. Geib, J.-F. Méhaut,

"Utilisation des processus légers pour le calcul parallèle distribué : l'approche PM2",

Calculateurs parallèles, réseaux et systèmes répartis 10, 3, juillet 1998, p.237--258.

L.Prylli, B.Tourancheau,

"Execution-driven simulation of parallel applications",

Parallel Processing Letters 8, 1, 1998, p.95--109,

\url{http://lhpca.univ-lyon1.fr/PUBLICATIONS/pub/PT97.ps.gz}.