CIMENT

Calcul Intensif, Modélisation,

Expérimentation Numérique et Technologique

Actualisation du projet – Mai 2000

Laurent Desbat

Chargé de Mission pour le Calcul Scientifique

Université Joseph Fourier

Grenoble.

TIMC-IMAG, UMR CNRS 5525,

IAB, Faculté de Médecine, UJF

38706 La Tronche

04 76 54 96 00

Laurent.Desbat@imag.fr

 

 

  1. Introduction

Depuis plusieurs années les Universités scientifiques grenobloises, l’Institut National Polytechnique de Grenoble, l’Institut National de Recherche en Informatique et en Automatique, l’Université Joseph Fourier, en particulier l’institut d’Informatique et de Mathématiques Appliquées de Grenoble et l’Observatoire de Grenoble, mènent une réflexion sur de l’accès aux moyens de calcul pour la modélisation numérique des phénomènes mathématiques, physiques, chimiques ou biologiques. Cet accès s’articule autour de :

L'objectif de cette réflexion a été de coordonner, au sein des nos universités, les projets de calcul et de modélisation avec le développement des réseaux et l'attribution des postes d'ingénieur en informatique d'une part et de veiller à une bonne articulation de ces projets avec le développement des moyens de calcul nationaux d'autre part.

Nous sommes tout d'abord convaincus de la nécessité d’encourager le partenariat régional autour du centre de calcul du CEA. C’est une chance, pour les laboratoires des universités de la région Rhône Alpes, d’avoir un accès souple à des moyens de calcul d'une dimension nationale. Cette souplesse d’accès peut-être essentielle pour la préparation des demandes de temps de calcul auprès de l’IDRIS et du CINES. Cependant, une partie des besoins en matière de calcul restent mal couverts par les centres nationaux. Les solutions de type intermédiaire peuvent avoir un rapport performance sur prix bien meilleur que les " supercalculateurs " pour des temps de calcul raisonnables, voire meilleurs pour certaines applications. Les machines de dimension nationale doivent être déchargées des phases de développement et de test. Enfin, les techniques de modélisation et du calcul intensif doivent être diffusées au sein des communautés qui n’y sont pas familiarisées alors que leurs problèmatiques scientifiques s’ouvrent maintenant largement vers le calcul numérique intensif : c’est particulièrement le cas dans le domaine des sciences du vivant (biologie, génétique, santé).

Des regroupements de laboratoires ont démontré que des projets de calcul intensif, basés sur des matériels de type intermédiaire entre les machines des centres nationaux et les petits équipements des laboratoires, pouvaient très efficacement répondre à des besoins de calcul. Le SCCIOG et la plate forme MIRAGE en sont de parfaits exemples. La modélisation et le calcul intensif induisent de nombreuses collaborations entre biologistes, chimistes, mathématiciens, médecins, numériciens, physiciens. L'Atelier de Modélisation, séminaire trimestriel organisé par Philippe Peyla de l'Institut de la Matière Condensé illustre bien l'intérêt de regrouper mathématiciens et physiciens autour des problèmes de modélisation et de simulation numérique. L'essor des bases de données et des opérations complexes qu'elles effectuent, de la modélisation et du calcul en biologie et médecine, implique le recours à des moyens de calcul puissants. De plus, la mise en commun de compétences et leur coordination permet des économies d’échelle et contribue à une meilleure cohérence et performance globale. Nous citons par exemple le CRIP (Centre de Ressources Informatiques et de Proximité) de l'UJF dirigé par Jacques Eudes et la structure RMI (Réseau et Moyens Informatiques) de l’IMAG dirigé Pierre Laforgue.

Pour toutes ces raisons, nous avons demandé depuis le printemps 1998 aux utilisateurs de nos universités d’exprimer leurs besoins en matière de calcul et d’élaborer des projets associés. Cette enquête a permis de confirmer l'intérêt fort de la communauté scientifique Grenobloise pour le calcul intensif. L'UJF a donc mis le thème du calcul intensif comme prioritaire dans le Contrat de Plan Etat Région. En 1999 deux projets ont obtenu un soutien du MENRT (dans le cadre de l’appel à projet de Guy René Perrin, pour l’équipement en matière de calcul) et du COMI CNRS : Le Service Commun de Calcul Intensif de l’Observatoire de Grenoble et la plate forme MIRAGE (Méso-Informatique Répartie pour des Applications en Géophysique et en Environnement). Le projet de Grappe de 200PC de la communauté de l'informatique et du parallélisme a reçu un soutien du MENRT et a continué son expérimentations des différentes solutions (en particulier au niveau des réseaux d’interconnexion) pendant la phase de bouclage du financement du projet. Enfin les autres projets en gestation ont mûri.

Pendant cette première phase de développement des projets CIMENT nous avons:

  1. Donné, au niveau du campus, une priorité aux projets CIMENT pour le déploiement des réseaux rapides (GigaBit). Le CRIP prévoit d’ici 2 ans une migration du réseau fédérateur de l'UJF de la technologie 10/100 vers la technologie 100/1000. Cette évolution nécessite la pose à certains endroits (contraintes de distance) de fibres monomodes et le déploiement de matériels actifs de technologie "Gigabit". Les projets de calcul intensif bénéficient du déploiement de ces technologies.
  2. Mis en place un conseil scientifique qui joue le rôle de comité de suivi et de pilotage du projet CIMENT (Sa première réunion aura lieu le 28 septembre 2000, cf. http://ujf-grenoble.fr/CIMENT)
  3. Mis en place un séminaire trimestriel (cf. http://ujf-grenoble.fr/CIMENT).
  4. Soutenu le projet MIRAGE par la création d’un poste d’Ingénieur de Recherche UJF. Au niveau de la politique d'attribution des postes, l'UJF retient comme critère d'affectation l'aspect fédérateur des projets. Les projets de calcul intensifs mettent en commun des moyens et des compétences. Ils bénéficient donc du soutien de l'UJF en matière de postes d'ingénieurs.
  5. Contribué à la structuration des projets de calcul au niveau des universités grenobloises. Ainsi, le projet " Couplage modélisation hydrologique et météorologique " de G.M. Saulnier et B.Galabertier, s’est associé au projet MIRAGE. Les projets d’analyse génétique spatialisée de Taberlet et de biologie informatique se sont associés au projet d’imagerie médicale pour donner le projet BIoIMAGe (Biologie Informatique, Imagerie, Modélisation et Analyse Génétique). Le projet PhyNum pourrait s’associer au SCCIOG d’ici son déploiement. L’intérêt de tels regroupements est évident en terme d’économie d’échelle engendrée au niveau des ingénieurs mais aussi des interactions scientifiques qu’ils favorisent.
  6. Participé au projet RNRT Grille.fr (coordonné par Christian Michau du CNRS) de metacomputing au niveau national. Le projet, déposé en mai 2000, prévoit le raccordement rapide de plates formes de calcul au réseau national Vraiment Très Haut Débit. Nous avons proposé l’utilisation de nos ressources de calcul (en particulier la grappe de 200 PC) pour des expérimentations numériques et technologiques dans ce contexte ainsi que des problèmes scientifiques qui devraient tirer profit du développement du metacomputing au niveau local et national.
  7. Participé à la journée CINES-IDRIS de l’automne 1999 par un exposé du projet de CIMENT et plus particulièrement du SCCIOG
  8. Débuté une réflexion sur un projet de formation au Calcul Haute Performance au niveau du troisième cycle.

Nous proposons le plan de financement suivant pour les projets dans le cadre du CPER :

Dans la partie suivante, nous présentons les fiches de tous les projets de CIMENT.

Seuls les 4 projets à financer entre 2000-2003 (grappe de 200 PC, Chimie Calculatoire, BIoIMAGe , PhyNum) sont décrits dans le détail en troisième partie. Les deux premiers (SCCIOG et MIRAGE) ont déjà fait l’objet d’une évaluation et seront évalués par le conseil scientifique de CIMENT. Un bilan de leur activité sera effectué avant leur jouvence programmée en 2004.

  1. Les fiches projets
    1. Service Commun de Calcul Intensif de l’Observatoire de Grenoble :
    2. Directeur de l’Observatoire : Guy Perrier

      Responsable scientifique : Pierre Valiron; Responsable technique : Françoise Roch.

      1. Projets de Modélisation à l’Observatoire

Les thèmes qui mettent en jeu l’utilisation du SCCI sont nombreux. Le centre de ressources informatiques (au sens large) est impliqué dans la quasi totalité des publications des 3 pôles (LGIT, LAOG, SGEP-LIS) qui constituaient l’Observatoire à la fin 1999. Nous donnons ci-dessous un synoptique des principaux projets de modélisation à l’Observatoire, ces projets ont été détaillés dans le document présenté au COMI et à CIMENT 98.

a/ Modélisation au LAOG (Laboratoire d’Astrophysique):

b/ Modélisation au LGIT (Laboratoire de Géophysique et Techtonophysique):

c/ Modélisation en Planétologie :

d/ Modélisation des ondes sismiques au SGEP/LIS (J. Mars, A. Essebar, N. Thirion, M. Bouhmadi, Leroux).

      1. Rayonnement du projet
      2. Le SCCI est un service de proximité, souple d’utilisation. Il permet une sensibilisation directe des chercheurs et des thésards aux possibilités offertes par les modélisations. La constitution de ce service a contribué au renforcement et souvent à l’émergence des projets de recherche centrés sur la modélisation, fréquemment basés sur des collaborations transdisciplinaires (collaborations dans les domaines de la physique, la chimie, les mathématiques pures et appliquées, l’informatique).

        Ce centre est utilisé par tous les chercheurs, les thésards des laboratoires de l’Observatoire, mais également par tous les stagiaires, issus de différentes formations, et notamment par les étudiants du DEA d’Astrophysique et de l’école doctorale TUE.

        Les moyens de calcul intensif sont impliqués dans toutes les publications ayant mis en œuvre des modélisations importantes. Une large fraction des thèses en cours mettent en jeu l’utilisation des calculateurs du service commun.

        La structure mise en place facilite le partage d’expérience à la fois sur un plan scientifique et sur un plan technique. La cohérence des moyens et le rapprochement des laboratoires autour d’une structure commune favorise le partage de compétences pour la modélisation et le traitement de données dans l’Observatoire.

        Ainsi le service commun joue aujourd’hui un rôle prépondérant en support aux recherches en modélisations et simulations numériques au sein de l’Observatoire.

         

      3. Mise en œuvre de l’équipement
      4. Début 99, l’Observatoire était muni d’un réseau homogène de stations IBM. Le parc de calcul intensif était lui-même constitué de 8 serveurs IBM RS6000 totalisant une puissance crête de 2.5 Gflops et un puissance effective de l’ordre de 250 à 600 Mflops comparable à la puissance d’un processeur de Cray C90, et un espace mémoire global de 5.5 Giga-octets.

        Le projet SCCI engagé en 99 concerne l’évolution de l’architecture des moyens de calcul intensif communs de l’Observatoire. L’architecture "ferme de stations" choisie pour équiper le site en 1990 était la technologie qui s’imposait à l’époque pour le calcul intensif, au niveau de l’Observatoire. La forte croissance des besoins de modélisation et l’élargissement de l’OSUG à d’autres composantes SDU nous ont conduit à envisager la mise en place d’une architecture présentant une réelle rupture technologique permettant de gagner un ordre de grandeur sur la taille des calculs supportés par le centre. Les architectures qui correspondent aujourd’hui à nos besoins sont les machines multi-processeurs SMP. Une large partie des modélisations lourdes de l’Observatoire très gourmandes en espace mémoire et bien adaptées à la parallélisation sont capables de mobiliser efficacement à la fois la mémoire et la puissance de calcul d’un multi-processeur.

        Un certain nombre d’utilisateurs travaillent sur les moyens nationaux, sur des machines de type vectoriel ou parallèle. Nous souhaitons que ces utilisateurs aient localement à disposition des machines adaptées au développement des codes qui seront portés sur les grands centres et puissent mobiliser une mémoire centrale suffisante pour préparer les très grosses modélisations permises par l’utilisation plus "instrumentalisée" des grands centres, et aussi pouvoir participer aux projets de calcul réparti.

        Nous avons engagé une opération en 99. Suite aux consultations avec les principaux constructeurs, cette opération a été découpée en deux tranches.

        La première tranche consistait en l’achat d’une machine multi-processeurs SMP IBM (modèle NH1), constituée de 8 processeurs (power3 à 222 MHz), 8 Go de mémoire RAM et affichant une puissance crête de 8 Gflops (cf. devis COMI).

        La seconde tranche prévue pour 2000 devait correspondre à l’upgrade de cette machine à 16 processeurs et 16 Go de mémoire.

        Nous avons reçu la machine octoprocesseur en octobre 99 dans le cadre d’un programme de livraison anticipée. La mise en service a été très rapide et la machine est continument chargée par des modélisations lourdes depuis la fin octobre 99. Le spectre des applications qui tournent sur cette machine est varié. La compatibilité de l’architecture avec les autres plateformes du site, les nouvelles possibilités qu’elle offre au niveau capacité mémoire et puissance de calcul, programmation parallèle ou séquentielle sont divers aspects qui lui affectent un caractère d’universalité très appréciable compte tenu de la diversité des applications et des méthodes de calcul utilisées, au sein de l’Observatoire.

        Plusieurs codes lourds ont été portés en Open_MP et ont bénéficié pleinement des apports de cette nouvelle architecture dès la fin 1999. Un code Open_MP de Géophysique notamment monopolise la totalité de la mémoire.

        La grappe scalaire ancienne reste par ailleurs très chargée.

        En conséquence, l’Observatoire a décidé de globaliser la seconde tranche de l’opération prévue avec le reste de la jouvence du Quadriennal, en injectant les crédits quadriennaux et les reliquats nécessaires.

        L’upgrade de l’octoprocesseur à 16 processeurs power3+ (375 Mhz), 16 Go de mémoire, sera ainsi complété par l’achat de 2 quadriprocesseurs SMP IBM avec 4 Go de mémoire chacun. Cette achat est en cours de négociation.

        Cette opération importante devrait nous assurer la puissance nécessaire pour supporter l’arrivée de nouveaux projets dans le cadre de la nouvelle structure Observatoire.

        Ces machines seront connectées sur le backbone Gigabit Ethernet, dont le déploiement est en effet assuré financièrement et techniquement par l’UJF.

        Nous pensons ainsi pouvoir fonctionner dans de bonnes conditions jusqu’en 2004, période à laquelle il est raisonnable de prévoir dès maintenant une jouvence du site.

      5. Financement de l’équipement
      6. Le financement s’est basé sur l’attribution de 500 KF du COMI, avec l’engagement de doubler au moins la mise par des crédits MEN. Une participation de 600 kF est assurée par CIMENT, le reste provient du quadriennal et de l’affectation des reliquats 1999 de l’OSUG (la maintenance et la petite jouvence des équipements sera assurée par l’UMS Observatoire et par le quadriennal).

        Financement des 2 tranches :

        Première étape Automne 99 :

        - noeud SMP octoproc. (power3 222 MHz), 8 Go de RAM, carte Gigabit Ethernet

        - loadleveler, autres softs compris dans l'actuel panier campus

        8 CPUs, 8 Go de RAM = 665 KF (500 KF COMI + 165 KF Quadriennal UJF)

        Seconde étape second semestre 2000 :

        - noeud SMP hexadécaproc. (power3+ 375Mhz, noeud de base du système ASCI white), 16 Go de RAM

        - 2 machines IBM SMP à 4 processeurs et 4 Go de RAM chacune

        - Périphériques : 4 disques de 70 Go

        - Environnement de la salle machine : onduleur , climatisation

        Migration 16 CPUs -16 Go de RAM, 2 quadripros 4 Go de RAM, + divers = 1095 KF (600 KF CIMENT +  495 KF Quadriennal UJF)

        Financement de la jouvence à partir de 2004 :

        Nous demandons, dans le cadre du CPER, un apport de 2 MF pour cette mise à niveau. Celle-ci sera évidemment nécessaire dans 4 ans au plus tard compte tenu du rythme avec lequel les besoins augmentent et les architectures évoluent.

         

      7. Actions de formation associées

Une réflexion est en cours, et sera très prochainement soumise aux commissions concernées de l’Observatoire élargi.

Nous prévoyons notamment d’associer des formations à caractère thématique à une sensibilisation plus globale aux techniques de modélisation et de calcul parallèle et distribué, en partenariat avec les collègues des autres projets de CIMENT. Nous réfléchissons également à établir un lien étroit avec les manips de terrain intégrées aux formations des étudiants (acquisition, transfert et retraitement des données et des images, comparaison aux modélisations...).

Nous prévoyons en appui une plateforme d’expérimentation numérique qui sera en partie financée par la taxe d’apprentissage (300 KF sont attendus pour juin 2000).

Un avant projet sera présenté au prochain Conseil Scientifique de CIMENT au début de l’automne.

 

    1. Plate-forme MIRAGE : Méso-Informatique Répartie pour des Applications en Géophysique et en Environnement
    2. Responsable scientifique: Eric Blayo, Laboratoire de Modélisation et de Calcul, IMAG.

      Responsable technique: Christophe Messager, Laboratoire d'étude des Transferts en Hydrologie et Environnement.

      Le projet MIRAGE regroupe la majorité des chercheurs de la communauté grenobloise travaillant sur la modélisation numérique en océanographie, météorologie, hydrologie et glaciologie. Il a été financé après expertise en 1999 et la plate-forme de calcul est en cours de mise en place au 1er semestre 2000. Le dossier détaillé soumis au COMI en 1999 est joint en annexe. La présente demande au CPER dans le cadre du projet CIMENT concerne une jouvence de la plate-forme en 2004.

      1. Equipes et projets scientifiques concernés

Laboratoire de Modélisation et Calcul :

Laboratoire des Ecoulements Géophysiques et Industriels :

Laboratoire d'étude des Transferts en Hydrologie et Environnement :

Laboratoire de Glaciologie et Géophysique de l'Environnement :

Laboratoire Ecosystèmes Alpins :

      1. Collaborations transdisciplinaires et rayonnement
      2. Au sein de l'Université Joseph Fourier, une communauté scientifique répartie sur plusieurs laboratoires interagit depuis plusieurs années autour des thèmes de la modélisation numérique du climat et de l'environnement, essentiellement sous les aspects océanographie, météorologie, hydrologie et glaciologie. Aux nombreuses thématiques scientifiques intéressant conjointement les différentes équipes concernées, s'ajoute une approche commune, basée sur la modélisation numérique. Les équations d'évolution des milieux étudiés sont des systèmes complexes d'équations aux dérivées partielles, dont la résolution requiert des méthodes mathématiques et numériques sophistiquées, et des moyens de calcul puissants.

        A cet égard, l'aspect pluridisciplinaire de la recherche apparaît de plus en plus nécessaire, et les collaborations (par exemple entre physiciens et mathématiciens appliqués) se multiplient. Une illustration en est d'ailleurs le nombre de DEA et de thèses co-encadrés ces dernières années ou de publications cosignées.

      3. Mise en œuvre technique de l'équipement
      4. La solution technique choisie pour ce projet est une grappe de 7 stations de travail bi-processeurs Compaq DS-20 (2.5 Go par nœud), permettant un parallélisme de grosse granularité. Ces machines sont réparties entre les différents laboratoires, sur 4 sites distincts. Sur chaque site, les stations locales sont reliées par un lien constructeur Memory Channel (2.3 gigabit), afin de former un petit cluster très performant. Les différents sites sont reliés par le réseau du domaine universitaire (à l’heure actuelle au gigabit seulement entre les deux principaux sites, d’ici un an entre tous les sites). Ces moyens de calcul sont complétés par 3 baies de stockage sécurisé de 100Go chacune, et par des outils de gestion de la grappe (LSF) et de débuggage de codes parallèles (TotalView).

        La plate-forme Mirage est construite dans l'esprit d'un partage complet des ressources entre les différents partenaires. Les applications lancées par les chercheurs d'un des sites utiliseront donc de façon transparente les ressources disponibles des autres sites. Enfin, cette plate-forme est reliée aux grands centres nationaux (IDRIS, CGCV) sur lesquels nous continuerons à effectuer nos simulations de grande taille. On peut noter à cet égard la totale compatibilité de MIRAGE avec le calculateur massivement parallèle SC232 du CGCV-CEA, qui permet un passage à l’échelle très aisé.

        Moyens humains : C. Messager, ingénieur CNRS du LTHE, est affecté à temps partiel (40%) à la gestion technique de MIRAGE. Par ailleurs, un poste d'ingénieur de recherche UJF (profil calcul scientifique) est ouvert au concours, pour une affectation à MIRAGE en septembre 2000.

      5. Financements obtenus

CNRS

COMI

650kF

MENRT / UJF

Programme Pluri-Formation

Equipements pour le calcul intensif

600kF

INPG

BQR

100kF

CNES / INSU

Soutien spécifique

60 kF

Participation des laboratoires et contrats de recherche

Achat du matériel et aménagement des salles informatiques

200kF

Financement de la jouvence à partir de 2004 :

Nous demandons, dans le cadre du CPER, un apport de 1,5 MF pour la jouvence de notre matériel. Celle-ci sera évidemment nécessaire dans 4 ans au plus tard compte tenu du rythme avec lequel les architectures évoluent.

 

 

    1. Projet de réalisation d’une grappe de 200 PC pour le calcul scientifique et les serveurs de données
    2. Ce dossier est soumis conjointement par l’UJF , l’INPG et l’INRIA .

      1. Equipes et projets scientifiques concernés

Le projet est présenté par les chercheurs des laboratoires suivants :

(responsable :Yves Robert, Professeur ENSL)

Les équipes partenaires dans l’utilisation de la grappe sont :

Le pilotage du projet sera assuré par :

Jacques Briat (Apache-ID) 04 76 51 45 72 Jacques.Briat@imag.fr

Xavier Rousset (SIRAC) 04 76 61 52 65 Xavier.Rousset@imag.fr

Philippe Augerat (Apache-ID) 04 76 51 45 95 Philippe.Augerat@imag.fr

Loic Prylli (ReMap) 04 72 72 80 37 Loic.Prylli@ens-lyon.fr

L'objectif du projet est de :

      1. Collaborations et facteur mobilisateur :
      2. Cette action nécessite la coordination de plusieurs équipes dans les domaines des systèmes distribués (SIRAC, CAPS), des environnements de calcul parallèle (APACHE, ReMaP), des serveurs de données (SIRAC, ReMaP) et des applications exigeant du calcul intensif (APACHE et les collaborations citées ci-dessus). Ce projet constitue également une contribution significative aux travaux des groupes de travail Grappe et Hiperf du GDR ARP (Architecture, Réseau et Parallélisme). Par ailleurs, la collaboration envisagée vient renforcer les coopérations en cours dans le cadre de l’actions de recherche coopérative INRIA Couplage. Ce projet de grappe a par ailleurs été le facteur de cristallisation qui a mené en 2000 au dépôt de 2 dossiers RNTL, deux dossiers RNRT et le démarrage de négociations avec Microsoft, HP et Bull.

      3. Formation doctorale et rayonnement du projet
      4. Les systèmes parallèles et répartis, vus sous l'angle des architectures et des environnements applicatifs, sont des thématiques centrales au sein du DEA ISC (Informatique, système et communication). Par ailleurs les équipes proposantes s'investissent dans l’organisation d’écoles pour la formation de chercheurs/utilisateurs (école ICARE par exemple).

        La plate-forme développée par le projet sera très largement utilisée pour les besoins de calcul d'applications réelles, dans le domaine du calcul scientifique d'une part (calcul formel, EDP, chimie et biologie, trafic routier, imagerie, etc.) et dans le domaine des serveurs d'information à haute performance d'autre part (recherche documentaire, serveurs multi-média, cache Web). Cette grappe est impliquée dans des projets de grille de grappes et est donc ouverte dans ce contexte à diverses communautés (informatique, Physique nucléaire, bio-informatique). De ce fait, la diffusion des résultats du projet concerne directement une large population dans la communauté scientifique.

      5. Choix technologiques et mise en œuvre de l'équipement
      6. La grappe sera constituée à partir de multiprocesseurs SMP (à base de Pentium), fonctionnant sous Linux, interconnectés par un réseau rapide fondé sur la technologie SCI (Scalable Coherent Interface). Le choix du Pentium est un choix économique (en terme de rapport prix/performance). Le choix du réseau est encore ouvert. Les candidats potentiels seraient Myrinet, SCI, Gigabit Ethernet, Giganet , etc. Les équipes concernées ont déjà investi sur la technologie SCI, qui offre des fonctionnalités d’accès mémoire à distance permettant de réaliser des communications de façon transparente et la technologie Myrinet qui est très populaire et très efficace pour ce type d’architecture. Le choix de Linux est motivé par la nécessité d’accéder librement aux sources du système pour la réalisation d'un certain nombre de fonctions de support de bas niveau.

        Le programme sera mis en œuvre sur trois ans (1999-2001) pour des raisons financières et stratégiques. En effet, un objectif du projet est aussi de montrer l’évolutivité d’une grappe qui, une fois installée, évolue de façon continue par remplacement / ajout de constituants. Ce déploiement a débuté fin 98 par l’installation du " germe" de la grappe. Il est constitué de 14 PC bi-processeurs interconnectés en une commutation de 4 anneaux SCI. Ce germe a été financé par l’unité de recherche INRIA Rhône-Alpes. L’objectif est une configuration maximum de la grappe en 2000 afin de procéder aux évaluations en vraie grandeur au cours de l’année 2001. L’unité de recherche INRIA Rhône-Alpes fait équiper électriquement / thermiquement une salle à cet effet.

      7. Plan de financement

L’enveloppe budgétaire d’une telle opération est de 5 MF pour la grappe. Dans le cadre du contrat de plan Etat-Région, nous proposons le plan de financement suivant pour un montant total de 3.7 MF.

Des financements obtenus hors contrat plan Etat-Région  pour un total de 1.1 MF:

    1. Pôle de Chimie Calculatoire de l'UJF
    2. Responsable scientifique : Serge Pérez, Centre de Recherches sur les Macromoélcules Végétales (CERMAV, UPR 5301)

      Responsable technique : Pierre Vatton, Laboratoire d’Etudes Dynamiques et Structurales de la Sélectivité (LEDSS, UMR 5616)

      1. Les unités de recherches concernées :
      2. Le projet présenté au nom de l’UFR de Chimie implique de manière forte le Laboratoire de Cristallographie (UPR 5031), le Laboratoire d’Etudes Dynamiques et Structurales de la Sélectivité (LEDSS, UMR 5616), le Centre de Recherches sur les Macromolécules Végétales (CERMAV, UPR 5301), le Laboratoire d’Electrochimie Organique et de Photochimie Rédox (LEOPR, UMR 5630), et le Département de Pharmacochimie Moléculaire (DPM, UMR 5063) de l’UFR de Pharmacie.

      3. Les projets scientifiques
      4. Les potentialités scientifiques des unités de recherches partenaires de ce projet leur permettent de s’inscrire totalement dans la dynamique de création et de fédération d’un centre de méso-informatique du pôle Chimie de Grenoble. Les programmes scientifiques des différentes unités de recherche peuvent être regroupés au travers de quelques grandes catégories :

        Chimie quantique.

        Réactivité

        Interactions

        Description de la corrélation électronique

        Mécanique/Dynamique Moléculaires.

        Systèmes moléculaires et macro-moléculaires complexes

        Simulation temporelles

        Etat condensé.

        Matériaux moléculaires

        Matériaux macromoléculaires

        Modélisation mésoscopique

        Recherches des Conformations Bio-Actives

        Sans connaissance structurale du/des récepteurs.

        Avec connaissance structurale du/des récepteurs

        Bases de données

        Bases de données structurales

        Bases de données réactionnelles

        Bases de données génomiques et protéomiques

        Bases de données spécifiques

      5. Rayonnement du projet
      6. L’ensemble des moyens et des prospectives des principaux utilisateurs de Chimie Calculatoire font que le regroupement au sein d’un grand Pôle de Chimie Calculatoire est devenu incontournable pour pouvoir s’équiper de matériel plus puissant que celui existant. Au travers des réalisations récentes et surtout des projets scientifiques des chercheurs de ces unités, apparaissent des besoins de matériels informatiques et de logiciels, dont la mise en commun permettrait à cette communauté de conserver une position scientifique de pointe dans plusieurs domaines scientifiques.

      7. Mise en œuvre de l'équipement

Nous souhaitons porter nos choix sur des solutions qui permettent d’intégrer le mieux possible les parcs existants, dans la mesure où ces solutions correspondent véritablement à des besoins exprimés et identifiés par la communauté des chimistes dans le domaine du calcul scientifique.

L'ensemble des besoins exprimés par la communauté scientifique nous a orienté vers une solution bâtie sur 2 types de machines permettant de répondre à la fois aux besoins de calculs intensifs et aux besoins liés à l'utilisation de logiciels professionnels de modélisation moléculaire spécifiques de l'environnement SGI:

 

      1. Budget prévisionnel et financement

Le budget prévisionnel s'établit à 2 MF, dont 1,5 MF dans le cadre du CPER avec un démarrage de l’opération dès que possible (en 2000).

 

    1. Projet BIoIMAGe (Biologie Informatique, Imagerie, Modélisation et Analyse Génétique)
    2. Responsable scientifique : L. Desbat (CR CNRS, TIMC-IMAG)

      Responsable technique : G. Bourrel (IR CNRS, TIMC-IMAG).

      1. Projet et équipes concernés

Le projet regroupe

Dans le cadre du projet de recherche associé à ce projet d’équipement, de nombreuses collaborations sont développées avec des équipes de l’IMAG (du LMC et du LSR), des équipes du L3S et de l’Institut de la Communication Parlée de l’INPG, des équipes de l’Institut Albert Bonniot, le LaMaCo – ESIGEC – de l’Université de Savoie, les unités INSERM U318, U280, U371, des services du CHU de Grenoble : service de radiologie et d’imagerie médicale centrale (professeur Coulomb), service d’imagerie nucléaire (professeur Fagret), service de radiothérapie (professeur Bolla), service de chirurgie digestive (professeur Letoublon), service d'Hépato-Gastroenterologie, Unité IRM (professeur Lebas), Laboratoire de Neurophysiologie : équipe Neurodégénérescence et Plasticité, le service de chirurgie plastique et maxillo-faciale (professeur Boutault) du CHU Purpan de Toulouse.

Les deux axes principaux de recherche sont :

1/ L’imagerie et la modélisation biomécanique et médicale

Le thème de l’imagerie concerne l’unité INSERM 438 (et ses collaborations) pour le déploiement du plateau technique de l’IRM fonctionnelle prévue pour avril 2001, ainsi que le laboratoire TIMC (et ses collaborations) pour l’imagerie radiologique interventionnelle et l’imagerie nucléaire.

La modélisation biomécanique d’organes (cœur, foie, voies aériennes supérieures, modélisation de la face en chirurgie maxillo-faciale) et la simulation de phénomènes physiques et biologiques (stimulation profonde du cerveau et potentialisation à long terme des neurones) concernent principalement le laboratoire TIMC (et ses collaborations).

2/ La biologie informatique et l’analyse génétique spatialisée

Ce thème concerne principalement le laboratoire TIMC et le laboratoire de Biologie des Populations d'Altitude :

- Lecture des " images " fournies par les bio-puces (extraction d’images binaires d’expression géniques, à partir des données de liaison des substrats - ADN, ARN, m-ARN,… - à la matrice des récepteurs de la bio-puce)

- Identification (sous des hypothèses de minimalité) des matrices d’interaction géniques compatibles avec les matrices binaires phénotypiques observées

- Calcul des distances ou écarts de similitude entre séquences nucléiques ou protéiques

- Détermination d’opérateurs (cachés ou explicites) expliquant l’évolution d’un génome

- Mise au point de bases de connaissances génomiques exploitables par Internet.

- Etude de la structure génétique spatiale des populations.

Un soutien sera assuré par les ingénieurs de chaque pôle pour le bon fonctionnement du projet. Ainsi, un ingénieur (IR) est en recrutement pour le pôle de Biologie Informatique : 20% de son temps sera consacré au projet BIoIMAGe. Françoise Bertoud accompagne le projet d’analyse génétique spatialisée à hauteur de 20%, Cristophe Rubin soutient le projet d’IRM fonctionnelle à hauteur de 20% dans BIoIMAGE et Guy Bourrel sera l’interlocuteur privilégier du laboratoire TIMC-IMAG.

      1. Rayonnement du projet
      2. Le projet BIoIMAGe regroupe les communautés de biologie, d’imagerie et de modélisation biomédicale du pôle Santé de Grenoble. Une partie de cette communauté est familiarisée avec les méthodes du calcul haute performance. Elle collabore avec des équipes de Modélisation et Calcul et d’Informatique. La diffusion des techniques du calcul intensif dans les communautés de biologie et de génétique est un des enjeux de ce projet.

        Les équipes du pôle de biologie informatique doivent avoir accès à un matériel de calcul performant connecté aux serveurs de bases de données en développement.

        La mise en place du plateau d’IRM fonctionnelle à Grenoble en 2001, induit une forte montée en puissance du traitement des images 2D et 3D associées. Les projets européens sous notre responsabilité, tels que les projets MI3 (Minimal Invasive Interventional Imaging), ou VŒU (Virtual Orthpaedic European University) [IST 2000-2003] impliquent des recherches sur la reconstruction en imagerie 3D rapide et la modélisation d’organes.

      3. Mise en œuvre de l'équipement
      4. Deux tranches sont prévues pour la période 2000-2003. La première tranche en 2000, permettra de mettre en place une solution commune de calcul. Le choix se porte sur une solution centralisée, simple à administrer et suffisamment générale pour permettrent de traiter les différents types de problèmes du projet. La solution envisagée est basée sur deux quadri processeurs SMP, ES40 de Compaq (Alpha EV6 667MHz, 4Go de RAM par ES40, quelques dizaines de Go de disques), reliés par memory channel. Cette configuration à l’avantage d’être similaire à une brique de base du SC232 du CEA que certains d’entre nous utilisent. La seconde tranche est programmée pour 2002 afin de faire face à la montée en puissance des besoins (arrivée du plateau technique d’IRMf, montée en puissance des activités de génétique et de biologie informatique). La solution qui sera choisie alors, dépendra des expériences développées au sein de CIMENT dans le cadre du projet BIoIMAGe mais aussi autour des autres projet CIMENT, en particulier dans le projet de grappe de 200 PC.

        La solution partagée sera strictement dédiée au calcul. La gestion (archivage) des données sera effectuées sur les pôles. Le matériel spécifique aux bases de données du projet de biologie informatique et d’analyse génétique spatialisée sera financé par le Génopôle et sera interconnecté au projet BIoIMAGe de CIMENT dédié au calcul.

      5. Budget prévisionnel et financement

Le coût de la première tranche est fixé à 800kF dans le cadre du CPER en 2000. Les devis obtenus indiquent que 800kF permettront de financer le matériel de la solution retenue. Les logiciels spécifiques seront financés sur les crédits propres des laboratoires participants. L’extension de la maintenance au delà des trois ans de garantie sur site sera considérée dans le cadre de la seconde tranche.

Le coût de la seconde tranche est fixé à 1MF dans le cadre du CPER pour 2002.

Une jouvence doit être envisagée en 2006.

 

 

    1. Projet PHYNUM: Evolution 2000
    2. Responsables scientifiques: A. Pasturel Responsable technique: F. Berthoud

      1. Projet de Modélisation:

Depuis une quinzaine d'années, l'essor des méthodes numériques est particulièrement important en Physique. La Physique à Grenoble est en grande partie traitée au sein de l'Institut de Physique de la Matière Condensée qui regroupe à la fois des unités propres du CNRS et des unités associées. La partie numérique et théorique concerne toutes ces unités avec un laboratoire pilote qui est le laboratoire de physique et modélisation des milieux condensés. Jusqu'à maintenant, chaque laboratoire avait sa propre politique informatique complétée par des projets soumis aux centres de calculs nationaux. Depuis deux ans, il est apparu essentiel d'avoir accès à un centre partagé en moyens informatiques. Il faut dire que les projets soumis à IDRIS ramenés en équivalent heures Cray monoprocesseur vectoriel dépassent les 5000 heures par an. Ce projet concerne environ une vingtaine de personnes (chercheurs et enseignants-chercheurs permanents + doctorants et post-doctorants) et les principaux thèmes de modélisation sont les suivants:

 

      1. Rayonnement du projet
      2. La constitution du pôle modélisation en physique faciliterait le partage d'expérience à

        la fois sur le plan scientifique et sur un plan technique. Soulignons à ce titre que les départements Chimie et Physique du CNRS sont très favorables au développement à Grenoble des approches numériques en sciences des matériaux. Dans ce cadre, ce pôle contribuerait certainement à l'émergence de nouveaux projets au sein de notre communauté. Elle pourrait aussi donner lieu à des collaborations transdisciplinaires plus fortes notamment avec l'astrophysique et les mathématiques appliquées. Des liens étroits sont déjà établis entre le LPMMC et le LGIT et on peut aussi envisager un rapprochement thématique fort autour de la modélisation moléculaire ab initio.

        Ce pôle serait utilisé par tous les chercheurs et les thésards ou post-doctorants impliqués dans les thèmes de recherche proposés. Il pourrait être aussi accessible aux étudiants de l'école doctorale de physique si des cours traitant des principales méthodes en physique numérique y sont associés. Cette action pourrait venir compléter les actions de formation engagées par l'Observatoire (projet SCCI) qui est par ailleurs très favorable au projet PHYNUM.

        Pour renforcer ces actions croisées au niveau des projets SCCI et PHYNUM de CIMENT, nous envisageons l'appui technique de Françoise Berthoud à hauteur d'une journée par semaine.

         

      3. Mise en œuvre de l'équipement

Type d'architecture

Parmi l’ensemble des projets relevant de PHYNUM, certains codes sont déjà écrits et parallélisés. Ils sont exploités actuellement soit sur notre parc de stations IBM RS6000, soit sur la machine IBM Power3+ (16 Processeurs) de l’ENS Lyon, soit sur les machines de l’IDRIS et du CEA. D’autres projets sont au stade de l’étude préliminaire et leur développement nécessite des moyens très importants en terme de mémoire et de CPU.

Du point de vue technique, la plateforme PHYNUM serait vue à la fois :

Par ailleurs, la possibilité d'évolution du matériel choisi nous semble primordiale pour garantir la pérennité de notre choix.

La compatibilité de la future architecture avec les autres machines utilisées dans les différents laboratoires faciliterait l’exploitation, limiterait les efforts de portage de codes, et permettrait de mettre plus efficacement à profit l’expertise acquise par chacun.

Les points précédents fournissent un ensemble d’éléments qui seront pris en compte dans la rédaction de l’appel d’offres qui sera adressé en temps utile aux différents constructeurs. Un jeu de benches constitué des principales applications représentatives du projet sera constitué pour établir notre choix en fonction des performances des machines, de l’adéquation de nos codes aux architectures, des facilités de portage et bien sûr du rapport performance-prix et des possibilités d’évolutions ultérieures.

Nous avons basé notre prospective à deux ans pour cette opération sur les matériels que nous connaissons le mieux sur la base des codes actuels relevant de PHYNUM, et qui utilisent principalement du matériel IBM : un SMP 16 processeurs Power III+ situé géographiquement à Lyon pour une de nos grosses études et les machines du projet CIMENT de l’Observatoire de Grenoble dans le cadre de notre collaboration avec le LGIT.

En particulier, nous devrions voir émerger chez IBM en 2001-2002 des architectures présentant une réelle rupture technologique et apportant un gain significatif en puissance de calcul : notamment les processeurs Power4 en réseau NUMA sur-chip et sur carte-mère et cadencés à plus de 1GHz avec des bandes passantes agrégées vers la mémoire cache de plus de 100 GBytes/s et plus de 55 GBytes/s de bande passante vers la mémoire et les autres processeurs Power4. Ces nouvelles architectures devraient fournir des puissances crêtes respectables (de l’ordre de 4.4 Gflops par processeur) et surtout permettre de mobiliser une fraction plus importante de cette puissance sur des applications scalaires que ne le permettent actuellement les processeurs RISC chez n’importe quel constructeur. Par ailleurs nous ne disposons pas encore d’informations précises sur les solutions concurrentes (notamment IA64 et Ultra Sparc III). Un autre élément de choix qui demeure encore dans le flou concerne les choix technologiques qui seront effectués dans les centres nationaux à cette époque.

Nous visons l’achat d’une machine SMP munie d’un nombre raisonnable de processeurs (16 à 32) de dernière génération et munie d’un très grand espace mémoire et d’une bande passante mémoire en rapport avec la puissance des processeurs.

Cette plate-forme sera construite dans l’esprit d'un partage complet des ressources entre les différents partenaires. La gestion des puissances de calcul disponibles pourra être facilitée par des outils de gestion de ressources en réseau, outils actuellement en émergence. Ce dispositif sera complété par des disques de stockage de masse et des outils de visualisation. Compte tenu des informations obtenues auprès d’autres partenaires du projet CIMENT, nous pensons pouvoir obtenir ce type de configuration pour un montant après négociation d’environ 2 MF, et nous prévoyons de rechercher les quelques cofinancements nécessaires pour compléter le budget de 1.5 MF qui pourrait nous être attribué par le CPER.

Implantation physique

Les choix concernant l’implantation physique sont déterminés par les possibilités d’accès aux matériels et par la disponibilité de locaux et de proximité de personnel ingénieur.

Le réseau interne au polygone du CNRS passera à 100 MBit commuté dès 2001 alors que le réseau entre le polygone du CNRS et le campus passera au GigaBit dès l’été 2001 : cette situation nous permettra dès lors une grande souplesse pour le choix définitif d’implantation physique qui pour l’instant serait limité au polygone (le plus probablement à la Maison des Magistères).

Nous prévoyons par ailleurs d'explorer les bénéfices éventuels d'un regroupement des moyens affectés aux opérations PHYNUM et Observatoire, en mettant bien entendu en place des outils logiciels adéquats pour éviter que l'augmentation de taille du centre pose des problèmes de partage de ressources entre les pôles. De tels outils (partitionnement flexible de multi-processeurs en CPU et mémoire) sont annoncés par différents constructeurs voire fonctionneraient déjà sur certains systèmes dans de grands centres.

 

      1. Projet de financement:

* Des soutiens financiers sur appel à proposition ou crédits propres sont envisagés.

 

1 Introduction *

2 Les fiches projets *

2.1 Service Commun de Calcul Intensif de l’Observatoire de Grenoble : *

2.1.1 Projets de Modélisation à l’Observatoire *

2.1.2 Rayonnement du projet *

2.1.3 Mise en œuvre de l’équipement *

2.1.4 Financement de l’équipement *

2.1.5 Actions de formation associées *

2.2 Plate-forme MIRAGE : Méso-Informatique Répartie pour des Applications en Géophysique et en Environnement *

2.2.1 Equipes et projets scientifiques concernés *

2.2.2 Collaborations transdisciplinaires et rayonnement *

2.2.3 Mise en œuvre technique de l'équipement *

2.2.4 Financements obtenus *

2.3 Projet de réalisation d’une grappe de 200 PC pour le calcul scientifique et les serveurs de données *

2.3.1 Equipes et projets scientifiques concernés *

2.3.2 Collaborations et facteur mobilisateur : *

2.3.3 Formation doctorale et rayonnement du projet *

2.3.4 Choix technologiques et mise en œuvre de l'équipement *

2.3.5 Plan de financement *

2.4 Pôle de Chimie Calculatoire de l'UJF *

2.4.1 Les unités de recherches concernées : *

2.4.2 Les projets scientifiques *

2.4.3 Rayonnement du projet *

2.4.4 Mise en œuvre de l'équipement *

2.4.5 Budget prévisionnel et financement *

2.5 Projet BIoIMAGe (Biologie Informatique, Imagerie, Modélisation et Analyse Génétique) *

2.5.1 Projet et équipes concernés *

2.5.2 Rayonnement du projet *

2.5.3 Mise en œuvre de l'équipement *

2.5.4 Budget prévisionnel et financement *

2.6 Projet PHYNUM: Evolution 2000 *

2.6.1 Projet de Modélisation: *

2.6.2 Rayonnement du projet *

2.6.3 Mise en œuvre de l'équipement *

2.6.4 Projet de financement: *