Projet BIoIMAGe

Biologie Informatique,

Imagerie, Modélisation biomédicale

et l’Analyse Génétique



 
 
 
 

  1. Introduction
Le projet BIoIMAGe regroupe deux thématiques de recherche autour de l’imagerie et de la modélisation médicale d’une part et de l’analyse génétique et de la biologie informatique d’autre part. L’idée de ce regroupement de projets initialement distincts est motivée par la proximité des thématiques qui relèvent du domaine la modélisation du vivant, par les synergies qui en découlent et par la volonté de l’économie des moyens, en particulier humains.

Les laboratoires directement concernés par ce projet d’équipement méso-informatique pour le calcul sont

Dans le cadre du projet de recherche associé à ce projet d’équipement, de nombreuses collaborations sont développées avec : Les thématiques de recherche s’organisent autour de deux axes principaux :

1/ L’imagerie et la modélisation biomécanique et médicale

Le thème de l’imagerie concerne l’unité INSERM 438 (et ses collaborations) pour le déploiement du plateau technique de l’IRM fonctionnelle prévue pour avril 2001, ainsi que le laboratoire TIMC (et ses collaborations) pour l’imagerie radiologique interventionnelle et l’imagerie nucléaire.

La modélisation biomécanique d’organes (cœur, foie, voies aériennes supérieures, modélisation de la face en chirurgie maxillo-faciale) et la simulation de phénomènes physiques et biologiques (stimulation profonde du cerveau et potentialisation à long terme des neurones), concernent principalement le laboratoire TIMC (et ses collaborations).

2/ La biologie informatique et l’analyse génétique spatialisée.

Ce thème concerne le laboratoire TIMC et le laboratoire de Biologie des Populations d'Altitude (et leurs collaborations) :

- Lecture des " images " fournies par les bio-puces (extraction d’images binaires d’expressions géniques, à partir des données de liaison des substrats - ADN, ARN, m-ARN,… - à la matrice des récepteurs de la bio-puce)

- Identification (sous des hypothèses de minimalité) des matrices d’interaction géniques compatibles avec les matrices binaires phénotypiques observées

- Calcul des distances ou écarts de similitude entre séquences nucléiques ou protéiques

- Détermination d’opérateurs (cachés ou explicites) expliquant l’évolution d’un génome

- Mise au point de bases de connaissances génomiques exploitables par Internet

- Etude de la structure génétique spatiale des populations

Pour ces deux axes de recherche, les besoins en matériel informatique pour le calcul intensif sont importants : l’accès à l’imagerie et à la modélisation biomécanique en trois ou quatre dimensions impose des volumes de données considérables (de plusieurs centaines de Mo à plusieurs Go dans une reconstruction 3D par exemple) et des calculs intenses (en centaines de Tflops pour le problème précédent par exemple). La biologie informatique et l’analyse génétique nécessite le lien entre des bases de données et des moteurs de calcul puissants pour les exploiter. Le matériel et les logiciels pour de développement, la gestion et l’exploitation des bases de données ne sont pas financés dans le cadre du projet BIoIMAGe, mais seront est financés par le Génopôle. Par contre, les solutions développées seront reliées naturellement par le réseau et le projet BIoIMAGe offrira ses solutions de calcul intensif pour des besoins spécifiques non couverts par le Génopôle. L’intérêt de cette démarche est double : des liens se renforceront entre la communauté de la modélisation et du calcul et la communauté de la biologie d’une part, le projet BIoIMAGe contribuera à la diffusion des techniques du calcul intensif au sein des communautés de la biologie d’autre part.

Le déploiement de matériel pour le calcul en imagerie et modélisation biomédicale est prévu selon deux tranches. Une première tranche en 2000 de 800kF pour démarrer le projet de calcul. Une seconde tranche de 1MF est prévue en 2002. Elle permettra d’une part d’absorber la montée en puissance des activités d’imagerie, en particulier celles liées à la mise en place de l’imageur 3Tesla de la plate forme d’IRM fonctionnelle à Grenoble, d’autre part d’affiner les choix technologiques compte tenu des solutions expérimentées au niveau du projet CIMENT (projet de grappe de 200 PC) et du développement des besoins en matière de calcul de la communauté de biologie informatique.
 
 

  1. ProjetS ScientifiqueS
    1. Imagerie médicale
      1. Imagerie Nucléaire et Radiologique
        1. Imagerie Radiologique : reconstruction en imagerie interventionnelle
Participants : Philippe Cinquin (professeur), Laurent Desbat (CR CNRS), Markus Fleute (thésard), thomas Rodet (thésard), TIMC IMAG.

Collaborations : les partenaires du projet européens MI3 (Minimal Invasive Interventional Imaging), dont le Professeur Merloz, responsable du service d’orthopédie, Professeur Coulomb et Gilbert Ferretti du service de radiologie centrale et d’imagerie médicale du CHU de Grenoble, Stéphane Lavallée (gérant de la société PRAXIM) et la société TRIXELL (détecteur de radiologie numérique).

Ce projet de recherche est actuellement soutenu par le projet Européen MI3 (Minimal Invasive Interventional Imaging - 01/2000-2003) du programme IST, dont nous partageons la responsabilité avec la société PRAXIM. L'objectif du projet MI3 est la réalisation de systèmes d'imagerie radiologique 3D interventionnelle couplés à des systèmes de guidage pour la chirurgie osseuse et dentaire. Le système de radiologie interventionnelle est composé d’une mécanique en C et d’un détecteur de radiologie numérique (prototype) qui permettra d’acquérir des projections radiologiques d’un patient en salle d’opération

L’objectif du projet est d’étudier et de mettre en œuvre des méthodes de reconstructions 3D algébriques rapides. En effet, contrairement aux méthodes analytiques, les méthodes algébriques permettent d’introduire facilement de l’information a priori sur le patient (modèles) ou sur les données (données manquantes par exemple) et de prendre en compte des géométries de mesures très irrégulières. Le contexte interventionnel impose des contraintes de temps de reconstruction : un effort doit donc être porté sur

Le prototype de détecteur de radiologie numérique produit par TRIXELL que nous testons dans le cadre du projet de la Région Rhones-Alpes " Santé et HPC : de la vision au pilotage" permet d’acquérir des images de 9Mpixels codés sur 2 octets, soit 18Mo. Une reconstruction 3D générale induits plusieurs centaines de projections, soit plusieurs Go de données. Ces informations peuvent être comprimées. En effet dans le cas de 800 projections, des radiographie 512x512 seraient cohérentes avec les conditions d’échantillonnage, ce qui conduit à plus de 400Mo de données. Une projection ou une rétroprojection coûte alors de l’ordre de 512 opérations par donnée soit quelques centaines de Gflops. Le recours au calcul haute performance est nécessaire pour le développement, l’évaluation et l’optimisation des méthodes de reconstructions.

Références :

L. Colombet and L. Desbat. Efficiency of large size applications on heterogeneous networks. Theoretical Computer Science, 196:31-44, 1998.

L. Desbat. Echantillonnage parallèle efficace en tomographie 3D. C.R. Acad. Sci. Paris, Série I, t. 324, pages 1193-1199, 1997.

L. Desbat and C. Mennessier. Efficient sampling of the rotation invariant Radon transform. In J.J.Benedetto and P.J.Ferreira, editors, Modern Sampling Theory: Mathematics and Applications, pages +1,+14. Birhauser, to appear in 2000.

L. Desbat and A.G. Ramm. Finding small objects from tomographic data. Inverse Problems, 13:1239-1246, 1997.

L. Desbat, G. Champleboux, M. Fleute, P. Komarek, C. Mennessier, B. Monteil, T. Rodet, P. Bessou, M. Coulomb, and G. Ferretti. 3D interventional imaging with 2Dx ray detectors. In MICCAI'99 (Medical Image Computing and Computer Assisted Interventions), pages 973-980. springer, 1999.

L. Desbat, M. Fleute, G. Champleboux, and O. Desaint. 3D reconstruction using the PIXIUM 4600 digital X-ray detector. In 1999 International Meeting on Fully Three-Dimensional Image Reconstruction in Radiology and Nuclear Medicine, pages 149-152, 1999.

M. Fleute. Incorporating a statistically based shape model into a system for computer-assisted anterior cruciate ligament surgery. Medical Image Analysis, 3(3):209-222, 1999.

M. Fleute and S. Lavallee. Nonrigid 3-D/2-D Registration of Images Using Statistical Models.
In MICCAI'99, pages 138-147, 1999

M. Fleute, S. Lavallée, and L. Desbat. Reconstruction de surfaces en trois dimensions par utilisation de modèles statistiques. Brevet n99/11848 de l'Université Joseph Fourier de Grenoble, 1999.

S. Rouault and L. Desbat. Adaptative reconstruction in tomography from truncated projections with prior complete data. In Signal and Image Processing and Applications SIPA'96, pages 15-18. IASTED, 1996.
 
 

        1. Imagerie Nucléaire : quantification et dosimétrie en médecine nucléaire
Participants : Philippe Cinquin (professeur), Laurent Desbat (CR CNRS), Reza Faghihi (thésard), Jocelyne Troccaz (DR CNRS), TIMC IMAG.

Collaboration : Jean-Yves Giraud du service de radiothérapie du CHUG de Grenoble du Professeur Bolla et Jean Philippe Viuillez, du service d’imagerie nucléaire du Professeur Fagret. Cette activité s‘inscrit de le cadre plus général du développement des techniques d’imagerie nucléaire en Rhone Alpes, en particulier du PET.

Le projet :

Les traitements métaboliques en médecine nucléaire sont de plus en plus utilisés. Leur efficacité clinique a été démontrée. En revanche, les doses délivrées lors de ces traitements ne sont pas connues. L'estimation de la dose délivrée aux organes cibles est une étape décisive dans l'évaluation de cette technique. Cela permettra aussi de prescrire de façon optimale les traitements.

Le calcul de cette dose peut se faire actuellement grâce à des images issues d'une gamma-caméra (SPECT) et d'un scanner. Mais à partir de là, plusieurs problèmes se posent. Tout d'abord, il faut rendre les images SPECT quantitatives. En effet, ces images sans aucune correction n'ont qu'une valeur qualitative. L'atténuation, la diffusion ou encore le bruit engendrés par le patient sont des facteurs qu'il faut prendre en compte lors de la reconstruction des coupes à partir des projections. La création d'un logiciel ou le développement d'un logiciel existant (Pixies Développeur par exemple; développable en C ou java) qui intégrerait des algorithmes de reconstruction tenant compte de ces facteurs (correction d'atténuation et de diffusion grâce aux images scanner) peut être une première étape dans la quantification des images.

Différentes approches sont envisageables pour la quantification en SPECT. Les méthodes de Monte Carlo permettent de simuler le parcours des particules émises dans le corps humain et dans le collimateur pour différentes énergies. Elles permettent de modéliser les différentes interactions photons-matière et donc de corriger de l’atténuation et de la diffusion. Cependant, elle nécessitent la connaissance des distributions des coefficients d’atténuation aux énergies considérées qui peuvent être estimées à partir de reconstructions scanner sur le patient. D’autres part elles induisent de très long temps de calcul.

Des travaux récents ont montrés qu’une correction d’atténuation peut-être effectuée en exploitant les propriétés mathématiques du modèle d’imagerie en SPECT (conditions de cohérence de la transformée de Radon atténuée). Le sujet de la thèse de Reza Faghihi concerne le couplage de techniques de reconstruction avec prise en compte des conditions de cohérence des opérateurs d’imagerie et des méthodes de correction du diffusée dans les données. Ces travaux devraient permettre de prendre en compte la déformation de organes tels que le foie entre les images de scanner qui ont permis de faire le diagnostique et l’examen d’imagerie nucléaire. Les résultats de ces recherches devront être comparés aux Méthode de Monte Carlo.

Enfin, le calcul de dose lui même est un problème dual de celui de la reconstruction à partir de projections : il nécessite la connaissance la distribution d’activité des radionucléides à partir de la SPECT, le volume des nodules à partir des images de tomodensitométrie et/ou un modèle du patient.

Typiquement, le volume de données d’un examen SPECT est de 64 projections de 642 données (soit 643 droites de mesure) et le volume de reconstruction est discrétisées suivant 643 voxels. La matrice d’interaction résulte du modèle de la transformée en rayons-X atténuée, soit l’intégrale de l’activité f atténuée par la fonction m suivant les droites de mesure  . Lorsque la fonction d’atténuation m est identifiée, et que la diffusion est négligée ou corrigée, la matrice est creuses et possède de l’ordre de 2x644=32 106 éléments non nuls (petit problème, particulièrement si la géométrie d’acquisition est parallèle : on peut alors diviser le problème en 64 problèmes indépendants dont la taille est divisée par 64). Lorsque la diffusion peut–être négligée ou corrigée au préalable mais que m doit être estimée, le problème devient non-linéaire et induit de multiples résolutions du problème linéaire décrit précédemment. Lorsque la diffusion doit être estimée le problème devient nécessairement 3D : des techniques de type Monte Carlo sont alors nécessaires : elle permettent d’estimer les interactions entre l’émission et la détection soit l’équivalent du calcul d’une matrice pleine  dont le coût de calcul de chaque élément est supérieur à 64 : les calculs induits sont alors très largement au dessus de la centaine de Tflops.

Références :

V. Bouchard, P. Cinquin, and L. Desbat. First Compton Scatter Correction in SPECT using PVM. In Proceedings of the 1995 international meeting on fully 3D image reconstruction in radiology and nuclear medecine, pages 109-111. CEA-LETI, 1995.

V. Bouchard, P. Cinquin, L. Desbat, A.F. Joubert, S. Lavallee, and O. Peria.
A priori registration of SPECT projections and MR/CT images for SPECT reconstruction improvement. In CVRMed-MRCAS'97, pages 491-500. Springer, 1997

L. Desbat. L'échantillonnage des données tomographiques. In Pierre Grangeat, editor, La Tomographie, IC2, chapter 5. Hermes, 2000. In preparation.

L. Desbat and R. Thierry. Efficient sampling of the exponential Radon transform.
In First World Congress on Industrial Tomography, pages 423-426, 1999

C. Mennessier, F. Noo, R. Clackdoyle, G. Bal, and L. Desbat. Attenuation correction in SPECT using consistency conditions for the exponential ray transform. Phys. Med. Biol., 44:2483-2510, 1999.

C. Mennessier, F. Noo, R. Clackdoyle, and L. Desbat. Méthode de correction de l'atténuation en imagerie SPECT 3D basée sur les conditions de rang de la transformée de Radon exponentielle. In GRETSI'99, pages 419-421, 1999.

R. Thierry. Correction de l'atténuation et de la réponse géométrique d'un détecteur en tomographie sur colis de déchets nucléaires. PhD thesis, Université Joseph Fourier, Grenoble, 1999.

R. Thierry, J. Pettier and L. Desbat. Simultaneous compensation for attenuation, scatter and detector response for 2D emission tomography on nuclear waste with reduced data. . In First World Congress on Industrial Tomography, pages 542-551, 1999.

      1. Imagerie par Résonance Magnétique fonctionnelle
Les participants : Les chercheurs de l'Unité INSERM U438 et leurs collaborateurs dans le cadre du plateau technique IRM métabolique et fonctionnelle en Région Rhône-Alpes.(voir document annexe).

Le projet et les références bibliographiques : Elle sont données dans le document annexe décrivant le projet de plateau technique IRM métabolique et fonctionnelle en Région Rhône-Alpes.

Évolution du besoin de calcul en Imagerie par Résonance Magnétique :

Depuis 1995, nous assistons à une croissance exponentielle de nos besoins de calcul en imagerie médicale et plus particulièrement dans le domaine de l'imagerie fonctionnelle par résonance magnétique (IRMf).

Alors qu'en 1995, une expérience standard d'imagerie fonctionnelle consistait en l'acquisition d'environ 300 images 64x64, nous acquérons aujourd'hui environ 40000 images de même nature. Il existe donc un facteur supérieur à cent. Par ailleurs, le nombre d'utilisateurs a doublé en 5 ans. Cela a donc eu pour conséquence une augmentation d'un facteur 200 à 300 en cinq ans du volume de données à traiter et à stocker.

La manipulation de nos données fait apparaître une sophistication de nos algorithmes de traitement. La précision de nos résultats (en termes de localisation des activations fonctionnelles par exemple) nécessite l'utilisation de techniques puissantes qui induisent des corrélations entre de multiples examens et qui deviennent donc très demandeuses en temps de calcul et en espace mémoire (algorithme de recalage d'images, de dépliement de cortex, de segmentation d'images).

Notre puissance de calcul local n'a pas pu suivre cette évolution. Ceci traduit le besoin d’un accès à une solution de calcul puissante doté d’une capacité mémoire importante. Cette accès nous permettra de hiérarchiser notre utilisation des moyens de calcul. Nos ressources locales seront destinés à la gestion des données produites (pré-traitements, sauvegarde) et l’accès à une ressource commune nous permettra la mise en œuvre des algorithmes de traitement d’images multidimensionnelles et multimodales (y compris statistiques) sur les gros volumes de données.
 
 

    1. Modélisation biomédicale
      1. Modélisation Biomécanique

      2. Un certain nombre d’activités de recherche du laboratoire TIMC se situent autour de l'utilisation de modèles biomécaniques des tissus du vivant afin de mieux appréhender certaines pathologies. Des modèles numériques d'organes humains ont ainsi été développés, et sont utilisés en simulation pour aider le chirurgien dans des tâches pré-opératoires (aide au diagnostic) ou per-opératoires (systèmes de guidage). La géométrie de ces modèle est en général reconstruite à partir de données d’imagerie (IRM, TDM), permettant ainsi de définir des maillages volumiques servant de base à la discrétisation des équations aux dérivées partielles qui gèrent le comportement mécanique des structures modélisées. Les calculs sous-jacents nécessitent d’importantes capacités mémoire, notamment lors de modélisations tridimensionnelles pour lesquelles les matrices d’élasticité associées aux éléments volumiques peuvent atteindre des tailles très importantes.
         
         

        1. Modèle topologique de l’architecture fibreuse du myocarde : Application au diagnostic et au suivi des anomalies de la croissance et du remodelage du myocarde ventriculaire
Partenaires :

Pierre-Simon Jouk (PU-PH), Yves Usson (CR1 CNRS), Gabrielle Michalowicz (Docteur-Ingénieur, Attaché scientifique) de l’équipe Reconnaissance des Formes et Microscopie Quantitative (RFMQ) TIMC, principalement en partenariat avec Annie Raoult du laboratoire LMC-IMAG UJF, Denis Caillerie du laboratoire L3S INPG et le service de cardiologie du CHU de Grenoble.

Le projet Modèle topologique de l’architecture fibreuse du myocarde se fait aussi en partenariat avec d’autres équipes de la région : l’Unité fonctionnelle de biologie du développement et génétique clinique du CHU Grenoble pour la partie médicale, Le laboratoire de chirurgie expérimentale du centre chirurgical Marie Lannelongue (Université Paris Val de Marne) pour la partie chirurgicale ;

Projet :

L'objectif médical est d'améliorer le diagnostic, le suivi et la prévision des anomalies de la croissance et du remodelage cardiaque des pathologies cardiaques malformatives et acquises.

L'objectif scientifique et méthodologique est de développer de nouveaux modèles de segmentation 3D déduit de la meilleure définition des caractéristiques topologiques des surfaces sur lesquelles sont disposées les fibres cardiaques : courbure, singularités.

Depuis 1989, nous avons développé de nouvelles techniques de microscopie quantitative et d’analyse d’image en lumière polarisée afin de pouvoir étudier l’orientation des cellules cardiaques au sein de la masse ventriculaire (1,2). Ces techniques microscopiques mises au point, l’analyse des résultats obtenus s’est faite dans 2 directions : i) une approche biomécanique locale visant à préciser les implications mécanique en terme de performance et de répartition des contraintes (3, 4) ; ii) et une approche topologique de modélisation de l’architecture de l’ensemble du massif ventriculaire au cours de la période foetale. Dans ce modèle anatomique les fibres suivent des géodésiques à la surface de bretzel imbriquées (5).

L’architecture tridimensionnelle des cellules myocardiques est encore très imparfaitement connue tant au cours du développement qu’à l’âge adulte. Il s’agit pourtant d’un besoin crucial dans 3 domaines :

  1. celui de la chirurgie cardiaque. Les principaux efforts d’innovation des chirurgiens cardiaques portent actuellement sur le modelage chirurgical du massif ventriculaire, et ils sont donc très demandeurs d’outils d’explorations anatomiques et histologiques, leur permettant de caractériser leurs résultats expérimentaux;
  2. celui de l’electrophysiologie cardiaque et tout particulièrement de la mort subite d’origine rythmique cardiaque du foetus et du nourrisson. En effet, en dehors d’observations exceptionnelles de mort subite au cours d’enregistrements électrocardiographiques qui ont permis d’établir la réalité du problème, les enquêtes étiologiques sont cruellement privées de moyen d’investigation dans cette pathologie. La détermination par nos méthodes de l’architecture 3D des cellules myocardiques qui est corrélée à la propagation longitudinale de l’activation cardiaque constitue donc un nouvel outil d’exploration de ces pathologies;
  3. celui de la caractérisation phénotypique des anomalies de la morphogenèse cardiaque. En effet les malformations cardiaques caractérisées à l’échelon anatomique peuvent être remarquablement hétérogènes dans leurs étiologies. Elles peuvent être d’origine multifactorielle, génique, chromosomique ou environnementale. Et le problème posé ici est donc de savoir si l’introduction d’une nouvelle sémiologie descriptive à l’échelon microscopique permettra de mieux subdiviser le groupe hétérogène des malformations cardiaques
Le programme de notre projet se divise en : - L’acquisition des données sur l’orientation des fibres myocardiques sur des cœurs malformés dont la topologie est très altéré du fait de la disparition d’une ouverture physiologique : atrésie tricuspide, atrésie mitrale, canal atrio-ventriculaire,Tronc artériel commun, Atrésie pulmonaire à septum interventriculaire ouvert.

- L’Elaboration du modèle topologique propre à chaque malformation.

- La confrontation avec les modèles topologiques élaborées en collaboration avec l’équipe du LMC-UJF et 3S-INPG et élaboration d’un modèle quantitatif. Etude de l’écart de la disposition observée des fibres au modèle géodésique théorique.

- L’intégration des données topologiques anatomiques avec les données d’imagerie cardiaque échographique et IRM. La question posée étant jusqu'à quelle point la détermination des contours ventriculaires externes et internes accessibles par les techniques d’imagerie échographiques et IRM permettent elles d’inférer l’architecture fibreuse.
 
 

Au plan médical, Les paramètres quantitatifs issus du modèle mathématique et informatique apporteront une aide à la connaissance : i) de la répartition des contraintes au sein du massif ventriculaire, nécessaire aux tentatives chirurgicales de résection des anévrysmes ventriculaires ; ii) de la propagation longitudinale de l’influx nerveux nécessaire à la compréhension des troubles du rythme ventriculaires complexes .

Références :

Y. Usson, F. Parazza, P-S. Jouk, G. Michalowicz. Method for the study of the three-dimensional orientation of myocardial cells by means of confocal scanning laser microscopy. J. Microscopy 1994 , 174, Pt 2: 101-110.

P-S. Jouk, Y. Usson, G. Michalowicz, F. Parazza. Methods for the study of the three-dimensional orientation of myocardial cells by means of polarized light microscopy. Microscopy Res. Tech. 1995, 30: 480-490.

H Cai, Y. Usson, P-S. Jouk, J. Ohayon. Fiber Orientation in Mid-gestation Human fetal Heart and ventricular mechanics . Innov.Techn.Biol. Med. 1999, 20(2); 67-83.

Ohayon, J., Usson, Y., Jouk, P-S., Cai, H. Fiber orientation in human fetal heart and ventricular mechanics: A small perturbation analysis. Computer Methods in Biomechanics and Biomedical Engineering 1999, 2: 83-105

P-S. Jouk, Y. Usson, G. Michalowicz, L Grossi . Three-Dimensional cartography of the pattern of the myofibres in the second trimester fetal human heart. Anat. Embryol (sous presse).
 
 

        1. Modélisation de structures trabéculaires osseuses.

        2. Participants: Staub Jean-François, DR2 CNRS, Mendjeli Mahidine, Ingénieur d'Etude (informatique) PARIS 7. ESA 7052 CNRS, Faculté de Médecine Lariboisière-St-Louis, 10 avenue de Verdun, 75010 Paris.

          Tracqui Philippe CR1 CNRS, Lab. TIMC-IMAG, équipe TIMB, UMR 5525 CNRS, Faculté de Médecine 38706 La Tronche CEDEX.

          Les études relatives à la relation réciproque qui existe entre les aspects structuraux de l'organisation du tissu osseux et sa fonction mécanique ont connu, ces dernières années, des développements spectaculaires, et ceci à divers titres:

          1°) La mise au point de méthodes de reconstruction 3D de structures osseuses qui utilisent soit la micro-tomographie aux rayons X (1), soit la Résonance Magnétique Nucléaire (2) et dont la résolution permet une description à une échelle qui peut atteindre la dizaine de µm.

          2°) Le développement de modèles utilisant les méthodes aux éléments finis (LS-FEA, large-scale finite element analysis) établis sur la base des reconstructions 3D qui permettent d'étudier théoriquement les comportements mécaniques des structures osseuses analysées (3).

          3°) L'élaboration d'une théorie du remodelage osseux: On sait, en effet, que l'ensemble des processus associés à l'expression du système cellulaire osseux (ostéoblastes, ostéoclastes, ostéocytes) assure l'adaptation structurale du système osseux à l'environnement mécanique auquel l'os est soumis. Le système cellulaire sensible aux déformations locales occasionnées par l'application de forces mécaniques "optimise" la structure en renforçant ou affaiblissant les éléments qui la composent (4). Un modèle développé sur la base de cette théorie montre qu'un tel système présente la capacité de générer des structures spatiales auto-organisées qui ont été rapprochées des structures osseuses de type trabéculaire (os spongieux) (5).

          Dans ce contexte, notre travail de modélisation qui porte sur l'application des systèmes dynamiques non linéaires à l'auto-organisation temporelle et spatiale du système osseux (6) prend une signification toute particulière: En effet, nous proposons que les processus impliqués dans l'établissement et le développement des structures trabéculaires, telles qu'elles apparaissent à l'état embryonnaire, trouvent leurs origines dans l'expression dynamique de non linéarités inhérentes à certains aspects du métabolisme osseux (7). Une fois la structure instaurée, la dynamique de remodelage peut concourir à l'adaptation fonctionnelle de l'os. Ayant mis au point une méthode de reconstruction 3D adaptée à des échantillon de très faible taille (8), nous prévoyons donc de compléter notre modèle par la considération explicite de ce processus adaptatif. Ceci nécessite une révision des moyens de résolution numérique jusqu'ici employés (méthodes aux différences finies), et le développement de modèles qui incluent la réponse à des stimuli mécaniques. Une comparaison entre les comportements des structures théoriques et ceux prédits pour les structures reconstruites servira de base à la détermination des conditions dans lesquelles les simulations du modèle seront réalisées. Le choix de la méthode aux éléments finis semble approprié: Cependant, compte tenu de la nature 3D du problème auquel nous sommes confrontés, le nombre des éléments va nécessairement s'élever et justifier des moyens de calcul performants, la limitation première concernant l'espace en mémoire vive disponible.

          Portée du projet: Le travail de recherche fondamentale succinctement présenté ici ne se limite pas à la compréhension des mécanismes de morphogenèse et d'organogenèse présidant à la création et à l'évolution des structures trabéculaires osseuses. Comme évoqué ci-dessus, il s'inscrit dans le cadre général de recherches dont les retombées cliniques intéressent diverses pathologies osseuses, la plus directement concernée étant l'ostéoporose.

          1- Müller, R. Van Campenhout, H., Van Mamme, B., Van Der Perre, G., Dequeker, J., Hildebrand, T., Rüegsegger, P. (1998). Morphometric analysis of human bone biopsies: a quantitative structural comparison of histological sections and micro-computed tomography. Bone 23, 59-66.

          2- Chung, H. W., Wehrli, F. W., Williams, J. L., Wehrli, S. L. (1995) Three-dimensional nuclear magnetic resonance micro-imaging of trabecular bone. J. Bone Mineral Res. 10: 1452-1461.

          3- Ulrich, D., van Rietbergen, B., Weinans, H., Rüegsegger, P. (1998) Finite element analysis of trabecular bone structure: a comparison of image-based meshing techniques. J. Biomechanics 31: 1187-1192.

          4- Burger E. H. and J. Klien-Nulend. (1999) Mechanotransduction in bone- role of the lacuno-canalicular network. FASEB J. 13: S101-S112.

          5- Weinans H. and P. J. Prendergast. (1996) Tissue adaptation as a dynamical process far from equilibrium. Bone 19(2): 143-149.

          6- Staub, J. F., Tracqui, P., Lausson, S., Milhaud, G., Perault-Staub, A. M. (1989). A physiological view of in vivo calcium dynamics: The regulation of a nonlinear self-organized system. Bone 10: 77-86.

          7- Courtin B., A. M. Peraul-Staub and J. F. Staub. (1997) A reaction-diffusion model for trabecular architecture of embryonic periosteal long bone. Complexity International 4: 1-16.

          8- Mendjeli, M., Meunier, A., Staub, J.F. . 3D reconstructions and morphologic analysis of embryonic long bone. (en préparation).
           
           

        3. Modélisation des Voies Aériennes Supérieures

        4. Participants au projets :

          - Yohan Payan (Maître de Conférences, modélisation biomécanique, membre de l’équipe GMCAO de TIMC).

          - Patrick Levy (Professeur Hospitalier et Universitaire, spécialiste de la physiologie respiratoire et responsable du Laboratoire du Sommeil de Grenoble, responsable de l’équipe PRETA de TIMC).

          - Matthieu Chabanas (Doctorant Allocataire MENSR, modélisation biomécanique pour l’aide à la chirurgie maxillo-faciale, membre de l’équipe GMCAO de TIMC).

          - Pierre-Yves Gumery (Maître de Conférences, spécialiste de la physiologie respiratoire, membre de l’équipe PRETA de TIMC)

          - Hervé Roux-Busson (Maître de Conférences, spécialiste de la physiologie respiratoire, membre de l’équipe PRETA de TIMC)

          - Patrice Barrabé (Maître de Conférences, spécialiste de la physiologie respiratoire, membre de l’équipe PRETA de TIMC).

          Collaborations :

          - Pascal Perrier (Professeur à l’INPG, spécialiste de contrôle moteur et de modélisation biomécanique de la parole, co-responsable de l’équipe " Articulatoire " à l’Institut de la Communication Parlée).

          Xavier Pelorson, responsable (Chargé de Recherche au CNRS, spécialiste d’acoustique et de modélisation aéroacoustique, membre de l’équipe " Acoustique " à l’ICP).
           
           
           
           

          Problématique :

          Parmi les actes chirurgicaux qui concernent les voies aériennes supérieures (VAS), beaucoup vont agir en partie sur la structure linguale. Par exemple, afin de traiter la pathogénie du syndrome d'apnées obstructives du sommeil, certains actes chirurgicaux visent à réduire le volume de la langue. La structure linguale doit également faire l'objet d'une intervention chirurgicale dans les cas de prognathismes mandibulaires ou pour des nouveau-nés souffrant du syndrome de Pierre Robin. Ces interventions étant, délicates, lourdes à mettre en œuvre, et souffrant parfois d'un taux de réussite très moyen, il est intéressant d'utiliser un outil de modélisation, afin de simuler, d'analyser et de prédire les conséquences de ces actes chirurgicaux. C’est ainsi que nous utilisons pour le moment un modèle biomécanique bidimensionnel de la structure linguale et des parois palatales et pharyngales. Le développement d’un modèle 3D complet, important pour traiter la plupart des pathologies asymétriques des VAS, pourrait être exploité en simulation pour aider le chirurgien lors de diagnostics pré et/ou per-opératoires, mais nécessitera une structure de calcul beaucoup plus performante que celle utilisée couramment en 2D (pentium II 500MHz, 512 Mo de RAM). Ceci sera d’autant plus important dans le cas du traitement du syndrome d’apnée du sommeil, pour lequel l’outil de modélisation du collapsus nécessite une prise en compte précise et complexe du comportement mécanique des parois des VAS et de leur couplage avec le flux d’air (modèle de l’interaction entre équations de la mécanique des fluides et de la biomécanique des tissus).

          Références :

          Perrier P., Payan Y., Perkell J.S., Zandipour M., Pelorson X., Coisy V. & Matthies M. (2000). Simulation of the fluid walls interaction during velar stops. Proceedings of the 5th International Speech Production Seminach. Mai 2000.

          Perrier P., Payan Y., Perkell J., Zandipour M. & Matthies M. (1999). VCV synthesis from muscle commands. Joint meeting of the Acoustical Society of America and the European Acoustics Association, March 1999, Berlin Germany .

          Pelorson X., SaidiSoulliere C., Payan Y. & Levy P. (1998) Physical modelling of the upper airway collapse during sleep apnoea. Journal of the European Respiratory Society, Vol. 12, Supplement 28, 163s.

          Payan Y., Bettega G. & Raphaël B. (1998). A biomechanical model of the human tongue and its clinical implications. First International Conference on Medical Image Computing and Computer-Assisted Interventions - MICCAI'98. MIT, Cambridge MA, USA, pp. 688-695.

          Payan Y. (1998). Un modèle biomécanique pour simuler les déformations et les mouvements sagittaux de la langue. Archives of Physiology and Biochemistry, vol. 106, supplement B, 148, september 1998..

          Payan Y. (1998). A 2D biomechanical model of the human tongue. Proceedings of the ASME Dynamic Systems and Control Division, DSC - Vol. 64, pp. 593-596.

          Perrier P., Payan Y., Perkell J., Jolly F., Zandipour M. & Matthies M. (1998). On Loops and Articulatory Biomechanics. 5th International Conference on Spoken Language Processing, Sydney, Novembre 1998.
           
           

        5. Modélisation de la face en chirurgie maxillo-faciale
Participants au projet :

Chercheurs TIMC :

- Yohan Payan (Maître de Conférences, modélisation biomécanique, membre de l’équipe GMCAO de TIMC).

- Matthieu Chabanas (Doctorant Allocataire MENSR, modélisation biomécanique pour l’aide à la chirurgie maxillo-faciale, membre de l’équipe GMCAO de TIMC).

Collaborations : Problématique :

La chirurgie orthognatique a pour but de corriger les dysmorphoses maxillo-mandibulaires, et ses implications sont à la fois fonctionnelles, pour la normalisation de l'occlusion dentaire, et esthétiques, pour le rééquilibrage de la face. Lors des deux projets européens IGOS I et II (Image Guided Orthopaedic Surgery), notre équipe de recherche a développé un simulateur pour l'aide au repositionnement des structures osseuses mandibulaires et maxillaires. L’étape de modélisation en cours de développement concerne la simulation du comportement des tissus mous de la face, suite aux déplacements des structures osseuses sous-jacentes. Un modèle biomécanique 3D de la face a déjà été développé, intégrant deux couches dermiques, ainsi que les principaux muscles peauciers. Une configuration de calcul machine plus puissante pourrait ici aussi nous permettre de compléter ce modèle par un nombre plus important de couches dermiques, nous rapprochant ainsi de l’anatomie faciale humaine.

Références :

Bettega G., Payan Y., Mollard B., Boyer A., Raphaël B. and Lavallée S. (2000). A simulator for maxillo-facial surgery integrating cephalometry and orthodontia, Journal of Computer Aided Surgery, Vol. 5, n°4.

Payan Y., Collado R. & Chabanas M. (2000). A 3D biomechanical model of the human face. Proceedings of the 3rd Australian and New Zealand Society of Biomechanics Conference. Queensland, Australia, January 2000.

Bettega G., Payan Y., Mollard B., Boyer A., Chabanas M., Raphaël B. and Lavallée S. (2000). A simulator for maxillo-facial surgery. – Proceedings of the International Conference on Computer Assisted Radiology, CAR 2000, juin 2000.

Payan Y. (1999). A simulator for plastic and maxillo-facial surgery. Proceedings of the 1st International Franco-Singapore Biomedical Engineering Symposium Biomedical Imaging and Biomaterials, décembre 1999, Singapour.
 
 
 
 
 
 

        1. Modélisation du foie lors des traitements chirurgicaux de tumeurs

        2. Chercheurs TIMC :

          - Jocelyne Troccaz (Directeur de Recherche CNRS, spécialiste de robotique médicale, responsable de l’équipe GMCAO de TIMC).

          - Yohan Payan (Maître de Conférences, modélisation biomécanique, membre de l’équipe GMCAO de TIMC).

          - Miriam Amavizca (étudiante en DEA IVR).

          Collaborations :

          - Christian Letoublon (responsable du service de chirurgie digestive, CHU Grenoble).

          - David Voirin (interne au service de chirurgie digestive (CHUG), étudiant en DEA MIMB).

          Problématique :

          Le traitement de tumeurs du foie nécessite l'action sur des zones quelquefois profondes au moyen de différents agents : ultrasons focalisés, chirurgie, alcool, froid, radiofréquence, etc. L'abord de ces tumeurs doit être le moins invasif possible. Dans ce travail nous nous situons dans le contexte de l'action par radiofréquence. Une aiguille est insérée dans la tumeur et les radiofréquences détruisent localement les tissus par hyperthermie. Pour pouvoir atteindre des tumeurs de petites tailles, l'aiguille doit être précisément positionnée. A l'heure actuelle, des images échographiques servent à guider le chirurgien dans le positionnement de ces aiguilles qui reste difficile et relativement peu précis. Dans le cadre de ce projet, il s'agit de réaliser un système pour l'assistance au positionnement des aiguilles radiofréquence. Lors de l'intervention, des données per-opératoires acquises pendant l'intervention sont mises en correspondance avec les données pré-opératoires et permettent de transférer le planning en situation opératoire. Cette mise en correspondance rencontre le problème de la mobilité et de la déformabilité du foie. Pour limiter et surtout pour prédire les conséquences des déformations du foie, un modèle biomécanique 3D de cette structure est en cours de développement, et nécessitera d’importants cycles de simulation numérique.

          Références :

          Letoublon C., Troccaz J., Payan Y., Voirin D., Amavizca M. & Sengel C. (2000). Chirurgie des tumeurs du foie assistée par ordinateur. Avancées et perspectives en matière de gestes médico-chirurgicaux assistés par ordinateur, Grenoble, septembre 2000.
           
           

        3. Simulation par la méthode aux éléments finis de l'effet des médicaments sur la plaque d'athérosclérose
Chercheurs TIMC : - Yohan Payan (Maître de Conférences, modélisation biomécanique, membre de l’équipe GMCAO de TIMC). Collaborations : - J. Ohayon, professeur au LaMaCo - ESIGEC - Université de Savoie.

- G. Finet, Docteur à l’Hôpital Cardio-vasculaire de Lyon.
 
 

Problématique :

Lorsqu'un vaisseau sanguin irriguant le muscle cardiaque est obstrué par une plaque d'athérome, la zone non irriguée en oxygène n'est plus active et le cœur ne peut plus assurer correctement sa fonction pompe. Ce mécanisme est à l'origine de l'infarctus du myocarde et peut conduire à la mort du patient. Aujourd'hui, les cardiologues disposent de médicaments pouvant modifier les propriétés des différents constituants de cette plaque de façon à la rendre éventuellement plus stable.  Des travaux ont démarré afin de tenter de prédire, à l'aide de la méthode aux éléments finis, les zones sensibles où la rupture de la plaque peut avoir lieu avant le traitement, et de quantifier l'effet des médicaments sur la répartition des contraintes au sein de cette plaque.

Références :

Teppaz P., Finet G., Tabib A., Ohayon, J.  Evaluation des contraintes résiduelles dans les artères coronaires humaine normales. I.T.B.M. 20(1):59-66, 1999.

Teppaz, P., Ohayon, J., Herbin, R. Fluid-active structure interaction: Arterial Flow.Comptes Rendus de l'Académie des Sciences , Série II, 324: 37-45, 1997.
 
 

      1. Modélisation de phénomènes physiques et biologiques

      2. Deux sujets sont actuellement principalement étudiés :

        1/ Projet de simulation des équations de Maxwell dans un milieu conducteur, inhomogène et non isotrope. Application à la stimulation profonde du cerveau.

        Participants : Jean Louis Martiel, CR INSERM au Laboratoire TIMC, Olivier Palombi, Interne CHU, DEA MIMB, début thèse en sept. 2000, Arnaud TOnnelier, DEA Math Appli. mi-parcours thèse de mathématiques appliquées.

        Collaboration Pr. A-L Benabid, CHU de Grenoble.

        2/ Modélisation des cascades de signalisation et du remodelage cellulaire. Application à la potentialisation à long terme des neurones.

        Participants : Jean Louis Martiel, CR INSERM au Laboratoire TIMC.

        Collaboration : Dr. Y. Goldberg, Laboratoire de Neurophysiologie Equipe Neurodégénérescence et Plasticité, CHU de Grenoble.

        Ces deux projets, bien que ne traitant pas des mêmes phénomènes biologiques et bien qu'ils s'adressent à des problèmes médicaux différents, nécessitent de simuler des modèles physiques dans des milieux complexes.

        1. Projet de simulation des équations de Maxwell dans un milieu conducteur, inhomogène et non isotrope. Application à la stimulation profonde du cerveau

        2. Le premier projet nécessite la résolution d'une équation de Poisson de la forme suivante:

          J est le vecteur densité de courant induit par l'électrode de stimulation. Le tenseur de conductivité, s, résume la complexité géométrique du cerveau. Si on suppose que la conductivité est constante et isotrope sur des sous domaines Wi, on peut remplacer le problème de résolution de l'équation de Laplace par une équation intégrale suivante:

          avec:

          I est l'intensité de stimulation ; on suppose que l'électrode est dans le domaine W0. La discrétisation de cette équation, ainsi que l'utilisation d'atlas 3-D du cerveau pour déterminer les domaines Wi permettra de proposer un algorithme numérique simulant la distribution des courants électriques.

          Résultats attendus :

          planification des interventions chirurgicales de stimulation profonde dans le cas du traitement de malades parkinsoniens ; extension de la méthode à d'autre troubles du mouvement;

          organisation et validation des observations per- et post-opératoires ;

          couplage de la simulation et d'un atlas 3-D au sein d'une seule application.

        3. Modélisation des cascades de signalisation et du remodelage cellulaire. Application à la potentialisation à long terme des neurones.
Le second projet consiste à simuler un ensemble de processus bio-chimiques qui ont lieu dans des compartiments cellulaires (corps cellulaires, axones ou épines de neurones). Cet ensemble de réactions biochimiques est sous le contrôle de l'activité électrique du neurone, en particulier à cause du calcium qui participe à la fois aux flux ioniques (équivalent à un courant électrique) transmembranaire et aussi comme initiateur de l'activation de certaines cascades de réactions. La nouveauté du projet consiste dans le couplage suivant:

l'initiateur de l'activation des cascades de réaction biochimique est sous le contrôle de l'activité électrique du neurone. Echelle de temps de cette activité électrique : milliseconde.

L'activation des cascades bio-chimiques intracellulaire a un double rôle : (i) modifier la rigidité du contenu cellulaire et induire des effets mécaniques (modification de la forme de la cellule, de sa taille, bourgeonnement de nouvelle structures …) (échelle de temps minute) et (ii) modifier l'expression des gènes et induire le transport et la transcription des ARNm en certaines zones spécifiques de la cellule (échelle de temps heure);

La modification de la forme de la cellule se répercute sur la dynamique des réactions bio-chimiques par le fait que les domaines où se placent ces réactions voient leurs frontières se modifier.

Modèle : Il s'agit de simuler un système d'équation aux dérivées partielles (3-D) couplant les phénomènes électriques, les phénomènes biochimiques et la mécanique du milieu continu que constitue le neurone lui-même. Ce modèle régit les interactions entre ces 3 niveaux de description pour tenir compte de la multiplicité des échelles de temps et d'espace, d'une part, et du problème du rétro-contrôle des processus dynamiques dans une géométrie évoluant avec cette dynamique, d'autre part.

Pour réaliser ce projet, on utilise une méthode fondée sur les éléments finis où la géométrie réelle est représentée à partir d'un élément parent grâce à des fonction de formes et des nœuds. Cette méthode permet de discrétiser les équations aux dérivées partielles et ramène leur résolution à trouver la solution de systèmes algébriques linéaires. Dans le cas de la modification de la géométrie du domaine hôte, on utilise la notion de différentiation d'un domaine en supposant l'existence d'une application F telle que:
 
 

où q est la vitesse de transformation du domaine W. On peut, grâce à F tenir compte de : (i) l'effet des variation de volume et/ou des interface sur la dynamique et (ii) de l'effet de la dynamique sur la variation de volume ou interfaces.

Résultats attendus : comprendre les bases moléculaires de la mémoire et étudier la neurodégénérescence.

Références :

Benabid, A. L., P. Pollak, et al. (1991). "Long-term suppression of tremor by chronic stimulation of the ventral intermediate thalamic nucleus." Lancet 337(8738): 403-6.

Bonnet M. (1995). Boundary Integral Equation Methods for Solids and Fluids. Wiley.

Geselowitz D.B. (1967). On bioelectric potentials in an inhomogeneous volume conductor. Biophys. J. 7 :1-11.

Hamalainen, M. S. and J. Sarvas (1989). "Realistic conductivity geometry model of the human head for interpretation of neuromagnetic data." IEEE Trans Biomed Eng 36(2): 165-71.

Bhalla U.S., Iyengar R. Emergent properties of networks of biological signalling pathways. 1999. Science, 283 :381-386.

Kuznetsov Y.A. (1995) Elements of Applied Bifurcation Theory. Springer, Applied Mathematical Science, 112.

Traub R.D., Wong R.K.S., Miles R. and Michelson H. A model of a CA3 hippocampal pyramidal neuron incorporating voltage-clamp data on intrinsic conductances. J. of Neurophysiol. 66 : 635-650.

Engert F. and Bonhoeffer T. Dendritic spine changes associated with hippocampal long-term synaptic plasticity. 1999. Nature, 3999 :66-70.
 
 

    1. Pôle bio-informatique de l’UJF
Le Pôle Bio-informatique de l’UJF est localisé essentiellement actuellement dans 3 équipes de théoriciens (informaticiens et mathématiciens) et dans 4 équipes de biologistes/médecins (généticiens moléculaires ou humains) : T1 A. Antoniadis (LMC-IMAG)

T2 L. Trilling (LSR-IMAG)

T3 J. Demongeot (TIMB-TIMC-IMAG)

équipes de biologistes/médecins

B1 M. Blot & J. Geiselmann (Laboratoire de contrôle de l’expression génique)

B2 O. Cohen (TIMC-Génôme)

B3 J. Joyard (CEA/DBMS)

B4 D. Leroux & J.J. Lawrence (IAB)

La description des activités de recherche de ces équipes a été faite dans le document Génopôle, réalisé en juin 1999 par l’UJF. Rappelons seulement que ces équipes sont concernées par la mise au point d’outils conviviaux pour effectuer :

  1. la lecture des " images " fournies par les bio-puces (extraction d’images binaires d’expression géniques, à partir des données de liaison des substrats - ADN, ARN, m-ARN,… - à la matrice des récepteurs de la bio-puce)
  2. l’identification (sous des hypothèses de minimalité) des matrices d’interaction géniques compatibles avec les matrices binaires phénotypiques observées
  3. le calcul des distances ou écarts de similitude entre séquences nucléiques ou protéiques
  4. la détermination d’opérateurs (cachés ou explicites) expliquant l’évolution d’un génome
  5. la mise au point de bases de connaissances génomiques exploitables par Internet.
De nombreux algorithmes et logiciels ont déjà été mis au point par les chercheurs de l’UJF. Pour se rapprocher des équipes géographiquement ou thématiquement voisines avec lesquelles elles collaborent (Laboratoire de Biométrie de Lyon (C. Gauthier), INRIA Rhône-Alpes (F. Rechenmann), Equipe SwissProt de Genève (A. Bairoch), Equipe de J. Cohen à Brandeis, Laboratoires de Chimie Physique et de Génétique de l’ULB (A. Toussaint & R. Thomas), Equipe Génatlas du Laboratoire de Génétique humaine de Necker (A. Münnich et C. Mugnier), Centre de Mathématiques Appliqueés de l’Université du Chili à Santiago (E. Goles), Institut de la Complexité de Santa Fé (S. Kaufmann)), elles doivent se doter d’un matériel de calcul performant, ainsi que de stations de consultation conviviales.
 
 
      1. T1 A. Antoniadis (LMC-IMAG)

      2. A. Antoniadis, C. Lavergne, C. Cans, O. Cohen et J. Demongeot collaborent dans l’étude des facteurs de risque d’anomalies chromosomiques constitutionnelles et de pathologies familiales. Un projet européen est en cours, sous la direction de C. Cans.

        C. Cans, S. Lenoir, E. Blair, A. Verrier, N. Haouari, C. Rumeau-Rouquette. Motor deficiencies in children: for a nosologic clarification in epidemiological studies. Arch. Pediatr., 3, 75-80 (1996).

        O. Cohen, C. Cans, M. Cuillel, J.L. Gilardi, H. Roth, M.A. Mermet, P. Jalbert & J. Demongeot. Cartographic study : breakpoints in 1574 families carrying human reciprocal translocations. Hum. Genet., 97, 659-667 (1996).

        O. Cohen, M.A. Mermet, M. Simonet, J. Demongeot. A new computer system for reciprocal translocations : genetic counseling and cartographic applications. 47th annual meeting of the American Society of Human Genetics. Baltimore (USA) October 28-November 1, 1997. Am. J. Hum. Genet. , 61, A187 (1997).

        T. Faraut, O. Cohen, J. Demongeot. Reciprocal translocations: the role of crossing-over in the determination of the unbalanced mode. 47th annual meeting of the American Society of Human Genetics. Baltimore (USA) October 28-November 1, 1997. Am. J. Hum. Genet., 61, A12 (1997).

        E. Fombonne, C. Du Mazaubrun, C. Cans , H Grandjean. Autism and associated medical disorders in a French epidemiological survey. J. Am. Aca.d Child Adolesc. Psychiatry 36, 1561-1569 (1997).

        T. Faraut, M. A. Mermet, J. Demongeot, O. Cohen. Cooperation of selection and meiotic mechanisms in the production of imbalances in reciprocal translocations. Cytogenet. Cell. Genet., in press.

        O. Cohen, M. A. Mermet, J. Demongeot. HC Forum : an international database and a web site dedicated to structural abnormalities of chromosomes. Am. J. Hum. Genet., in press.

      3. T2 L. Trilling (LSR-IMAG)

      4. En collaboration avec le docteur Marc Vidal (Mass. Gen. Hosp., Boston), le professeur Jacques Cohen (U. Brandeis, Boston), et le docteur Thierry Vernet (Inst. de Biologie Structurale, Grenoble), L. Trilling et N. Thierry-Mieg (LSR-IMAG) étudient, par des moyens informatiques, des données biologiques relatives à Caenorhabditis elegans concernant les interactions entre protéines dans cet organisme. La découverte de ces interactions est importante, dans la mesure où elles entrent en jeu dans nombre de phénomènes biologiques, des complexes enzymatiques aux procédés de régulation tels que les voies de transduction du signal. C. elegans présente l’intérêt d’être le seul organisme multicellulaire dont le génome soit intégralement séquencé.

        M. Walhout, H. Endoh, N. Thierry-Mieg, W. Wong, M. Vidal , A Model of Elegance, American Journal of Human Genetics 63, 955-961 (1998).
         
         

      5. T3 J. Demongeot (TIMB-TIMC-IMAG)
T31 Une collaboration récente entre J.L. Martiel (TIMC) et M. Blot (Labo de contrôle de l’expression génique) vise à déterminer les mécanismes de l'évolution du génome bactérien (E. coli) sous l'effet de contraintes de sélection. Une expérience d'évolution de E. coli en milieu appauvri a été conduite depuis 20000 générations (durée de 10 ans) afin de provoquer des changement du génome. L'équipe de M. Blot effectue l'analyse de ces bactéries en examinant la dynamique des séquences d'insertion (IS-sequences) comme marqueurs du réarrangement du génome bactérien sous l'effet de la sélection.

M. Blot, J.L. Martiel , The role of inversion sequences in genomic variability and speciation Genetics (submitted).

T32 Un travail, à la fois instrumental et théorique, est actuellement en cours d’élaboration entre TIMC (P.J. Goss et J. Peccoud), l’INRA (C. Jacob) et l’Université Washington de Seattle (D. Meldrum), sur la détection quantifiée de séquences d’ADN ou d’ARN in situ.

Goss, P.J. and Peccoud, J. (1999). Analysis of the stabilizing effect of ROM on the genetic network controlling ColE1 plasmid replication. In Pacific Symposium on Biocomputing '99. R.B Altam, A.K. Dunker, L. Hunter, T.E. Klein, and K. Lauderdale, eds. (Singapore New Jersey London Hong-Kong: World Scientific), pp. 65-76.

Goss, P.J. and Peccoud, J. (1998). Quantitative modeling of stochastic systems in molecular biology using stochastic Petri nets. Proc. Natl. Acad. Sci. U. S. A. 95, 6750-6755.

Jacob, C. and Peccoud, J. (1998). Estimation of the parameters of a branching process from migrating binomial observations. Adv. Appl. Prob. 30, 948-967.

Peccoud, J. and Jacob, C. (1998). Statistical estimation of PCR amplification rates. In Gene Quantification. F. Ferré, ed. (New-York: Birkhauser), pp. 111-128.

Peccoud, J. (1998). Stochastic Petri nets for genetic networks. M S-Medecine Sciences 14, 991-993.

Jacob, C., Breton, N., Daegelen, P., and Peccoud, J. (1997). Probability distribution of the chemical states of a closed system and thermodynamic law of mass action from kinetics : the RNA example. J. Chem. Phys. 107, 2913-29 19.

Jacob, C. and Peccoud, J. (1996). Inference on the initial size of a supercritical branching process from partial and migrating observations. C. R. Acad. Sci. Paris Série I 322, 875-880.

Jacob, C. and Peccoud, J. (1996). Estimation of the offspring mean for a supercritical branching process from partial and migrating observations. C. R. Acad. Sci. Paris Série I 322, 736-768.

Peccoud, J. and Jacob, C. (1996). Theoretical uncertainty of measurements using quantitative polymerase chain reaction. Biophys. J 71, 101-108.
 
 

T33 Un travail théorique sur le code génétique et sur les réseaux de régulation de génétique fonctionnelle est en cours, en collaboration avec R. Thomas, de l’Université Libre de Bruxelles. Il met l’accent sur l’étude des boucles de régulation positives et sur les phénomènes de mémoire dans l’expression pluri-génique des réseaux génétiques, en comparaison avec les phénomènes observés au niveau des réseaux neuronaux.

Demongeot J., Besson J. Genetic code and cyclic codes II. C.R. Acad. Sc., 319, 520-528 (1996)

Demongeot J, Kulesa P, Murray JD. Compact set valued flows II : applications in biological

modeling. C. R. Acad. Sci. Paris 324, Série IIb:107 (1997)

Demongeot J. Multi-stationarity and cell differentiation. J. Biol. Syst. 6:1 (1998) Tonnelier A, Meignen S, Bosch H, Demongeot J. Synchronization and desynchronization of

neural oscillators. Neural Networks 12:1213 (1999)

Demongeot J, Aracena J, Ben Lamine S, Meignen S, Tonnelier A, Thomas R. Dynamical

systems and biological regulations. In Complex systems, E Goles & S Martinez eds., Kluwer,

Amsterdam, pp. 107-151 (1999)

Demongeot J., Kaufmann M., Thomas R. Positive feedback circuits and memory. C.R. Acad. Sc., in press.

Demongeot J., Thellier M., Thomas R. A mathematical model for storage and recall functions in plants. C.R. Acad. Sc., in press.
 
 

    1. Analyse Génétique Spatialisée
Les participants :

Laboratoire de Biologie des Populations d'Altitude, UMR CNRS 5553, UJF.

Blanc-Manel Stéphanie, Maître de conférences, Luikart Gordon, Chercheur contractuel (classé 1er au CNRS CR1 cette année pour notre laboratoire), Berthier Pierre, Etudiant DEA

Collaborateurs techniques : Françoise Berthoud.

Le projet :

Le développement de nouveaux types de marqueurs moléculaires en biologie des populations en parallèle avec le développement de nouveaux moyens de calculs ouvrent de nouvelles perspectives pour étudier la structure génétique spatiale des populations. L’objectif de ce projet est d’évaluer à l’aide de simulations la précision, le biais et la robustesse des méthodes génétiques déjà existantes, puis de développer des méthodes d’estimation plus précises des paramètres clés en génétique des populations (par exemple la taille efficace d’une population Ne– taille d’une population idéale qui aurait les mêmes paramètres de génétique des populations-). Les simulations et les estimations de ces différents paramètres nécessitent de grands de temps de calculs.

Les objectifs du projet sont

1) d’évaluer la performance en terme de précision, de biais et de robustesse des méthodes génétiques existantes pour estimer différents paramètres primordiaux en génétique des populations (cf taille efficace : Ne).

2) de développer des méthodes plus précises d’estimation de ces paramètres basées sur la théorie de la coalescence, des estimateurs au maximum de vraisemblance et une approche inférentielle Bayésienne [Griffiths & Tavaré. 1994. Theor. Popul. Biol. 46, 131-159 ; 1994 Philos. Trans. R. Soc. Lond. B 344 :403-410]. L’ inconvénient majeur de cette approche réside dans le temps de calcul très long [Beaumont M. & Bruford M. 1999. In : Microsatellites in conservation genetics. Goldstein D. & Bruford]. Les méthodes sont d’abord validées à partir de données de populations simulées dans différentes conditions, avec Ne connue avant d’être testées sur des jeux de données réels.

Dans le cas du paramètre Ne, la meilleure estimation de Ne sera alors utilisée pour les applications suivantes :

Notre groupe a déjà mis au point certains programmes informatiques testés et amélioré la précision d’une méthode d’estimations de Ne [4].
 
 

Principe de la méthode utilisée dans le cas du paramètre Ne (taille efficace):

Les simulations se déroulent en deux étapes : la simulation des données de populations avec un effectif efficace, Ne, connu (1) , puis l’estimation de Ne sur ces populations (2).

1. Simulation des différentes populations

Le programme permet de générer des populations indépendantes. Le fichier de sortie des données est au format GENPOP. Les populations diffèrent pour les paramètres suivants Ne, des paramètres contrôlant la diversité génétique (nombre de locus, fréquences alléliques…) et leur modèle de mutation. Ceci conduit à un grand nombre de populations indépendantes avec des caractéristiques génétiques différentes.

La simulation d’une population est terminée quand la population a atteint l’équilibre mutation - dérive (les fréquences alléliques ne varient plus dans la population considérée). Cette première étape nécessite un grand temps de calcul, en particulier l’atteinte de l’équilibre peut se faire au bout d’un grand nombre de générations.

2. Estimation de Ne, calculs inférentiels Des échantillons de tailles variables sont tirés dans chaque population afin d’estimer Ne (méthode de la coalescence, estimation au maximum de vraisemblance), et de calculer des intervalles de confiances de Ne (méthode Bayésienne). Le programme utilisé actuellement, tm3.exe utilise un algorithme du type Monte Carlo (Griffiths & Tavaré, 1994, Theor. Popul. Biol. 46, 131-159 ; 1994 Philos. Trans. R. Soc. Lond. B 344 :403-410). L’ inconvénient majeur de cette approche réside dans le temps de calcul très long [Beaumont M. & Bruford M. 1999. In : Microsatellites in conservation genetics. Goldstein D. & Bruford].
 
 
Références :

[1]Luikart G., Sherwin W.B., Steele B.M. and Allendorf W. 1998. Usefulness of molecular markers for detecting population bottlenecks via monitoring genetic change. Molecular Ecology, 7 : 963-974.

[2]Luikart G., Cornuet J.M. and Allendorf F.W. 1998. Temporal changes in allele frequencies provide estimates of population bottleneck size. Conservation Biology, 13 : 523-530.

[3]Schwartz M., Tallmon D.A. and Luikart G. 1998. Review of DNA-based census and effective population size estimators. Animal Conservation,

[4]Luikart G. and Cornuet J.M. 1999. Estimating the effective number of breeders from heterozygote excess in progeny. Genetics, 151 : 1211-12116.

[5]Luikart G. and England P. 1999. Statistical analysis of microsatellite DNA data. TREE, 14 : 253-256.

[6]Scwartz M., Tallmon D.A. and Luikart G. in press. Using genetics to estimate the size of wild populations : many methods, much potential, uncertain utility. Animal Conservation.

[7]Manel S., Williams C. & Ormerod S.J. Evaluating presence absence models in Ecology . Submitted to Journal of Applied Ecology.
 
 
 
 
 
 

  1. Solution Matérielle ET LOGICIELLE
    1. Solution Existante

    2. Chacun des laboratoires est équipé de solutions informatiques pour la gestion et le traitement de ses données qui ne lui permettent pas de résoudre les gros problèmes de modélisations décrits dans ce projet de recherche.

      Par exemple, le laboratoire TIMC a exploité, au début des années 90, une MasPar qui a permis la réalisation de nombreuses recherches sur les réseaux de neurones. Une autre solution de calcul a été mise en place en 1998. Partagée au niveau du laboratoire TIMC, elle est composée de deux serveurs DIGITAL 4100 (quadri-pro chacun équipé de trois processeurs alpha EV5 500MHz et 1 Go de RAM) reliés par Memory Channel et de 250Go de disque environ. Cette solution avait été retenue car elle réalisait le meilleur rapport performance/prix parmi celles proposées par 4 constructeurs (bench séquentiels et parallèles réalisés sur DIGITAL, IBM, SGI et SUN). Vue la rapidité du développement des architectures, cette solution sera obsolète dans un an environ et ne permet pas d’absorber la montée en puissance liée à ce projet multi-laboratoire.

      Différentes équipes (TIMC-IMAG, laboratoire de Biologie des Populations d'Altitude ) ont recours aux centres de calcul nationaux (centre de calcul du CEA et CINES).
       
       

    3. Solution envisagée
La mise en place de solution de calcul dans ce projet s’effectuera en 2 phases : Dans tous les cas, la solution BIoIMAGe sera dédiée au calcul. La gestion des données et des résultats sera faite par les pôles. En particulier, les bases de données nécessaires aux projets de Biologie Informatique seront financées et gérées dans le cadre du Génopôle.

La solution sera hébergée sous la responsabilité de Guy Bourrel, au sein du laboratoire TIMC qui a déjà mis en place de telles solutions. Les ingénieurs de chaque pôle contribueront au fonctionnement de la solution commune de calcul en particulier au niveau de la gestion des logiciels et des données. Ainsi l’ingénieur (IR) en recrutement pour le pôle de Biologie Informatique consacrera 20% de son temps au projet BIoIMAGe. Françoise Berthoud accompagne le projet d’analyse génétique spatialisée à hauteur de 20% de son temps, Christophe Rubin soutient le projet d’IRM fonctionnelle à hauteur de 20% dans BIoIMAGe et Guy Bourrel sera l’interlocuteur privilégier du laboratoire TIMC-IMAG.

Le déploiement d’une telle solution implique l’amélioration de la performance des réseaux sur le pôle Santé et de la liaison au Campus (actuellement à 8Mb), avec une généralisation du déploiement du réseau Ethernet 100 sur les pôles du projet, puis le déploiement d’un backbone Gigabit sur le pôle santé. Ces projets sont intégrés parmi les priorités de la cellule réseau du CRIP de l’UJF.
 
 

    1. Financement

    2. Le coût de la première tranche est fixé à 800kF dans le cadre du CPER en 2000. Le devis obtenu indique que 800kF permettront de financer le matériel de la solution retenue. Les logiciels spécifiques seront financés sur les crédits propres des laboratoires participants. L’extension de la maintenance au-delà des trois ans de garantie sur site sera considérée dans le cadre de la seconde tranche.

      Le coût de la seconde tranche est fixé à 1MF dans le cadre du CPER pour 2002.

      Une jouvence doit être envisagée en 2006.

    3. Devis pour la première phase
Nous joignons deux devis de SUN et Compaq. Des réductions plus importantes encore sont envisageables dans le cadre de la négociation finale et d’un couplage éventuel avec une partie de la solution mise en place par le Génopôle. La solution proposée par SUN est très inférieure en terme de performance/prix.