WorldCat Identities

École doctorale de mathématiques et informatique (Talence, Gironde)

Works: 434 works in 435 publications in 2 languages and 590 library holdings
Roles: 996, Editor, Degree grantor
Publication Timeline
Most widely held works by École doctorale de mathématiques et informatique (Talence, Gironde)
Leçons de mathématiques d'aujourd'hui( Book )

1 edition published in 2010 in French and held by 53 WorldCat member libraries worldwide

Leçons de mathématiques d'aujourd'hui( Book )

2 editions published in 2012 in French and held by 27 WorldCat member libraries worldwide

Simulation numérique d'un écoulement diphasique multicomposant en milieu poreux by Nathalie Laquerie( Book )

2 editions published in 1997 in French and held by 2 WorldCat member libraries worldwide

Le but de la thèse est de simuler le lessivage par injection d'eau d'un aquifère pollué par un hydrocarbure. L'accent est mis sur la modélisation où l'on prend en compte de façon explicite les échanges entre les phases, sans faire l'hypothèse d'équilibre local. Ce modèle nous a conduit à étudier un système de convection-diffusion-reaction dans lequel les temps caractéristiques régissant les divers mécanismes mis en jeu sont très différents. Dans un premier temps, nous avons fait l'étude monodimensionnelle, afin de cerner les principales difficultés : non linéarité, dégénérescence, caractère hyperbolique des équations. Afin de traiter aussi précisément que possible ces trois phénomènes, un schéma basé sur la méthode des pas fractionnaires est mis en place. Pour résoudre la partie convection, nous avons utilisé les schémas de Roe et de Harten, puis un schéma basé sur la méthode MUSCL introduite par Van Leer. La partie diffusion est traitée de manière semi-implicite par un schéma aux différences finies centrées. La partie réaction se ramène à l'étude d'un système d'équations différentielles ordinaires, qui est traité de façon semi-implicite. Dans ces deux dernières parties, les non-linéarités sont résolues à l'aide de la méthode de Newton. Ensuite, le schéma proposé est étendu à la dimension deux. On présente quelques tests numériques pour prouver la faisabilité de la méthode
Conception et analyse de schémas d'ordre très élevé distribuant le résidu : application à la mécanique des fluides by Adam Larat( )

1 edition published in 2009 in French and held by 2 WorldCat member libraries worldwide

Numerical simulations are nowadays a major tool in aerodynamic design in aeronautic, automotive, naval industry etc... One of the main challenges to push further the limits of the simulation codes is to increase their accuracy within a fixed set of resources (computational power and/or time). Two possible approaches to deal with this issue are either to contruct discretizations yielding, on a given mesh, very high order accurate solutions, or to construct compact, massively parallelizable schemes to minimize the computational time by means of a high performance parallel implementation. In this thesis, we try to combine both approaches by investigating the contruction and implementation of very high order Residual Distribution Schemes (RDS) with the most possible compact stencil. The manuscript starts with a review of the mathematical theory of hyperbolic Conservation Laws (CLs). The aim of this initial part is to highlight the properties of the analytical solutions we are trying to approximate, in order to be able to link these properties with the ones of the sought discrete solutions. Next, we describe the three main steps toward the construction of a very high order RDS: - The definition of higher order polynomial representations of the solution over polygons and polyhedra; - The design of low order compact conservative RD schemes consistent with a given (high degree) polynomial representation. Among these, particular accest is put on the simplest, given by a generalization of the Lax-Friedrich's (\LxF) scheme; - The design of a positivity preserving nonlinear transformation, mapping first-order linear schemes onto nonlinear very high order schemes. In the manuscript, we show formally that the schemes obtained following this procedure are consistent with the initial CL, that they are stable in $L^{\infty}$ norm, and that they have the proper truncation error. Even though all the theoretical developments are carried out for scalar CLs, remarks on the extension to systems are given whenever possible. Unortunately, when employing the first order \LxF scheme as a basis for the construction of the nonlinear discretization, the final nonlinear algebraic equation is not well-posed in general. In particular, for smoothly varying solutions one observes the appearance of high frequency spurious modes. In order to kill these modes, a streamline dissipation term is added to the scheme. The analytical implications of this modifications, as well as its practical computation, are thouroughly studied. Lastly, we focus on a correct discretization of the boundary conditions for the very high order RDS proposed. The theory is then extensively verified on a variety of scalar two dimensional test cases. Both triangular, and hybrid triangular-quadrilateral meshes are used to show the generality of the approach. The results obtained in these tests confirm all the theoretical expectations in terms of accuracy and stability and underline some advantages of the hybrid grids. Next, we consider solutions of the two dimensional Euler equations of gas dynamics. The results obtained are quite satisfactory and yet, we are not able to obtain the desired convergence rates on problems involving solid wall boundaries. Further investigation of this problem is under way. We then discuss the parallel implementation of the schemes, and analyze and illustrate the performance of this implementation on large three dimensional problems. Due to the preliminary character and the complexity of these three dimensional problems, a rather qualitative discussion is made for these tests cases: the overall behavior seems to be the correct one, but more work is necessary to assess the properties of the schemes in three dimensions
Ubiquité de la formule de Riemann-Hurwitz by Alexis Michel( Book )

1 edition published in 1992 in French and held by 2 WorldCat member libraries worldwide

On donne une méthode algébrique pour étudier les formules de translations du type Riemann-Hurwitz d'invariants arithmétiques. Les formules de Kuz'min-kida, sur l'invariant lambda, de Deuring-Shafarevitch sur l'invariant de Hasse-Witt et de Wingberg pour le groupe de Selmer entrent dans ce cadre. On en unifie les preuves et on obtient des résultats dans d'autres situations. On étend cette démarche dans un cas non-galoisien
Vers des outils efficaces pour la vérification de systèmes concurrents by Thomas Geffroy( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

The goal of this thesis is to solve in practice the coverability problem in Petri nets and lossy channel systems (LCS). These systems are interesting to study because they can be used to model concurrent and distributed systems. The coverability problem in a transition system is to decide whether it is possible, from an initial state, to reach a greater state than a target state. In the first part, we discuss how to solve this problem for well-structured transition systems (WSTS). Petri nets and LCS are WSTS. In the first part, we present a general method to solve this problem quickly in practice. This method uses coverability invariants, which are over-approximations of the set of coverable states. The second part studies Petri nets.We present comparisons of coverability invariants, both in theory and in practice. A particular attention will be paid on the combination of the classical state inequation and a simple sign analysis. LCS are the focus of the third part. We present a variant of the state inequation for LCS and two invariants that compute properties for the order in which messages are sent. Two tools, ICover and BML, were developed to solve the coverability problem in Petri nets and LCS respectively
Algorithmique distribuée asynchrone avec une majorité de pannes by David Bonnin( )

1 edition published in 2015 in French and held by 1 WorldCat member library worldwide

In distributed computing, asynchronous message-passing model with crashes is well-known and considered in many articles, because of its realism and it issimple enough to be used and complex enough to represent many real problems.In this model, n processes communicate by exchanging messages, but withoutany bound on communication delays, i.e. a message may take an arbitrarilylong time to reach its destination. Moreover, up to f among the n processesmay crash, and thus definitely stop working. Those crashes are undetectablebecause of the system asynchronism, and restrict the potential results in thismodel.In many cases, known results in those systems must verify the propertyof a strict minority of crashes. For example, this applies to implementationof atomic registers and solving of renaming. This barrier of a majority ofcrashes, explained by the CAP theorem, restricts numerous problems, and theasynchronous message-passing model with a majority of crashes is thus notwell-studied and rather unknown. Hence, studying what can be done in thiscase of a majority of crashes is interesting.This thesis tries to analyse this model, through two main problems. The first part studies the implementation of shared objects, similar to usual registers,by defining x-colored register banks, and [alpha]-registers. The second partextends the renaming problem into k-redundant renaming, for both one-shotand long-lived versions, and similarly for the shared objects called splitters intok-splitters
Développement de compteurs à scintillation hautes performances et de très basse radioactivité pour le calorimètre du projet SuperNEMO by Emmanuel Chauveau( )

1 edition published in 2010 in French and held by 1 WorldCat member library worldwide

SuperNEMO est un projet de détecteur de nouvelle génération pour la recherche de la décroissance double bêta sans émission de neutrinos. La technique expérimental déployée est dans la lignée du son prédécesseur NEMO3, combinant un trajectographe et un calorimètre, afin d'identifier non seulement les électrons des décroissances double bêta, mais également pour mesurer l'ensemble des composantes de bruit de fond du détecteur. Le projet vise ainsi une sensibilité de 10^26 ans sur la période du 82Se, ce qui permettrait de sonder une masse effective du neutrino de 50 meV. Pour atteindre cette sensibilité, le projet prévoit notamment de mettre en place un calorimètre composé d'un millier de compteur à scintillation de basse radioactivité, dont la résolution en énergie serait meilleure que 8 % FWHM pour des électrons de 1 MeV.Ce travail de thèse apporte une contribution importante dans les travaux de Recherche et Développements pour améliorer les performances des scintillateurs et photomultiplicateurs, et pour réduire leur radioactivité, avec notamment la conception d'un nouveau photomultiplicateur en collaboration avec Photonis
Etudes sur les équations de Ramanujan-Nagell et de Nagell-Ljunggren ou semblables by Benjamin Dupuy( )

1 edition published in 2009 in French and held by 1 WorldCat member library worldwide

In this thesis, we study two types of diophantine equations. A ?rst part of our study is about the resolution of the Ramanujan-Nagell equations Cx2 + b2mD = yn. A second part of our study is about the Nagell-Ljungren equations xp+yp x+y = pezq including the diagonal case p = q. Our new results will be applied to the diophantine equations of the form xp + yp = Bzq. The Fermat-Catalan equation (case B = 1) will be the subject of a special study
Plongement de surfaces continues dans des surfaces discrètes épaisses. by Bruno Dutailly( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

In the context of archaeological sciences, 3D images produced by Computer Tomography scanners are segmented into regions of interest corresponding to virtual objects in order to make some scientific analysis. These virtual objects are often used for the purpose of performing accurate measurements. Some of these analysis require extracting the surface of the regions of interest. This PhD falls within this framework and aims to improve the accuracy of surface extraction. We present in this document our contributions : first of all, the weighted HMH algorithm whose objective is to position precisely a point at the interface between two materials. But, applied to surface extraction, this method often leads to topology problems on the resulting surface. So we proposed two other methods : The discrete HMH method which allows to refine the 3D object segmentation, and the surface HMH method which allows a constrained surface extraction ensuring a topologically correct surface. It is possible to link these two methods on a pre-segmented 3D image in order to obtain a precise surface extraction of the objects of interest These methods were evaluated on simulated CT-scan acquisitions of synthetic objects and real acquisitions of archaeological artefacts
Scheduling and memory optimizations for sparse direct solver on multi-core/multi-gpu duster systems by Xavier Lacoste( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

The ongoing hardware evolution exhibits an escalation in the number, as well as in the heterogeneity, of computing resources. The pressure to maintain reasonable levels of performance and portability forces application developers to leave the traditional programming paradigms and explore alternative solutions. PaStiX is a parallel sparse direct solver, based on a dynamic scheduler for modern hierarchical manycore architectures. In this thesis, we study the benefits and the limits of replacing the highly specialized internal scheduler of the PaStiX solver by two generic runtime systems: PaRSEC and StarPU. Thus, we have to describe the factorization algorithm as a tasks graph that we provide to the runtime system. Then it can decide how to process and optimize the graph traversal in order to maximize the algorithm efficiency for thetargeted hardware platform. A comparative study of the performance of the PaStiX solver on top of its original internal scheduler, PaRSEC, and StarPU frameworks is performed. The analysis highlights that these generic task-based runtimes achieve comparable results to the application-optimized embedded scheduler on homogeneous platforms. Furthermore, they are able to significantly speed up the solver on heterogeneous environments by taking advantage of the accelerators while hiding the complexity of their efficient manipulation from the programmer. In this thesis, we also study the possibilities to build a distributed sparse linear solver on top of task-based runtime systems to target heterogeneous clusters. To permit an efficient and easy usage of these developments in parallel simulations, we also present an optimized distributed interfaceaiming at hiding the complexity of the construction of a distributed matrix to the user
Etude et optimisation des transferts de chaleur en injection moulage : analyse de leur influence sur les propriétés finales by Hamdy Abo Ali Hassan( )

1 edition published in 2009 in English and held by 1 WorldCat member library worldwide

Les plastiques sont typiquement des polymères de grand poids moléculaire. Ils peuvent contenir des autres substances pour améliorer leurs performances et/ou pour réduire les prix. L'industrie plastique est l'une des industries qui a la croissance la plus rapide du monde : de nombreux produits de la vie quotidienne contiennent l'utilisation du produit plastique. Il y a différents procédés pour la mise en forme des polymères (soufflage, moulage par soufflage, moulage par compression, moulage par transfert, extrusion, moulage par injection) pour lesquels les matériaux utilisés, la qualité et la forme du produit fabriqué varient. En particulier, la demande des pièces moulées par injection augmente chaque année. Cela vient du fait que le moulage par injection est identifié comme une des techniques de fabrication les plus efficaces et économiques pour produire des pièces en plastique de formes précises et complexes. Il y a trois étapes significatives dans le processus : premièrement, on remplit la cavité avec le polymère fondu à une température et à une pression d'injection élévées (étape de remplissage et bien remplissage). Deuxièmement la chaleur de la pièce en polymère est évacuée par le système de refroidissement (étape de refroidissement). Troisièmement, après que la partie solidifiée a été éjectée, le moule est fermé et le prochain cycle d'injection commence (étape d'éjection)
On the dynamics of some complex fluids by Francesco De Anna( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

The present thesis is devoted to the dynamics of specific complex fluids. On the one hand we studythe dynamics of the so-called nematic liquid crystals, through the models proposed by Ericksen and Leslie, Beris and Edwards, Qian and Sheng.On the other hand we analyze the dynamics of a temperature-dependent complex fluid, whose dynamics is governed by the Boussinesq system.Nematic liquid crystals are materials exhibiting a state of matter between an ordinary fluid and a solid. In this thesis we are interested in studying the Cauchy problem associated to eachsystem modelling their hydrodynamics. At first, we establish some well-posedness results, such asexistence and uniqueness of global-in-time weak or classical solutions. Moreover we also analyzesome dynamical behaviours of these solutions, such as propagations of both higher and lowerregularities.The general framework for the initial data is that of Besov spaces, which extend the most widelyknown classes of Sobolev and Hölder spaces.The Ericksen-Leslie system is studied in a simplified form proposed by F. Lin and C. Liu,which retains the main difficulties of the original one. We consider both a two-dimensional and athree-dimensional space-domain. We assume the density to be no constant, i.e. the inhomogeneouscase, moreover we allow it to present discontinuities along an interface so that we can describe amixture of liquid crystal materials with different densities. We prove the existence of global-in-timeweak solutions under smallness conditions on the initial data in critical homogeneous Besov spaces.These solutions are invariant under the scaling behaviour of the system. We also show that theuniqueness holds under a tiny extra-regularity for the initial data.The Beris-Edwards system is analyzed in a two-dimensional space-domain. We achieve existenceand uniqueness of global-in-time weak solutions when the initial data belongs to specific Sobolevspaces (without any smallness condition). The regularity of these functional spaces is suitable inorder to well define a weak solution. We achieve the uniqueness result through a specific analysis,controlling the norm of the difference between to weak solutions and performing a delicate doublelogarithmicestimate. Then, the uniqueness holds thanks to the Osgood lemma. We also achieve aresult about regularity propagation.The Qian-Sheng model is analyzed in a space-domain with dimension greater or equal than two.In this case, we emphasize some important characteristics of the system, especially the presence ofan inertial term, which generates significant difficulties. We perform the existence of a Lyapunovfunctional and the existence and uniqueness of classical solutions under a smallness condition forthe initial data.Finally we deal with the well-posedness of the Boussinesq system. We prove the existence ofglobal-in-time weak solutions when the space-domain has a dimension greater or equal than two.We deal with the case of a viscosity dependent on the temperature. The initial temperature is justsupposed to be bounded, while the initial velocity belongs to some critical Besov Space. The initialdata have a large vertical component while the horizontal components fulfil a specific smallnessconditions: they are exponentially smaller than the vertical component
Segmentation spatio-temporelle et indexation vidéo dans le domaine des représentations hiérarchiques by Claire Morand( )

1 edition published in 2009 in French and held by 1 WorldCat member library worldwide

This thesis aims at proposing a solution of scalable object-based indexing of HD video flow compressed by MJPEG2000. In this context, on the one hand, we work in the hierarchical transform domain of the 9/7 Daubechies' wavelets and, on the other hand, the scalable representation implies to search for multiscale methods, from low to high resolution. The first part of this manuscript is dedicated to the definition of a method for automatic extraction of objects having their own motion. It is based on a combination of a robust global motion estimation with a morphological color segmentation at low resolution. The obtained result is then refined following the data order of the scalable flow. The second part is the definition of an object descriptor which is based on the multiscale histograms of the wavelet coefficients. Finally, the performances of the proposed method are evaluated in the context of scalable content-based queries
Contribution à la modélisation et à la simulation numérique multi-échelle du transport cinétique électronique dans un plasma chaud by Jessy Mallet( )

1 edition published in 2012 in English and held by 1 WorldCat member library worldwide

En physique des plasmas, le transport des électrons peut être décrit d'un point de vue cinétique ou d'un point de vue hydrodynamique.En théorie cinétique, une équation de Fokker-Planck couplée aux équations de Maxwell est utilisée habituellement pour décrire l'évolution des électrons dans un plasma collisionnel. Plus précisément la solution de l'équation cinétique est une fonction de distribution non négative f spécifiant la densité des particules en fonction de la vitesse des particules, le temps et la position dans l'espace. Afin d'approcher la solution de ce problème cinétique, de nombreuses méthodes de calcul ont été développées. Ici, une méthode déterministe est proposée dans une géométrie plane. Cette méthode est basée sur différents schémas numériques d'ordre élevé . Chaque schéma déterministe utilisé présente de nombreuses propriétés fondamentales telles que la conservation du flux de particules, la préservation de la positivité de la fonction de distribution et la conservation de l'énergie. Cependant, le coût de calcul cinétique pour cette méthode précise est trop élevé pour être utilisé dans la pratique, en particulier dans un espace multidimensionnel.Afin de réduire ce temps de calcul, le plasma peut être décrit par un modèle hydrodynamique. Toutefois, pour les nouvelles cibles à haute énergie, les effets cinétiques sont trop importants pour les négliger et remplacer le calcul cinétique par des modèles habituels d'Euler macroscopiques. C'est pourquoi une approche alternative est proposée en considérant une description intermédiaire entre le modèle fluide et le modèle cinétique. Pour décrire le transport des électrons, le nouveau modèle réduit cinétique M1 est basé sur une approche aux moments pour le système Maxwell-Fokker-Planck. Ce modèle aux moments utilise des intégrations de la fonction de distribution des électrons sur la direction de propagation et ne retient que l'énergie des particules comme variable cinétique. La variable de vitesse est écrite en coordonnées sphériques et le modèle est défini en considérant le système de moments par rapport à la variable angulaire. La fermeture du système de moments est obtenue sous l'hypothèse que la fonction de distribution est une fonction d'entropie minimale. Ce modèle satisfait les propriétés fondamentales telles que la conservation de la positivité de la fonction de distribution, les lois de conservation pour les opérateurs de collision et la dissipation d'entropie. En outre une discrétisation entropique avec la variable de vitesse est proposée sur le modèle semi-discret. De plus, le modèle M1 peut être généralisé au modèle MN en considérant N moments donnés. Le modèle aux N-moments obtenu préserve également les propriétés fondamentales telles que les lois de conservation et la dissipation de l'entropie. Le schéma semi-discret associé préserve les propriétés de conservation et de décroissance de l'entropie
Contributions à l'usage des détecteurs de clones pour des tâches de maintenance logicielle by Alan Charpentier( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

L'existence de plusieurs copies d'un même fragment de code (nommées des clones dans lalittérature) dans un logiciel peut compliquer sa maintenance et son évolution. La duplication decode peut poser des problèmes de consistance, notamment lors de la propagation de correction debogues. La détection de clones est par conséquent un enjeu important pour préserver et améliorerla qualité logicielle, propriété primordiale pour le succès d'un logiciel.L'objectif général de cette thèse est de contribuer à l'usage des détecteurs de clones dans destâches de maintenance logicielle. Nous avons centré nos contributions sur deux axes de recherche.Premièrement, la méthodologie pour comparer et évaluer les détecteurs de clones, i.e. les benchmarksde clones. Nous avons empiriquement évalué un benchmark de clones et avons montré queles résultats dérivés de ce dernier n'étaient pas fiables. Nous avons également identifié des recommandationspour fiabiliser la construction de benchmarks de clones. Deuxièmement, la spécialisationdes détecteurs de clones dans des tâches de maintenance logicielle.Nous avons développé uneapproche spécialisée dans un langage et une tâche (la réingénierie) qui permet aux développeursd'identifier et de supprimer la duplication de code de leurs logiciels. Nous avons mené des étudesde cas avec des experts du domaine pour évaluer notre approche
Segmatation multi-agents en imagerie biologique et médicale : application aux IRM 3D by Richard Moussa( )

1 edition published in 2011 in French and held by 1 WorldCat member library worldwide

La segmentation d'images est une opération cruciale pour le traitement d'images. Elle est toujours le point de départ des processus d'analyse de formes, de détection de mouvement, de visualisation, des estimations quantitatives de distances linéaires, de surfaces et de volumes. À ces fins, la segmentation consiste à catégoriser les voxels en des classes basées sur leurs intensités locales, leur localisation spatiale et leurs caractéristiques de forme ou de voisinage. La difficulté de la stabilité des résultats des méthodes de segmentation pour les images médicales provient des différents types de bruit présents.Dans ces images, le bruit prend deux formes : un bruit physique dû au système d'acquisition, dans notre cas l'IRM (Imagerie par Résonance Magnétique), et le bruit physiologique dû au patient. Ces bruits doivent être pris en compte pour toutes les méthodes de segmentation d'images. Durant cette thèse,nous nous sommes focalisés sur des modèles Multi-Agents basés sur les comportements biologiques des araignées et des fourmis pour effectuer la tâche de segmentation. Pour les araignées, nous avons proposé une approche semi-automatique utilisant l'histogramme de l'image pour déterminer le nombre d'objets à détecter. Tandis que pour les fourmis, nous avons proposé deux approches : la première dite classique qui utilise le gradient de l'image et la deuxième, plus originale, qui utilise une partition intervoxel de l'image. Nous avons également proposé un moyen pour accélérer le processus de segmentation grâce à l'utilisation des GPU (Graphics Processing Unit). Finalement, ces deux méthodes ont été évaluées sur des images d'IRM de cerveau et elles ont été comparées aux méthodes classiques de segmentation : croissance de régions et Otsu pour le modèle des araignées et le gradientde Sobel pour les fourmis
Méthodes bioinformatiques pour l'analyse de données de séquençage dans le contexte du cancer by Justine Rudewicz( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

Le cancer résulte de la prolifération excessive de cellules qui dérivent toutes de la même cellule initiatrice et suivent un processus Darwinien de diversification et de sélection. Ce processus est défini par l'accumulation d'altérations génétiques et épigénétiques dont la caractérisation est un élément majeur pour pouvoir proposer une thérapie ciblant spécifiquement les cellules tumorales. L'avènement des nouvelles technologies de séquençage haut débit permet cette caractérisation à un niveau moléculaire. Cette révolution technologique a entraîné le développement de nombreuses méthodes bioinformatiques. Dans cette thèse, nous nous intéressons particulièrement au développement de nouvelles méthodes computationnelles d'analyse de données de séquençage d'échantillons tumoraux permettant une identification précise d'altérations spécifiques aux tumeurs et une description fine des sous populations tumorales. Dans le premier chapitre, il s'agît d'étudier des méthodes d'identification d'altérations ponctuelles dans le cadre de séquençage ciblé, appliquées à une cohorte de patientes atteintes du cancer du sein. Nous décrivons deux nouvelles méthodes d'analyse, chacune adaptée à une technologie de séquençage, spécifiquement Roche 454 et Pacifique Biosciences.Dans le premier cas, nous avons adapté des approches existantes au cas particulier de séquences de transcrits. Dans le second cas, nous avons été confronté à un bruit de fond élevé entraînant un fort taux de faux positifs lors de l'utilisation d'approches classiques. Nous avons développé une nouvelle méthode, MICADo, basée sur les graphes de De Bruijn et permettant une distinction efficace entre les altérations spécifiques aux patients et les altérations communes à la cohorte, ce qui rend les résultats exploitables dans un contexte clinique. Le second chapitre aborde l'identification d'altérations de nombre de copies. Nous décrivons l'approche mise en place pour leur identification efficace à partir de données de très faible couverture. L'apport principal de ce travail consiste en l'élaboration d'une stratégie d'analyse statistique afin de mettre en évidence des changements locaux et globaux au niveau du génome survenus durant le traitement administré à des patientes atteintes de cancer du sein. Notre méthode repose sur la construction d'un modèle linéaire permettant d'établir des scores de différences entre les échantillons avant et après traitement. Dans le troisième chapitre, nous nous intéressons au problème de reconstruction clonale. Cette problématique récente est actuellement en plein essor, mais manque cependant d'un cadre formel bien établi. Nous proposons d'abord une formalisation du problème de reconstruction clonale. Ensuite nous utilisons ce formalisme afin de mettre en place une méthode basée sur les modèles de mélanges Gaussiens. Cette méthode utilise les altérations ponctuelles et de nombre de copies - comme celles abordées dans les deux chapitres précédents - afin de caractériser et quantifier les différentes populations clonales présentes dans un échantillon tumoral
Contrôle de la dynamique de la leucémie myéloïde chronique par Imatinib by Chahrazed Benosman( )

1 edition published in 2010 in French and held by 1 WorldCat member library worldwide

Modelling hematopoiesis represents a feature of our research. Hematopoietic stem cells (HSC) are undifferentiated cells, located in bone marrow, with unique abilities of self-renewal and differentiation (production of white cells, red blood cells and platelets).The process of hematopoiesis often exhibits abnormalities causing hematological diseases. In modelling Chronic Myeloid Leukemia (CML), a frequent hematological disease, we represent hematopoiesis of normal and leukemic cells by means of ordinary differential equations (ODE). Homeostasis of normal and leukemic cells are supposed to be different and depend on some lines of normal and leukemic HSC. We analyze the global dynamics of the model to obtain the conditions for regeneration of hematopoiesis and persistence of CML. We prove as well that normal and leukemic cells can not coexist for a long time. Imatinib is the main treatment of CML, with posology varying from 400 to 1000 mg per day. Some affected individuals respond to therapy with various levels being hematologic, cytogenetic and molecular. Therapy fails in two cases: the patient takes a long time to react, then suboptimal response occurs; or the patient resists after an initial response. Determining the optimal dosage required to reduce leukemic cells is another challenge. We approach therapy effects as an optimal control problem to minimize the cost of treatment and the level of leukemic cells. Suboptimal response, resistance and recovery forms are obtained through the influence of imatinib onto the division and mortality rates of leukemic cells. Hematopoiesis can be investigated according to age of cells. An age-structured system, describing the evolution of normal and leukemic HSC shows that the division rate of leukemic HSC plays a crucial role when determining the optimal control. When controlling the growth of cells under interspecific competition within normal and leukemic HSC, we prove that optimal dosage is related to homeostasis of leukemic HSC
moreShow More Titles
fewerShow Fewer Titles
Audience Level
Audience Level
  Kids General Special  
Audience level: 0.90 (from 0.88 for Leçons de ... to 0.97 for Contrôle ...)

Associated Subjects
Alternative Names
École doctorale 39

École doctorale de mathématiques de Bordeaux

École doctorale de mathématiques et informatique (Bordeaux)

École doctorale de mathématiques et informatique de Bordeaux

École doctorale Mathématiques et informatique (Bordeaux)

École doctorale Mathématiques et informatique (Talence, Gironde)

ED 039

ED 39




Mathématiques et Informatique (Bordeaux)

Mathématiques et Informatique (Talence, Gironde)

Université Bordeaux I. UFR de Mathématiques et Informatique

Université de Bordeaux I, École doctorale de mathématiques et informatique

French (17)

English (4)