WorldCat Identities

École doctorale Informatique, télécommunications et électronique de Paris

Overview
Works: 1,010 works in 1,011 publications in 2 languages and 1,010 library holdings
Roles: Other, Degree grantor
Publication Timeline
.
Most widely held works by télécommunications et électronique de Paris École doctorale Informatique
Visualisation dans les systèmes informatiques coopératifs by Faryel Allouti( Book )

2 editions published in 2011 in French and held by 2 WorldCat member libraries worldwide

Les techniques de classification non supervisée et les outils de visualisation de données complexes sont deux thèmes récurrents dans la communauté d'Extraction et Gestion des Connaissances. A l'intersection de ces deux thèmes se trouvent les méthodes de visualisation tels que le MultiDimensional Scaling ou encore la méthode des cartes auto-organisatrices de Kohonen appelée SOM. La méthode SOM se construit à l'aide d'un algorithme des K-means auquel est ajouté la notion de voisinage permettant de cette façon la conservation de la topologie des données. Ainsi, l'apprentissage rapproche, dans l'espace des données, les centres qui sont voisins sur une grille généralement 2D, jusqu'à former une surface discrète qui est une représentation squelettique de la distribution du nuage à explorer. Dans cette thèse, nous nous sommes intéressés à la visualisation dans un contexte coopératif, où la coopération s'etablit via une communication asynchrone dont le média est la messagerie électronique. Cet outil est apparu avec l'avènement des technologies de l'information et de la communication. Il est très utilisé dans les organisations, il permet une diffusion instantanée et rapide de l'information à plusieurs personnes en même temps,sans se préoccuper de leur présence. Notre objectif consistait en la proposition d'un outil d'exploration visuelle de données textuelles qui sont les fichiers attachés aux messages électroniques. Pour ce faire, nous avons combiné des méthodes de classification automatique et de visualisation. Nous avons étudié l'approche modèle de mélange qui est une contribution très utile pour la classification. Dans notre contexte, nous avons utilisé le modèle de mélange multinomial (Govaert et Nadif, 2007) pour déterminer les classes de fichiers. D'autre part, nous avons étudié l'aspect de visualisation à la fois des classes et des documents à l'aide du positionnement multidimensionnel et DC (Difference of Convex functions) et des cartes auto-organisatrices de Kohonen
Visualisation tridimensionnelle de la langue basée sur des séquences d'image échographique en mode-B by Kele Xu( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

Une interface vocale silencieuse (SSI) est un système permettant une communication vocale à partir d'un signal non audible. Un tel système emploie des capteurs qui enregistrent des données non-acoustiques, pour la reconnaissance et la synthèse vocales. Cependant, l'extraction des caractéristiques articulatoires robustes à partir de ces signaux reste un défi. La langue est une composante majeure de l'appareil vocal, et l'articulateur le plus important dans la production de parole. Une simulation réaliste du mouvement de la langue en 3D peut fournir une représentation visuelle directe et efficace de la production de parole. Cette représentation pourrait à son tour être utilisée pour améliorer les performances de reconnaissance vocale d'un SSI, ou servir d'outil dans le cadre de recherches sur la production de parole et de l'étude des troubles de l'articulation. Dans cette thèse, nous explorons un nouveau cadre de visualisation en trois dimensions de la langue, qui combine l'imagerie échographique 2D et une technique de modélisation tridimensionnelle fondée sur la physique. Tout d'abord, différentes approches sont utilisées pour suivre le mouvement de la langue dans les séquences d'images échographiques, qui peuvent être regroupées en deux principaux types de méthodes : le suivi de la granularité et le suivi de contour. Les méthodes de suivi du chatoiement (speckle tracking) comprennent le recalage de déformations (deformation registration), le flux optique, et la méthode de transformation de caractéristiques visuelles invariante à l'échelle (Scale-invariant feature transform, ou SIFT). En outre, une méthode de suivi réinitialisation basée sur l'image est proposée afin d'améliorer la robustesse du suivi du chatoiement. En comparaison avec le suivi de chatoiement, l'extraction du contour de la surface de la langue à partir d'images échographiques présente des performances supérieures et une meilleure robustesse. Dans cette thèse, un nouvel algorithme de suivi de contour est présenté pour des séquences d'images échographiques de la langue. Cet algorithme permet de suivre le mouvement des contours de la langue sur de longues durées avec une bonne robustesse. Pour résoudre la difficulté causée par les segments manquants dus au bruit ou celle causée par la surface mi-sagittale de la langue qui est parallèle à la direction de propagation de l'onde ultrasonore, nous proposons d'utiliser des contours actifs avec une contrainte de similitude de contour, qui fournissent des informations a priori sur la forme de la langue. Des expériences sur des données synthétiques et sur des images réelles acquises sur différents sujets à la cadence de 60 images par seconde montrent que la méthode proposée donne un bon contour de suivi pour ultrasons des séquences d'images, même sur des durées de quelques minutes. Cette technique peut par conséquent être utile dans des applications telles que la reconnaissance vocale où de très longues séquences doivent être analysées dans leur intégralité
Détection des communautés dans les réseaux sociaux dynamiques : une approche multi-agents by Hédia Zardi( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

L'analyse des réseaux sociaux a conduit à la découverte d'une propriété très intéressante : ces réseaux se caractérisent par l'existence de zones de forte densité constituées d'éléments fortement connectés entre eux. Ces zones appelées "communautés", évoluent au cours du temps suivant la dynamique des acteurs sociaux et de leurs interactions. L'identification de ces communautés offre un éclairage intéressant sur la structure du réseau et permet de suivre leur évolution au fil du temps. Bien que ce problème ait donné lieu à de très nombreux travaux ces dernières années, la détection des communautés dynamiques reste encore un problème ouvert et aucune solution entièrement satisfaisante n'est encore proposée. Dans ce travail, nous proposons une approche multi-agents pour la détection des communautés dans les réseaux sociaux dynamiques. Les entités de notre approche observent l'évolution du réseau, et en conséquence, elles adaptent en temps réel le graphe représentant le réseau et elles engendrent les modifications adéquates sur les communautés précédemment détectées. Cette approche permet de modéliser le réseau par un graphe dynamique qui s'adapte en fonction l'évolution observée dans le réseau. Pour cette modélisation, plusieurs aspects du réseau sont intégrés : la structure topologique du graphe, la similarité sémantiques des membres sociaux et la communication entre eux. Cette modélisation se base sur le concept d'homophilie et sur une stigmergie à base des phéromones. Afin d'étudier les performances de l'approche proposée, nous l'avons appliquée sur un ensemble très varié de graphes réels et artificiels. Les résultats ont été suffisamment satisfaisants et montrent la bonne performance de notre modèle
Identification de systèmes non linéaires représentés en séries de Volterra : applications aux systèmes sonores by Damien Bouvier( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

This thesis addresses the identification of nonlinear systems that can be represented with Volterra series, and its application to audio systems. Volterra series give an input-output representation, approximated to within a given error, of any time-invariant continuous nonlinear system with fading memory. Technically, they correspond to a series expansion sorted by homogeneity order with respect to the input: each homogeneous term is characterized by a convolutive kernel whose set provides a "complete signature" of the modelled system. The works presented are based on the development of a preliminary step that consists in separating the series' terms to improve Volterra kernels' identification. Compared to existing homogeneous order separation methods, which are based on amplitude relationships between test signals, the approach chosen in this thesis is to exploit phase relationships between signals to obtain a robust method. This is first obtained in the theoretical case of complex excitation signals. From this idea, several methods suited to the use of real signals are developed. This leads to define new signals categories that describes the output of a Volterra series, sorting nonlinear contributions according to their phase properties. The proposed separation methods are applied and tested on a guitar pedal effect. Then, specific identification methods for the new types of signals are presented Finally, a method for estimating the parameters of a polynomial nonlinear state-space representation is developed. This is applied to an electrodynamic loudspeaker whose nonlinear characteristics are studied
Conception d'architectures profondes pour l'interprétation de données visuelles by Taylor Mordan( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

Aujourd'hui, les images sont omniprésentes à travers les smartphones et les réseaux sociaux. Il devient alors nécessaire d'avoir des moyens de traitement automatiques, afin d'analyser et d'interpréter les grandes quantités de données disponibles. Dans cette thèse, nous nous intéressons à la détection d'objets, i.e. au problème d'identification et de localisation de tous les objets présents dans une image. Cela peut être vu comme une première étape vers une interprétation complète des scènes. Nous l'abordons avec des réseaux de neurones profonds à convolutions, sous le paradigme de l'apprentissage profond. Un inconvénient de cette approche est le besoin de données annotées pour l'apprentissage. Puisque les annotations précises sont longues à produire, des jeux de données plus gros peuvent être construits à l'aide d'annotations partielles. Nous concevons des fonctions d'agrégation globale pour travailler avec celles-ci et retrouver l'information latente dans deux cas : l'apprentissage de représentations spatialement localisée et par parties, à partir de supervisions aux niveaux de l'image et des objets respectivement. Nous traitons la question de l'efficacité dans l'apprentissage de bout en bout de ces représentations en tirant parti de réseaux complètement convolutionnels. En outre, l'exploitation d'annotations supplémentaires sur les images disponibles peut être une alternative à l'obtention de plus d'images, particulièrement quand il y a peu d'images. Nous formalisons ce problème comme un type spécifique d'apprentissage multi-tâche avec un objectif primaire, et concevons une méthode pour apprendre de cette supervision auxiliaire
Les figures de l'utilisateur aux Bell Labs : analyse de la construction des représentations dans la R&D industrielle by François Guern( )

1 edition published in 2013 in French and held by 1 WorldCat member library worldwide

In this thesis we examine the genealogy of the concept of user and its contemporary dramaturgy in industrial research. For forty years, the literature in sciences and technology studies, in design and in strategy have been revealing the importance of users in the innovation process. This thesis is the result of a doctoral research that aims at exploring further this issue by studying the institutional, economical and socio-technical reasons that settle the user as an artefact in the research laboratory of Bell Labs. Our theorical frameword combine both semiotic (Charles S. Peirce) and symbolic (Lucien Sfez) aproaches, and the theory of actor-network (Bruno Latour). We focus on the terms of the representational system of the user and its symbolic implications in Bell Laboratories : the diffusion of the concept in the scientific journal of Bell Labs through a statistical analysis, the different types of user-model in Bell Labs history through a speech analysis, and the process of user integration through the socio-technical analysis of an innovation project. For this research, we developed a methodology designed at tracking and analyzing the birth and propagation of concepts in innovation. Finally we defend that Bell Labs, through its user-models, have established an equivalence between human and machine that make the user a symbolic picture half human, half-machine
Modèles de gestes expressifs by Quôc Anh Lê( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

This thesis presents a computational model to generate expressive communicative gestures accompanying speech for a humanoid agent. Our research work is based on studies of human communicative gestures. Three research issues are addressed in this work. First, human gestures are encoded and reproduced in such a way that these gestures are realizable for different humanoid agents. A set of properties of a gesture such as hand shape, wrist position, movement trajectory, etc is used in order to encode gestures. Second, gestures are planned to be synchronized with speech. The model relies on the relationship between gestures and speech to schedule gesture timing. Third, these gestures are rendered expressively. Depending on the personality or the current emotional states of the agent, its gestures are varied by modulating a set of gesture expressivity dimensions. The model was designed in such a way that its processes are as much as possible independent of an agent's embodiment. So far, this model has been used to control gestures of the Greta virtual agents and the Nao physical humanoid robot
Etude et modélisation d'un modulateur à électro-absorption pour des applications de transmission radio sur fibre de signaux ULB aux fréquences centimétriques. Simulation système et caractérisation d'une liaison radio sur fibre à modulation externe by Victor Girondin( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

This thesis is to study the performance of a radio link over fiber simplified implementing an external modulation of the optical source with OFDM signals. The laser source is coupled on a single chip with an electro-absorption modulator, developed by Alcatel III-V LaB been modeled using software ADS (Advanced Design System) and characterized in the laboratory. In the first part, we will present an introduction to the Radio on Fiber technology with its applications, and its interest in future technologies.In the second part, we will focus on the electrical modeling of the electro-absorption modulator used to make the digital OFDM type. In the third part, will be offered a complete model of the transmission chain incorporating all components of the link, so as to perform behavioral analysis system. The fourth part, have measured performance in the laboratory on the chain of characterization bench in digital OFDM Ultra Wideband and simulated in ADS and correlations between the results
Introduction de mécanismes de tolérance aux pannes franches dans les architectures de processeur « many-core » à mémoire partagée cohérente by César Fuguet Tortolero( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

The always increasing performance demands of applications such as cryptography, scientific simulation, network packets dispatching, signal processing or even general-purpose computing has made of many-core architectures a necessary trend in the processor design. These architectures can have hundreds or thousands of processor cores, so as to provide important computational throughputs with a reasonable power consumption. However, their important transistor density makes many-core architectures more prone to hardware failures. There is an augmentation in the fabrication process variability, and in the stress factors of transistors, which impacts both the manufacturing yield and lifetime. A potential solution to this problem is the introduction of fault-tolerance mechanisms allowing the processor to function in a degraded mode despite the presence of defective internal components. We propose a complete in-the-field reconfiguration-based permanent failure recovery mechanism for shared-memory many-core processors. This mechanism is based on a firmware (stored in distributed on-chip read-only memories) executed at each hardware reset by the internal processor cores without any external intervention. It consists in distributed software procedures, which locate the faulty components (cores, memory banks, and network-on-chip routers), reconfigure the hardware architecture, and provide a description of the functional hardware infrastructure to the operating system. Our proposal is evaluated using a cycle-accurate SystemC virtual prototype of an existing many-core architecture. We evaluate both its latency, and its silicon cost
Conception de transmetteurs et de récepteurs pour des systèmes à interférences avec antennes multiples by Francesco Negro( )

1 edition published in 2012 in English and held by 1 WorldCat member library worldwide

In modern wireless communication systems, the per-user data rate demand is constantly growing. To sustain the heavy user data rate demand, network operators try to deploy cellular system with more cells and applying more efficient spectrum reuse techniques. One possible solution to increase system throughput is to get the user closer to the transmitting base station and hence deploy very dense network infrastructure. In this setup strong interference situations will result. Interference has been identified as the main bottleneck of modern wireless cellular communication systems. With small dense cells this is more the case. This consideration has led to intense research activities that has recently pushed network operators and manufacturers to include more proactive and efficient way to suppress/control interference. From an information theoretic point of view this problem can be mathematically studied as an interference channel. In the first part of this thesis, we focus our attention on the beamforming design for the interference channel with particular focus on the MIMO case. There we propose the joint optimization of linear transmitter and receiver according to two criteria : Interference Alignment and weighted sum rate maximization. The second part of the thesis is devoted to the beamforming design problem in cognitive radio settings. We start considering an underlay scenario where the secondary network is modeled as a MISO interference channel. Then we move to the MIMO interweave cognitive radio. There the objective is to design the transmitters and receivers, at the secondary network, such that the interference, generated at each primary receiver, is zero
Contrôle et gestion du trafic routier urbain par un réseau de capteurs sans fil by Sébastien Faye( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

Road traffic has a significant effect on metropolitan activities, especially during peak hours when it impacts on areas such as the economy and the environment. Road infrastructure is typically coordinated from a control centre that is responsible for maintaining not only its equipment but also their initial settings and incident management (both material and human). During the past few years, new technologies in the fields of information and communication have led to the introduction of intelligent transportation systems. Using multiple measurement points distributed across a country, an operator can count road users and calculate the network load. However, the centralization of information has a number of drawbacks. The aim of this thesis is to study the use of distributed systems in order to implement intelligent transportation systems via a wireless sensor network. Coupled to a detection unit (e.g., a magnetometer), the interconnected sensors can respond to the passage of a vehicle when deployed, for example, along the road. They can also work together without recourse to a central entity - rendering all or part of an urban area totally independent. Furthermore, these networks can operate autonomously and are less susceptible to breadown, because the overall running of the system is not affected by the failure of individual components. Finally, components are small and cheap, and they operate wirelessly, which means they can be deployed and redeployed both rapidly and densely
Resource allocation in Cloud federation by Salma Rebai( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

L'informatique en nuage (Cloud Computing) est un modèle à grande échelle et en évolution continue, permettant le provisionnement et l'utilisation des ressources informatiques à la demande, selon un modèle rentable de facturation à l'usage "pay-as-you-go". Ce nouveau paradigme a rapidement révolutionné l'industrie IT et a permis de nouvelles tendances en matière de prestation de services informatiques, y compris l'externalisation des infrastructures IT vers des prestataires tiers spécialisés. Cependant, la nature multi-utilisateur des plateformes d'hébergement, ainsi que la complexité des demandes, soulèvent plusieurs défis liés à la gestion des ressources Cloud. Malgré l'attention croissante portée à ce sujet, la plupart des efforts ont été axés sur des solutions centrées utilisateur, et malheureusement beaucoup moins sur les difficultés rencontrées par les fournisseurs pour maximiser leurs bénéfices. Dans ce contexte, la fédération de Cloud a été récemment proposée comme une solution clé pour répondre à l'augmentation et la fluctuation des charges de travail. Les fournisseurs ayant des besoins complémentaires en ressources au fil du temps, peuvent collaborer et partager leurs infrastructures respectives via l'externalisation ("Outsourcing") pour mieux satisfaire les demandes et exigences des utilisateurs. Cette thèse aborde le problème d'optimisation du profit via la fédération et l'allocation optimale des ressources parmi plusieurs fournisseurs d'infrastructures Cloud. L'étude examine les principaux défis et opportunités liés à la maximisation des revenus dans une fédération de Clouds, et définit des stratégies efficaces pour diriger les fournisseurs dans leurs décisions de coopération. Le but est de fournir des algorithmes qui automatisent la sélection du plan d'allocation le plus rentable, qui satisfait à la fois la demande des utilisateurs et les exigences de mise en réseau. Nous visons des modèles d'allocation génériques et robustes qui répondent aux nouvelles tendances Cloud, et de traiter les requêtes simples ainsi que complexes nécessitant le provisionnement de services composites avec différentes ressources distribuées et connectées. Conformément aux objectifs de la thèse, nous avons mené une étude approfondie des travaux antérieurs traitant la problématique de provisionnement des ressources d'infrastructure dans les environnements Cloud. L'analyse a porté notamment sur les modèles d'allocation ayant pour objectif la maximisation de profit et les lacunes et défis associés dans les fédérations de Clouds. Dans un deuxième temps, nous avons proposé un programme linéaire en nombre entiers (ILP), pour aider les fournisseurs de services dans leurs décisions de coopération via des actions optimales d'externalisation (outsourcing), d'internalisation (insourcing) et d'allocation en local. Ces différentes décisions d'allocation sont traitées conjointement dans une formule d'optimisation globale qui partitionne les graphes de requêtes entre les membres de la fédération, tout en satisfaisant les exigences de communication entre les services élémentaires. En plus de la topologie des graphes de ressources, ce partitionnement prend en compte les prix dynamiques et les quotas proposés par les membres de la fédération ainsi que les coûts d'hébergement des ressources et de leur mise en réseau. Enfin, nous avons proposé un algorithme heuristique pour améliorer les temps de convergence avec les instances de problèmes à grande échelle. L'approche proposée utilise un algorithme de "clustering" basé sur les arbres de Gomory-Hu pour le partitionnement des graphes et une stratégie de meilleur ajustement (Best-Fit matching) pour l'allocation et le placement des sous-graphes résultants. L'utilisation conjointe de ces deux techniques permet de capturer l'essence du problème d'optimisation et de respecter les différents objectifs fixés, tout en améliorant le temps de convergence vers les solutions quasi-optimales de plusieurs ordres de grandeur
Evaluation quantitative de tissu fibroglandulaire pour l'estimation de l'énergie absorbée différenciée par tissu en tomosynthèse du sein by Nausikaa Geeraert( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

In this research project the main goals were a) to implement a method for the computation of the volumetric breast density (VBD), and b) to propose an improved quantity for the assessment of individual radiation-induced risk, in particular during mammography, together with a method to quantify it. The breast density is known as a breast cancer risk factor. The objective quantification of the volumetric breast density was developed, based on already published methods, and improved. The method was implemented for two mammography systems. It is based on the calibration of the mammography system acquisition chain with breast equivalent phantoms and computes a breast density map. Our most important contribution resides in a new validation method applicable to any VBD computation, consisting in comparing its results with the VBD obtained from a thorax CT examination for the same patient. This validation method was applied to our VBD computation. We found an average deviation between mammography and CT of less than 10%. Our results are comparable to the state-of-the-art results for other validation methods. For the individual radiation risk, we proposed to replace the average glandular dose by the imparted energy, which depends on the quantity and distribution of the glandular tissue, which is the tissue at risk. The volumetric imparted energy is computed from Monte Carlo simulations. The VBD, computed for the 0° projection of tomosynthesis exams, helps us to localize the glandular tissue and to attribute the imparted energy to the different tissues. A proposition was implemented for geometric phantoms, a textured phantom and a patient case
Détection de foule et analyse de comportement par analyse vidéo by Antoine Fagette( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

This thesis focuses on the similarity between a fluid and a crowd and on the adaptation of the particle video algorithm for crowd tracking and analysis. This interrogation ended up with the design of a complete system for crowd analysis out of which, this thesis has addressed three main problems: the detection of the crowd, the estimation of its density and the tracking of the flow in order to derive some behavior features.The contribution to crowd detection introduces a totally unsupervised method for the detection and location of dense crowds in images without context-awareness. After retrieving multi-scale texture-related feature vectors from the image, a binary classification is conducted to identify the crowd and the background.The density estimation algorithm is tackling the problem of learning regression models when it comes to large dense crowds. In such cases, the learning is impossible on real data as the ground truth is not available. Our method relies on the use of synthetic data for the learning phase and proves that the regression model obtained is valid for a use on real data.Our adaptation of the particle video algorithm leads us to consider the cloud of particles as statistically representative of the crowd. Therefore, each particle has physical properties that enable us to assess the validity of its behavior according to the one expected from a pedestrian, and to optimize its motion guided by the optical flow. This leads us to three applications: the detection of the entry and exit areas of the crowd in the image, the detection of dynamic occlusions and the possibility to link entry areas with exit ones, according to the flow of the pedestrians
Nouvelle commande réseau / IT : Performance des fonctions virtualisées pour une infrastructure programmable by Verónica Karina Quintuna Rodriguez( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

In the framework of Network Function Virtualization (NFV), we address in this work the performance analysis of virtualized network functions (VNFs) in terms of latency, which considers the total amount of time that is required to process VNFs in cloud computing systems. The driving use-case of this study is the virtualization of the radio access network (namely, Cloud-RAN). We notably investigate the relevance of resource pooling and statistical multiplexing when available cores in a data center are shared by all active VNFs. We perform VNF modeling by means of stochastic service systems. Proposed queuing models reveal the behavior of high performance computing architectures based on parallel processing and enable us to dimension the required computing capacity in data centers. As a proof of concept, we implement an OAI-based end-to-end virtualized mobile network, which notably confirms the accuracy of theoretical models. Performance results reveal important gains in terms of latency. This fact enables in particular a higher concentration level of VNFs in data centers, thus achieving CAPEX and OPEX reduction, and moreover, it opens the door to the cloudification of critical network functions
Apport de la mécanique des fluides dans l'étude des flux sanguins aortiques by Kevin Bouaou( )

1 edition published in 2020 in French and held by 1 WorldCat member library worldwide

Le vieillissement est associé à des modifications morphologiques, fonctionnelles et hémodynamiques du système artériel, le plus souvent aggravées par la survenue de maladies cardiovasculaires. La compréhension de ces interactions aggravantes est importante pour réduire le risque encouru par le patient. L'imagerie médicale joue un rôle majeur dans cette perspective au travers de modalités telles que l'IRM de contraste de phase combinée à l'analyse quantitative des images obtenues ainsi qu'à la résolution numérique des équations de Navier Stokes qui régissent l'hémodynamique de l'écoulement sanguin. Cette thèse a donc pour but de mettre au point et combiner des méthodes de traitement d'images de vélocimétrie 4D acquises en IRM et de mécanique des fluides pour extraire des biomarqueurs quantitatifs tels que les cartographies de pressions intra-aortiques et leurs propagations spatio-temporelles, la contrainte de cisaillement aux parois aortiques et la vorticité intra-aortique. Nous avons ainsi montré la capacité de ces biomarqueurs à détecter les atteintes infra-cliniques liées à l'âge et à caractériser la dilatation aortique pathologique. De plus, les liens entre distributions spatio-temporelles des pressions et apparition et persistance des vortex ou encore contrainte de cisaillement ont été montrés. Dans un second travail, nous avons mis au point un modèle de simulation numérique permettant de résoudre le système d'équations de Navier-Stokes par élément finis. Une méthode de projection itérative a été appliquée à des modèles de sténose 2D et 3D ainsi qu'à des géométries aortiques 3D issues de segmentations pour valider notre implémentation. Finalement, un travail préliminaire d'application de notre modèle numérique à des géométries patients-spécifiques a été réalisé indiquant des liens encourageants entre données simulées et mesures IRM
Modèles hybrides pour la réverbération sonore by Hequn Bai( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

There is an increasing interest in creating interactive virtual worlds due to the wide variety of potential applications in entertainment and education. The 3D acoustic scene can be synthesized from two perspectives : the physical approaches and the perceptual approaches. Acoustic radiance transfer method is an efficient ray-based method to model the diffuse reflections and the late reverberation. An extension of the Radiance Transfer Method (RTM) is proposed in this thesis, which allows modeling the early part of specular reflections while keeping the advantage of the original model for the late reverberation simulation. Feedback delay networks are widely used structures to generate the late reverberation. A new method is presented in this thesis, which inherits the efficiency of the Feedback Delay Network (FDN) structure, but aims at linking the parameters of the FDN directly to the geometries of the modeled environment. The relation is achieved by assigning a physical meaning to each delay line and studying the sound energy exchange between them. Then the physical approachand the perceptual approach are combined. The simplified acoustic Radiance Transfer Method, with extension for both specular and diffuse reflections, is incorporated with the Feedback Delay Networks. The new reverberator, despite of modeling the diffuse and late reverberation, is also capable of simulating the early and specular reflections with accuracy
Analyse de sécurité de logiciels système par typage statique by Etienne Millon( )

1 edition published in 2014 in French and held by 1 WorldCat member library worldwide

Operating system kernels need to manipulate data that comes from user programs through system calls. If it is done in an incautious manner, a security vulnerability known as the Confused Deputy Problem can lead to information disclosure or privilege escalation. The goal of this thesis is to use static typing to detect the dangerous uses of pointers that are controlled by userspace. Most operating systems are written in the C language. We start by isolating Safespeak, a safe subset of it. Its operational semantics as well as a type system are described, and the classic properties of type safety are established. Memory states are manipulated using bidirectional lenses, which can encode partial updates to states and variables. A first analysis is described, that identifies integers used as bitmasks, which are a common source of bugs in C programs. Then, we add to Safespeak the notion of pointers coming from userspace. This breaks type safety, but it is possible to get it back by assigning a different type to the pointers that are controlled by userspace. This distinction forces their dereferencing to be done in a controlled fashion. This technique makes it possible to detect two bugs in the Linux kernel: the first one is in a video driver for an AMD video card, and the second one in the ptrace system call for the Blackfin architecture
Étude de transformations et d'optimisations de code parallèle statique ou dynamique pour architecture "many-core" by Camille Gallet( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

Since the 60s to the present, the evolution of supercomputers faced three revolutions : (i) the arrival of the transistors to replace triodes, (ii) the appearance of the vector calculations, and (iii) the clusters. These currently consist of standards processors that have benefited of increased computing power via an increase in the frequency, the proliferation of cores on the chip and expansion of computing units (SIMD instruction set). A recent example involving a large number of cores and vector units wide (512-bit) is the co-proceseur Intel Xeon Phi. To maximize computing performance on these chips by better exploiting these SIMD instructions, it is necessary to reorganize the body of the loop nests taking into account irregular aspects (control flow and data flow). To this end, this thesis proposes to extend the transformation named Deep Jam to extract the regularity of an irregular code and facilitate vectorization. This thesis presents our extension and application of a multi-material hydrodynamic mini-application, HydroMM. Thus, these studies show that it is possible to achieve a significant performance gain on uneven codes
Sécurités algébrique et physique en cryptographie fondée sur les codes correcteurs d'erreurs by Frédéric Urvoy De Portzamparc( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

Code-based cryptography, introduced by Robert McEliece in 1978, is a potential candidate to replace the asymetric primitives which are threatened by quantum computers. More generral, it has been considered secure for more than thirty years, and allow very vast encryption primitives. Its major drawback lies in the size of the public keys. For this reason, several variants of the original McEliece scheme with keys easier to store were proposed in the last years.In this thesis, we are interested in variants using alternant codes with symmetries and wild Goppa codes. We study their resistance to algebraic attacks, and reveal sometimes fatal weaknesses. In each case, we show the existence of hidden algebraic structures allowing to describe the secret key with non-linear systems of multivariate equations containing fewer variables then in the previous modellings. Their resolutions with Gröbner bases allow to find the secret keys for numerous instances out of reach until now and proposed for cryptographic purposes. For the alternant codes with symmetries, we show a more fondamental vulnerability of the key size reduction process. Prior to an industrial deployment, it is necessary to evaluate the resistance to physical attacks, which target device executing a primitive. To this purpose, we describe a decryption algorithm of McEliece more resistant than the state-of-the-art.Code-based cryptography, introduced by Robert McEliece in 1978, is a potential candidate to replace the asymetric primitives which are threatened by quantum computers. More generral, it has been considered secure for more than thirty years, and allow very vast encryption primitives. Its major drawback lies in the size of the public keys. For this reason, several variants of the original McEliece scheme with keys easier to store were proposed in the last years.In this thesis, we are interested in variants using alternant codes with symmetries and wild Goppa codes. We study their resistance to algebraic attacks, and reveal sometimes fatal weaknesses. In each case, we show the existence of hidden algebraic structures allowing to describe the secret key with non-linear systems of multivariate equations containing fewer variables then in the previous modellings. Their resolutions with Gröbner bases allow to find the secret keys for numerous instances out of reach until now and proposed for cryptographic purposes. For the alternant codes with symmetries, we show a more fondamental vulnerability of the key size reduction process. Prior to an industrial deployment, it is necessary to evaluate the resistance to physical attacks, which target device executing a primitive. To this purpose, we describe a decryption algorithm of McEliece more resistant than the state-of-the-art
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.95 (from 0.87 for Resource a ... to 1.00 for Visualisat ...)

Alternative Names
École doctorale 130

École doctorale EDITE

École doctorale Informatique, télécommunications et électronique

ED 130

ED EDITE

ED Informatique, télécommunications et électronique

ED Informatique, télécommunications et électronique de Paris

ED130

Languages
English (11)

French (10)