WorldCat Identities

École doctorale Sciences et technologies de l'information et de la communication (Orsay, Essonne / 2015-....).

Overview
Works: 431 works in 440 publications in 2 languages and 440 library holdings
Roles: Other, 996
Publication Timeline
.
Most widely held works by Essonne / 2015-....) École doctorale Sciences et technologies de l'information et de la communication (Orsay
Stratégie de navigation sûre dans un environnement industriel partiellement connu en présence d'activité humaine by Gabriel Louis Burtin( )

2 editions published in 2019 in French and held by 2 WorldCat member libraries worldwide

In this work, we propose a safe system for robot navigation in an indoor and structured environment. The main idea is the use of two combined sensors (lidar and monocular camera) to ensure fast computation and robustness. The choice of these sensors is based on the physic principles behind their measures. They are less likely to go blind with the same disturbance. The localization algorithm is fast and efficient while keeping in mind the possibility of a downgraded mode in case of the failure of one sensor. To reach this objective, we optimized the data processing at different levels. We applied a polygonal approximation to the 2D lidar data and a vertical contour detection to the colour image. The fusion of these data in an extended Kalman filter provides a reliable localization system. In case of a lidar failure, the Kalman filter still works, in case of a camera failure the robot can rely upon a lidar scan matching. Data provided by these sensors can also deserve other purposes. The lidar provides us the localization of doors, potential location for encounter with humans. The camera can help to detect and track humans. This work has been done and validated using an advanced robotic simulator (4DV-Sim), then confirmed with real experiments. This methodology allowed us to both develop our ideas and confirm the usefulness of this robotic tool
Développement mécatronique et contrôle de l'exosquelette des membres inférieurs SOL0.1 by Moustafa Fouz( Book )

2 editions published in 2019 in English and held by 2 WorldCat member libraries worldwide

The thesis' subject concerns the development of the control architecture and the trajectory generation for a scalable exoskeleton called SOL. The biomedical study outcomes revealed that the progressiveness of the disease could be solved by early and continuous rehabilitation throughout the growth. Thus, the importance of using an exoskeleton has a positive impact since it is used to provide locomotion and rehabilitation, at the same time. However, the current exoskeletons cannot be adapted to fit the continuous change of teenager biomechanics throughout his growth. Hence, the need for developing a scalable exoskeleton that can cope with the growing needs is still a challenging topic. Especially, the control architecture of such a scalable device was tackled in this thesis, in both hardware and software developments to incorporate the scalability features. Initiative steps have been passed towards the goal of achieving a scalable exoskeleton, by contributing in hardware developments that allowing further enhancements to be included throughout the advancement of the project. Firmware developments achieved have addressed the scalability needs in terms of control by considering the three hierarchical levels (which are: High, Middle, and low-levels of control). More specifically, a focus was dedicated to the generation of the gait reference trajectories for the growing population. Data were collected from healthy subjects wearing a passive exoskeleton to extract the proper joint trajectories, then, the data were processed to build a gait library to be deployed on the exoskeleton controller. Finally, by knowledge of the subject biomechanics, the controller is able to fetch the proper trajectories and inject the reference trajectories to the SOL's actuators. A first prototype of the exoskeleton is used to manifest the outcomes of the proposed Evolutionary Gait Generator (E.G.G.). As a first prototype, A free walking in air motion is tested, where the validation of the proposed hardware and control loops are demonstrated. Studying the exoskeletons' control responses against probable external disturbances and fail-safe scenarios are still future work mandatory before achieving first human-exoskeleton testing
A scalable search engine for the Personal Cloud by Saliha Lallali( Book )

2 editions published in 2016 in English and held by 2 WorldCat member libraries worldwide

Un nouveau moteur de recherche embarqué conçu pour les objets intelligents. Ces dispositifs sont généralement équipés d'extrêmement de faible quantité de RAM et une grande capacité de stockage Flash NANAD. Pour faire face à ces contraintes matérielles contradictoires, les moteurs de recherche classique privilégient soit la scalabilité en insertion ou la scalabilité en requête, et ne peut pas répondre à ces deux exigences en même temps. En outre, très peu de solutions prennent en charge les suppressions de documents et mises à jour dans ce contexte. nous avons introduit trois principes de conception, à savoir y Write-Once Partitioning, Linear Pipelining and Background Linear Merging, et montrent comment ils peuvent être combinés pour produire un moteur de recherche intégré concilier un niveau élevé d'insertion / de suppression / et des mises à jour. Nous avons mis en place notre moteur de recherche sur une Board de développement ayant un représentant de configuration matérielle pour les objets intelligents et avons mené de vastes expériences en utilisant deux ensembles de données représentatives. Le dispositif expérimental résultats démontrent la scalabilité de l'approche et sa supériorité par rapport à l'état des procédés de l'art
Data quality for the decision of the ambient systems by Madjid Kara( )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

La qualité des données est une condition commune à tous les projets de technologie de l'information, elle est devenue un domaine de recherche complexe avec la multiplicité et l'expansion des différentes sources de données. Des chercheurs se sont penchés sur l'axe de la modélisation et l'évaluation des données, plusieurs approches ont été proposées mais elles étaient limitées à un domaine d'utilisation bien précis et n'offraient pas un profil de qualité nous permettant d'évaluer un modèle de qualité de données global. L'évaluation basée sur les modèles de qualité ISO a fait son apparition, néanmoins ces modèles ne nous guident pas pour leurs utilisation, le fait de devoir les adapter à chaque cas de figure sans avoir de méthodes précises. Notre travail se focalise sur les problèmes de la qualité des données d'un système ambiant où les contraintes de temps pour la prise de décision sont plus importantes par rapport aux applications traditionnelles. L'objectif principal est de fournir au système décisionnel une vision très spécifique de la qualité des données issues des capteurs. Nous identifions les aspects quantifiables des données capteurs pour les relier aux métriques appropriées de notre modèle de qualité de données spécifique. Notre travail présente les contributions suivantes : (i) création d'un modèle de qualité de données générique basé sur plusieurs standards de qualité existants, (ii) formalisation du modèle de qualité sous forme d'une ontologie qui nous permet l'intégration de ces modèles (de i), en spécifiant les différents liens, appelés relations d'équivalence, qui existent entre les critères composant ces modèles, (iii) proposition d'un algorithme d'instanciation pour extraire le modèle de qualité de données spécifique à partir du modèle de qualité de données générique, (iv) proposition d'une approche d'évaluation globale du modèle de qualité de données spécifique en utilisant deux processus, le premier processus consiste à exécuter les métriques reliées aux données capteurs et le deuxième processus récupère le résultat de cette exécution et utilise le principe de la logique floue pour l'évaluation des facteurs de qualité de notre modèle de qualité de données spécifique. Puis, l'expert établie des valeurs représentant le poids de chaque facteur en se basant sur la table d'interdépendance pour prendre en compte l'interaction entre les différents critères de données et on utilisera la procédure d'agrégation pour obtenir un degré de confiance. En ce basant sur ce résultat final, le composant décisionnel fera une analyse puis prendra une décision
Machine Learning for Network Resource Management by Nesrine Ben Hassine( )

2 editions published in 2017 in English and held by 2 WorldCat member libraries worldwide

Une exploitation intelligente des données qui circulent sur les réseaux pourrait entraîner une amélioration de la qualité d'expérience (QoE) des utilisateurs. Les techniques d'apprentissage automatique offrent des fonctionnalités multiples, ce qui permet d'optimiser l'utilisation des ressources réseau.Dans cette thèse, deux contextes d'application sont étudiés : les réseaux de capteurs sans fil (WSNs) et les réseaux de contenus (CDNs). Dans les WSNs, il s'agit de prédire la qualité des liens sans fil afin d'améliorer la qualité des routes et donc d'augmenter le taux de remise des paquets ce qui améliore la qualité de service offerte à l'utilisateur. Dans les CDNs, il s'agit de prédire la popularité des contenus vidéo afin de mettre en cache les contenus les plus populaires, au plus près des utilisateurs qui les demandent. Ceci contribue à réduire la latence pour satisfaire les requêtes des utilisateurs.Dans ce travail, nous avons orchestré des techniques d'apprentissage issues de deux domaines différents, à savoir les statistiques et le Machine Learning. Chaque technique est représentée par un expert dont les paramètres sont réglés suite à une analyse hors-ligne. Chaque expert est chargé de prédire la prochaine valeur de la métrique. Vu la variété des experts retenus et comme aucun d'entre eux ne domine toujours tous les autres, un deuxième niveau d'expertise est nécessaire pour fournir la meilleure prédiction. Ce deuxième niveau est représenté par un expert particulier, appelé forecaster. Le forecaster est chargé de fournir des prédictions à partir des prédictions fournies par un sous ensemble des meilleurs experts.Plusieurs méthodes d'identification de ce sous ensemble sont étudiées. Elles dépendent de la fonction de perte utilisée pour évaluer les prédictions des experts et du nombre k, représentant les k meilleurs experts. Les tâches d'apprentissage et de prédiction sont effectuées en-ligne sur des data sets réels issus d'un WSN déployé à Stanford et de YouTube pour le CDN. La méthodologie adoptée dans cette thèse s'applique à la prédiction de la prochaine valeur d'une série temporelle.Plus précisément, nous montrons comment dans le contexte WSN, la qualité des liens peut être évaluée par le Link Quality Indicator (LQI) et comment les experts Single Exponential Smoothing (SES) et Average Moving Window (AMW) peuvent prédire la prochaine valeur de LQI. Ces experts réagissent rapidement aux changements des valeurs LQI que ce soit lors d'une brusque baisse de la qualité du lien ou au contraire lors d'une forte augmentation de la qualité. Nous proposons deux forecasters, Exponential Weighted Average (EWA) et Best Expert (BE), et fournissons la combinaison Expert-Forecaster permettant de fournir la meilleure prédiction.Dans le contexte des CDNs, nous évaluons la popularité de chaque contenu vidéo par le nombre journalier de requêtes. Nous utilisons à la fois des experts statistiques (ARMA) et des experts issus du Machine Learning (DES, régression polynômiale). Nous introduisons également des forecasters qui diffèrent par rapport à l'horizon des observations utilisées pour la prédiction, la fonction de perte et le nombre d'experts utilisés. Ces prédictions permettent de décider quels contenus seront placés dans les caches proches des utilisateurs. L'efficacité de la technique de caching basée sur la prédiction de la popularité est évaluée en termes de hit ratio et d'update ratio. Nous mettons en évidence les apports de cette technique de caching par rapport à un algorithme de caching classique, Least Frequently Used (LFU).Cette thèse se termine par des recommandations concernant l'utilisation des techniques d'apprentissage en ligne et hors-ligne pour les réseaux (WSN, CDN). Au niveau des perspectives, nous proposons différentes applications où l'utilisation de ces techniques permettrait d'améliorer la qualité d'expérience des utilisateurs mobiles ou des utilisateurs des réseaux IoT
Les algorithmes d'apprentissage pour l'aide au stationnement urbain by Asma Houissa( )

2 editions published in 2018 in French and held by 2 WorldCat member libraries worldwide

The objective of this thesis is to develop, to integrate and to test a new algorithmic approach to help parking in urban centers.Given the different types of deployed infrastructure : from input-output detection of vehicles to time variation of the number of available places within each street segment, we propose an efficient method to determine an itinerary that minimize the time expectation to find an available place and also to predict the availability of the parking places.We have chosen an urban area and we have considered it as a set of parking resources called street segments. More exactly, this urban area is considered as a graph where the vertexes represent the crossroads and the arcs represent the street segments. The essential parameters of our urban area model are the parking capacity and the time crossing of each street segment. The originality and the innovation of our approach are based on two principles.The first one is the guidance as a resource, i.e., it means that the proposed itinerary is not the one that lead to an available parking place but rather the one that minimized the time expectation to find an available parking place. In order to achieve that we determine, in a an area centered on a given destination, the itinerary to follow by the vehicle in order minimize its time expectation to find an available parking place as quickly aspossible.We have designed and realized a reinforcement learning algorithm based on the LRI method (Linear Reward Inaction) and a Monte Carlo method to minimize the time expectation to find an available parking place in the urban area. We have compared this algorithm to a global approach based on tree evaluation with bounded depth. The second principle is based on the prediction of the parking places by homogeneous time period where we are not interestedon a parking place in real time but rather on the parking places byarea. In other terms, the system predict the potential available parkingplaces by resource for the next time periods. Thus, we don't aim to predict the availability of each parking place, i.e., each resource is considered as stock area and its availability is assessed in major part in function of the street segment input-output flow. For this principle, we have determined by a learning algorithm the probability that there is at least one available parking place in a street segment within a given time. The major data needed to compute this probability are the time series of input-output of each vehicle in street intersections, and the variation of the available parking places through the time.We have evaluated the performance of this approach by simulation based on random generated data and on real data of a district in Versailles
Jambe Humanoïde Hydraulique pour HYDROïD by Ahmed Abdellatif Hamed Ibrahim( )

2 editions published in 2018 in English and held by 2 WorldCat member libraries worldwide

Le corps humain a toujours été une source d'inspiration pour les ingénieurs et les scientifiques de tous les domaines dans le monde entier. L'un des sujets les plus intéressants de la dernière décennie a été les robots humanoïdes. Les robots humanoïdes représentent les systèmes robotiques les plus complexes. Ils offrent une plus grande mobilité dans les terrains accidentés et non structurés que les véhicules à roues normaux. À l'avenir, les robots humanoïdes devraient être employés pour une variété de tâches dangereuses dans des domaines tels que les opérations de sauvetage, l'assistance aux personnes âgées, l'éducation et le déminage humanitaire. Le travail réalisé dans cette thèse est réalisé sur le robot hydraulique humanoïde HYDROïD, un humanoïde à commande hydraulique avec 52 degrés de liberté actifs, conçu pour exécuter des tâches très dynamiques comme la marche, la course et le saut. robot puisque les actionneurs hydrauliques ont un excellent rapport poids/puissance et absorbent naturellement les pics de force d'impact lors des différentes activités. L'objectif de cette thèse est de contribuer au développement des mécanismes robotiques de la cheville et du genou avec une dynamique élevée. Un nouveau mécanisme de cheville est développé afin de pallier les inconvénients des performances réalisées avec l'ancien mécanisme de cheville d'origine. Des taux de fuite et de frottement plus faibles sont obtenus en plus d'une optimisation de pression pour les articulations de la cheville. De plus, une nouvelle solution pour optimiser le poids des actionneurs hydrauliques est appliquée sur le mécanisme du genou du robot.Une telle solution comprend l'utilisation de la technologie des matériaux composites légers pour atteindre un poids et une performance optimisés pour le joint. Afin d'appliquer des méthodologies de contrôle sur les mécanismes de la cheville et du genou, un modèle géométrique inverse pour les deux mécanismes est présenté. Le contrôle de position est utilisé pour contrôler les angles des articulations de la cheville et les mécanismes du genou. Enfin, les conclusions et les perspectives d'avenir sont présentées dans le dernier chapitre
Nouvelles brasures sans plomb : conception des dispositifs d'essai, fabrication des échantillons et caractérisation by Quang Bang Tao( Book )

2 editions published in 2016 in English and held by 2 WorldCat member libraries worldwide

Nowadays, one of the strategies to improve the reliability of lead-free solder joints is to add minor alloying elements to solders. In this study, new lead-free solders, namely InnoLot and SAC387-Bi, which have begun to come into use in the electronic packaging, were considered to study the effect of Ni, Sb and Bi, as well as that of the testing conditions and isothermal aging, on the mechanical properties and microstructure evolution. A new micro-tensile machine are designed and fabricated, which can do tensile, compressive and cyclic tests with variation of speeds and temperatures, for testing miniature joint and bulk specimens. Additionally, the procedure to fabricate appropriate lap-shear joint and bulk specimens are described in this research. The tests, including shear, tensile, creep and fatigue tests, were conducted by micro-tensile and Instron machine at different test conditions. The first study is to characterize, experimentally, the mechanical behaviors and life time of solder joints submitted to isothermal aging and mechanical tests. The second goal of the project is to perform thermo-mechanical simulations of IGBT under thermal cycling. The experimental results indicate that, with addition of Ni, Sb and Bi in to SAC solder, the stress levels (UTS, yield stress) are improved. Moreover, testing conditions, such as temperature, strain rate, amplitude, aging time, may have substantial effects on the mechanical behavior and the microstructure features of the solder alloys. The enhanced strength and life time of the solders is attribute to the solid hardening effects of Sb in the Sn matrix and the refinement of the microstructure with the addition of Ni and Bi. The nine Anand material parameters are identified by using the data from shear and tensile tests. And then, the obtained values were utilized to analyze the stress-strain response of an IGBT under thermal cycling. The results of simulations represent that the response to thermal cycling of the new solders is better than the reference solder, suggesting that additions of minor elements can enhance the fatigue life of the solder joints. Finally, the SEM/EDS and EPMA analysis of as-cast, as-reflowed as well as fractured specimens were done to observe the effects of these above factors on the microstructure of the solder alloys
Machine d'essai de prothèse pour Transtibial et Transfemoral by Khaled Fouda( )

2 editions published in 2017 in English and held by 2 WorldCat member libraries worldwide

The objective of this work is to build a testing machine for prosthesis. The machine should be able to reproduce the same dynamic and kinematics conditions applied on the prosthesis during the normal use.Numbers of amputation, and causes of amputation were collected. Different types of prosthesis were classified according to the leg prosthesis per amputation height, passive and active prosthesis, differentiated by the nature of their actuator. Most of the testing machine for the prosthesis were studied form the technological and capability prospective. Determining all the limitations of most of existing testing machines, and the needs to develop a new machine to full fill these needs were developed.Then we studied and analyzed the dynamics of the human gait and run. The equations of motion by taking into consideration the masses and moments of inertia of skeletal segments. Most of the parameters of gait were extracted. In conclusion, we have the kinematic requirements of the human center of gravity to generate 6 DOF that the testing machine should carry out to emulate the normal human gait and run.Three designs were proposed to implement the testing machine; Articulated robot arm, Cartesian manipulator, and Stewart Platform (SP). After implementing the three solutions we found the most suitable solution is the SP attached with it an artificial active hip. We have chosen the hydraulic power as it is the most suitable actuation technique for our solution knowing the required actuation forces.To help in controlling the SP motion, a novel Closed-form solution of direct Geometric model for planer and 6-6 Stewart Platform using the rotary sensors instead of liner sensors as wanted to the hydraulic actuators was developed. Sensitivity analysis was studied for that solution, and analytical calculation for computing the workspace was also developed.The conclusion from this testing machine is that we can create all the dynamics of the human body, i.e. walking or running or going up and down stairs. The developed solution can carry testing procedures for either passive or active prothesis
Adaptation automatique et semi-automatique des optimisations de programmes by Lénaïc Bagnères( )

1 edition published in 2016 in French and held by 1 WorldCat member library worldwide

Les compilateurs offrent un excellent compromis entre le temps de développement et les performances de l'application. Actuellement l'efficacité de leurs optimisations reste limitée lorsque les architectures cibles sont des multi-cœurs ou si les applications demandent des calculs intensifs. Il est difficile de prendre en compte les nombreuses configurations existantes et les nombreux paramètres inconnus à la compilation et donc disponibles uniquement pendant l'exécution. En se basant sur les techniques de compilation polyédrique, nous proposons deux solutions complémentaires pour contribuer au traitement de ces problèmes. Dans une première partie, nous présentons une technique automatique à la fois statique et dynamique permettant d'optimiser les boucles des programmes en utilisant les possibilités offertes par l'auto-tuning dynamique. Cette solution entièrement automatique explore de nombreuses versions et sélectionne les plus pertinentes à la compilation. Le choix de la version à exécuter se fait dynamiquement avec un faible surcoût grâce à la génération de versions interchangeables: un ensemble de transformations autorisant le passage d'une version à une autre du programme tout en faisant du calcul utile. Dans une seconde partie, nous offrons à l'utilisateur une nouvelle façon d'interagir avec le compilateur polyédrique. Afin de comprendre et de modifier les transformations faites par l'optimiseur, nous traduisons depuis la représentation polyédrique utilisée en interne n'importe quelle transformation de boucles impactant l'ordonnancement des itérations en une séquence de transformations syntaxiques équivalente. Celle-ci est compréhensible et modifiable par les programmeurs. En offrant la possibilité au développeur d'examiner, modifier, améliorer, rejouer et de construire des optimisations complexes avec ces outils de compilation semi-automatiques, nous ouvrons une boîte noire du compilateur: celle de la plateforme de compilation polyédrique
Analyse de stabilité de systèmes à coefficients dépendant du retard by Chi Jin( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

Systems with delay-dependent coefficients have been encountered in various applications of science and engineering. However, general and systematic stability analysis is rarely reported in the rich literature on time-delay systems. This thesis is committed to the stability analysis of such class of systems.Stability analysis methods are developed based on the corresponding characteristic equation following a generalized tau-decomposition approach. Given a delay interval of interest, we are able to identify all the critical delay values contained in this interval for which the characteristic equation admits roots on the imaginary axis of the complex plane. Various root crossing direction criteria are proposed to determine whether these characteristic roots move toward the left or the right half complex plane as the delay parameter sweeps through these critical delay values. The number of unstable characteristic roots for any given delay can thus be determined. Our analysis covers systems with a single delay or commensurate delays under certain assumptions. The root crossing direction criteria developed in this thesis can be applied to characteristic roots with multiplicity, or characteristic roots whose locus parametrized by the delay is tangent to the imaginary axis. As an application, it is demonstrated that systems with delay-dependent coefficients can arise from control schemes that use delayed output to approximate its derivatives for stabilization. The stability analysis methods developed in this thesis are tailored and applied to find the delay intervals that achieve a demanded convergence rate of the closed-loop system
Traitement du Signal d'un LIDAR Doppler scannant dédié à la surveillance aéroportuaire by Alexandre Hallermeyer( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

Un algorithme permettant d'estimer précisément les paramètres des tourbillons de sillage (positions et circulations) en utilisant les données spectrales fournies par un LIDAR a été développé. Il s'articule en 3 grandes étapes : La première permet de détecter la présence de tourbillon et d'en faire une localisation grossière grâce à la méthode des enveloppes de vitesses. La seconde étape a pour but d'affiner l'estimation des positions des tourbillons en utilisant une optimisation du critère des moindres carrés. Cette étape permet également de faire une première estimation de la circulation des tourbillons. La troisième et dernière étape se concentre sur l'estimation des circulations des tourbillons en maximisant le critère de vraisemblance. Les estimations sont de plus en plus fines et se concentrent au fur et à mesure sur les paramètres les plus critiques. La mise au point de cet algorithme a nécessité d'utiliser plusieurs modèles (LIDAR, tourbillons de sillage, atmosphère) et de formuler un certain nombre d'hypothèses et approximations simplificatrices afin d'atteindre un coût calculatoire raisonnable. L'algorithme proposé a ensuite fait l'objet d'une évaluation de performances, l'intérêt étant porté sur la robustesse par rapport aux différents bruits altérant la mesure, en particulier celui lié à la turbulence atmosphérique et par rapport aux erreurs de modèle. Cette évaluation a été menée à la fois sur des données simulées à l'aide de modèles paramétriques simplifiés, et sur des données de simulations aux grandes échelles.Les paramètres instrumentaux du LIDAR constituent de potentiels degrés de liberté pour améliorer les performances de l'estimateur, en particulier pour les grandeurs les plus critiques, c'est-à-dire les valeurs de circulation. Le calcul des performances de l'estimateur nécessitant un coût de calcul non négligeable, il se prête mal à des fins d'optimisation. C'est pourquoi une étude de l'influence des paramètres du LIDAR sur la Borne de Cramér-Rao (BCR) a été menée. Cette étude a permis de mieux comprendre l'influence des paramètres instrumentaux et d'aboutir à une configuration optimale pour la BCR
Auction-based dynamic resource orchestration in cloud-based radio access networks by Mira Morcos( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Network densification using small cells massively deployed over the macro-cell areas, represents a promising solution for future 5G mobile networks to cope with mobile traffic increase. In order to simplify the management of the heterogeneous Radio Access Network (RAN) that results from the massive deployment of small cells, recent research and industrial studies have promoted the design of novel centralized RAN architectures termed as Cloud-RAN (C-RAN), or Virtual RAN (V-RAN), by incorporating the benefits of cloud computing and Network Functions Virtualization (NFV). The DynaRoC project aims at (1) developing a theoretical framework of resource orchestration for C-RAN and deriving the fundamental performance limits as well as the tradeoffs among various system parameters, and (2) designing dynamic resource orchestration mechanisms based on the theoretical findings to achieve a desired performance balance, by taking into account various design challenges. The PhD student will investigate innovative resource optimization mechanisms to foster the deployment of C-RANs, improving their performance exploiting the enabling Network Functions Virtualization technology
Guaranteed Localization and Mapping for Autonomous Vehicles by Zhan Wang( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

With the rapid development and extensive applications of robot technology, the research on intelligent mobile robot has been scheduled in high technology development plan in many countries. Autonomous navigation plays a more and more important role in the research field of intelligent mobile robot. Localization and map building are the core problems to be solved by the robot to realize autonomous navigation. Probabilistic techniques (such as Extented Kalman Filter and Particle Filter) have long been used to solve the robotic localization and mapping problem. Despite their good performance in practical applications, they could suffer the inconsistency problem in the non linear, non Gaussian scenarios. This thesis focus on study the interval analysis based methods applied to solve the robotic localization and mapping problem. Instead of making hypothesis on the probability distribution, all the sensor noises are assumed to be bounded within known limits. Based on such foundation, this thesis formulates the localization and mapping problem in the framework of Interval Constraint Satisfaction Problem and applied consistent interval techniques to solve them in a guaranteed way. To deal with the “uncorrected yaw” problem encountered by Interval Constraint Propagation (ICP) based localization approaches, this thesis proposes a new ICP algorithm dealing with the real-time vehicle localization. The proposed algorithm employs a low-level consistency algorithm and is capable of heading uncertainty correction. Afterwards, the thesis presents an interval analysis based SLAM algorithm (IA-SLAM) dedicates for monocular camera. Bound-error parameterization and undelayed initialization for nature landmark are proposed. The SLAM problem is formed as ICSP and solved via interval constraint propagation techniques. A shaving method for landmark uncertainty contraction and an ICSP graph based optimization method are put forward to improve the obtaining result. Theoretical analysis of mapping consistency is also provided to illustrated the strength of IA-SLAM. Moreover, based on the proposed IA-SLAM algorithm, the thesis presents a low cost and consistent approach for outdoor vehicle localization. It works in a two-stage framework (visual teach and repeat) and is validated with a car-like vehicle equipped with dead reckoning sensors and monocular camera
Extracting Clinical Event Timelines : Temporal Information Extraction and Coreference Resolution in Electronic Health Records by Julien Tourille( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

Les dossiers patients électroniques contiennent des informations importantes pour la santé publique. La majeure partie de ces informations est contenue dans des documents rédigés en langue naturelle. Bien que le texte texte soit pertinent pour décrire des concepts médicaux complexes, il est difficile d'utiliser cette source de données pour l'aide à la décision, la recherche clinique ou l'analyse statistique.Parmi toutes les informations cliniques intéressantes présentes dans ces dossiers, la chronologie médicale du patient est l'une des plus importantes. Être capable d'extraire automatiquement cette chronologie permettrait d'acquérir une meilleure connaissance de certains phénomènes cliniques tels que la progression des maladies et les effets à long-terme des médicaments. De plus, cela permettrait d'améliorer la qualité des systèmes de question--réponse et de prédiction de résultats cliniques. Par ailleurs, accéder aux chronologiesmédicales est nécessaire pour évaluer la qualité du parcours de soins en le comparant aux recommandations officielles et pour mettre en lumière les étapes de ce parcours auxquelles une attention particulière doit être portée.Dans notre thèse, nous nous concentrons sur la création de ces chronologies médicales en abordant deux questions connexes en traitement automatique des langues: l'extraction d'informations temporelles et la résolution de la coréférence dans des documents cliniques.Concernant l'extraction d'informations temporelles, nous présentons une approche générique pour l'extraction de relations temporelles basée sur des traits catégoriels. Cette approche peut être appliquée sur des documents écrits en anglais ou en français. Puis, nous décrivons une approche neuronale pour l'extraction d'informations temporelles qui inclut des traits catégoriels.La deuxième partie de notre thèse porte sur la résolution de la coréférence. Nous décrivons une approche neuronale pour la résolution de la coréférence dans les documents cliniques. Nous menons une étude empirique visant à mesurer l'effet de différents composants neuronaux, tels que les mécanismes d'attention ou les représentations au niveau des caractères, sur la performance de notre approche
Intégration du web social dans les systèmes de recommandation by Coriane Nana jipmo( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

The social Web grows more and more and gives through the web, access to a wide variety of resources, like sharing sites such as del.icio.us, exchange messages as Twitter, or social networks with the professional purpose such as LinkedIn, or more generally for social purposes, such as Facebook and LiveJournal. The same individual can be registered and active on different social networks (potentially having different purposes), in which it publishes various information, which are constantly growing, such as its name, locality, communities, various activities. The information (textual), given the international dimension of the Web, is inherently multilingual and intrinsically ambiguous, since it is published in natural language in a free vocabulary by individuals from different origin. They are also important, specially for applications seeking to know their users in order to better understand their needs, activities and interests. The objective of our research is to exploit using essentially the Wikpédia encyclopedia, the textual resources extracted from the different social networks of the same individual in order to construct his characterizing profile, which can be exploited in particular by applications seeking to understand their users, such as recommendation systems. In particular, we conducted a study to characterize the personality traits of users. Many experiments, analyzes and evaluations were carried out on real data collected from different social networks
Algorithmes parallèles pour le suivi de particules by Florent Bonnier( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

The complexity of these new generations of distributed architectures is essencially due to a high number of multi-core nodes. Most of the nodes can be heterogeneous and sometimes remote. Today, nor the high number of nodes, nor the processes that compose the nodes are exploited by most of applications and numerical libraries. The approach of most of parallel libraries (PBLAS, ScalAPACK, P_ARPACK) consists in implementing the distributed version of its base operations, which means that the subroutines of these libraries can not adapt their behaviors to the data types. These subroutines must be defined once for use in the sequential case and again for the parallel case. The object-oriented approach allows the modularity and scalability of some digital libraries (such as PETSc) and the reusability of sequential and parallel code. This modern approach to modelize sequential/parallel libraries is very promising because of its reusability and low maintenance cost. In industrial applications, the need for the use of software engineering techniques for scientific computation, whose reusability is one of the most important elements, is increasingly highlighted. However, these techniques are not yet well defined. The search for methodologies for designing and producing reusable libraries is motivated by the needs of the industries in this field. The main objective of this thesis is to define strategies for designing a parallel library for Lagrangian particle tracking using a component approach. These strategies should allow the reuse of the sequential code in the parallel versions while allowing the optimization of the performances. The study should be based on a separation between the control flow and the data flow management. It should extend to models of parallelism allowing the exploitation of a large number of cores in shared and distributed memory
An approach to measuring software systems using new combined metrics of complex test by Sarah Dahab( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Most of the measurable software quality metrics are currently based on low level metrics, such as cyclomatic complexity, number of comment lines or number of duplicated blocks. Likewise, quality of software engineering is more related to technical or management factoid, and should provide useful metrics for quality requirements. Currently the assessment of these quality requirements is not automated, not empirically validated in real contexts, and the assessment is defined without considering principles of measurement theory. Therefore it is difficult to understand where and how to improve the software following the obtained result. In this domain, the main challenges are to define adequate and useful metrics for quality requirements, software design documents and other software artifacts, including testing activities.The main scientific problematic that are tackled in this proposed thesis are the following : defining metrics and its supporting tools for measuring modern software engineering activities with respect to efficiency and quality. The second consists in analyzing measurement results for identifying what and how to improve automatically. The last one consists in the measurement process automation in order to reduce the development time. Such highly automated and easy to deploy solution will be a breakthrough solution, as current tools do not support it except for very limited scope
Information Visualization for Decision Making : Identifying Biases and Moving Beyond the Visual Analysis Paradigm by Evanthia Dimara( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

There are problems neither humans nor computers can solve alone. Computer-supported visualizations are a well-known solution when humans need to reason based on a large amount of data. The more effective a visualization, the more complex the problems that can be solved. In information visualization research, to be considered effective, a visualization typically needs to support data comprehension. Evaluation methods focus on whether users indeed understand the displayed data, can gain insights and are able to perform a set of analytic tasks, e.g., to identify if two variables are correlated. This dissertation suggests moving beyond this "visual analysis paradigm" by extending research focus to another type of task: decision making. Decision tasks are essential to everybody, from the manager of a company who needs to routinely make risky decisions to an ordinary person who wants to choose a career life path or simply find a camera to buy. Yet decisions do not merely involve information understanding and are difficult to study. Decision tasks can involve subjective preferences, do not always have a clear ground truth, and they often depend on external knowledge which may not be part of the displayed dataset. Nevertheless, decision tasks are neither part of visualization task taxonomies nor formally defined. Moreover, visualization research lacks metrics, methodologies and empirical works that validate the effectiveness of visualizations in supporting a decision. This dissertation provides an operational definition for a particular class of decision tasks and reports a systematic analysis to investigate the extent to which existing multidimensional visualizations are compatible with such tasks. It further reports on the first empirical comparison of multidimensional visualizations for their ability to support decisions and outlines a methodology and metrics to assess decision accuracy. It further explores the role of instructions in both decision tasks and equivalent analytic tasks, and identifies differences in accuracy between those tasks. Similarly to vision science that informs visualization researchers and practitioners on the limitations of human vision, moving beyond the visual analysis paradigm would mean acknowledging the limitations of human reasoning. This dissertation reviews decision theory to understand how humans should, could and do make decisions and formulates a new taxonomy of cognitive biases based on the user task where such biases occur. It further empirically shows that cognitive biases can be present even when information is well-visualized, and that a decision can be ``correct'' yet irrational, in the sense that people's decisions are influenced by irrelevant information. This dissertation finally examines how biases can be alleviated. Current methods for improving human reasoning often involve extensive training on abstract principles and procedures that often appear ineffective. Yet visualizations have an ace up their sleeve: visualization designers can re-design the environment to alter the way people process the data. This dissertation revisits decision theory to identify possible design solutions. It further empirically demonstrates that enriching a visualization with interactions that facilitate alternative decision strategies can yield more rational decisions. Through empirical studies, this dissertation suggests that the visual analysis paradigm cannot fully address the challenges of visualization-supported decision making, but that moving beyond can contribute to making visualization a powerful decision support tool
Apprentissage de graphes structuré et parcimonieux dans des données de haute dimension avec applications à l'imagerie cérébrale by Eugene Belilovsky( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

This dissertation presents novel structured sparse learning methods on graphs that address commonly found problems in the analysis of neuroimaging data as well as other high dimensional data with few samples. The first part of the thesis proposes convex relaxations of discrete and combinatorial penalties involving sparsity and bounded total variation on a graph as well as bounded `2 norm. These are developed with the aim of learning an interpretable predictive linear model and we demonstrate their effectiveness on neuroimaging data as well as a sparse image recovery problem.The subsequent parts of the thesis considers structure discovery of undirected graphical models from few observational data. In particular we focus on invoking sparsity and other structured assumptions in Gaussian Graphical Models (GGMs). To this end we make two contributions. We show an approach to identify differences in Gaussian Graphical Models (GGMs) known to have similar structure. We derive the distribution of parameter differences under a joint penalty when parameters are known to be sparse in the difference. We then show how this approach can be used to obtain confidence intervals on edge differences in GGMs. We then introduce a novel learning based approach to the problem structure discovery of undirected graphical models from observational data. We demonstrate how neural networks can be used to learn effective estimators for this problem. This is empirically shown to be flexible and efficient alternatives to existing techniques
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.92 (from 0.87 for Auction-ba ... to 0.99 for Intégrati ...)

Alternative Names
École doctorale 580

École doctorale des Sciences et technologies de l'information et de la communication

École doctorale STIC

ED 580

ED STIC

ED580

Sciences et technologies de l'information et de la communication

STIC

Languages
English (20)

French (9)