WorldCat Identities

Laboratoire Traitement et communication de l'information (Paris / 2003-....).

Overview
Works: 219 works in 220 publications in 2 languages and 221 library holdings
Roles: Other, 981
Publication Timeline
.
Most widely held works by Laboratoire Traitement et communication de l'information (Paris / 2003-....).
Suivi des glaciers alpins par combinaison d'informations hétérogènes : images SAR Haute Résolution et mesures terrain by Renaud Fallourd( )

2 editions published in 2012 in French and held by 3 WorldCat member libraries worldwide

The works presented in this PhD thesis focuses on the use of new remote sensing data for "massif du Mont Blanc" glaciers' monitoring: High Resolution (HR) synthetic aperture radar images of TerraSAR-X satellite and HR shooting of the automatic digital camera. This thesis will show the contribution of this heterogeneous information to the measurement of the surface displacement of alpine glacier. For this purpose, a review of displacement measurement methods specific to each of the two types of image is proposed. Then two approaches are explored: the mono-source displacement measurement in the geometry for each sensor and the multi-source displacement measurement via intra-sensor and inter-sensor combinations. While the mono-source approach provides only 2D displacement measurements, multi-source measurements allow, for the first time, the estimation of 3D surface displacement fields of the Mont Blanc glaciers. The measurements were performed on several image time series covering the period 2008-2009 for four Mont Blanc glaciers (Argentière, Mer de Glace/Leschaux, Bossons et Taconnaz). In the context of global warming, these surface displacement measurements provide interesting data in the glaciology domain in order to constrain flow and evolution digital models
Sociabilités en ligne, usages et réseaux by Raphaël Charbey( )

1 edition published in 2018 in French and held by 2 WorldCat member libraries worldwide

With the digital advent, it is now possible for researchers to collect important amounts of data and online social network platforms are surely part of it. Sociologists, among others, seized those new resources to investigate over interaction modalities between individuals as well as their impact on the structure of sociability. Following this lead, this thesis work aims at analyzing a large number of Facebook accounts, through data analysis and graph theory classical tools, and to bring methodological contributions. Two main factors encourage to study Facebook social activities. On one hand, the importance of time spent on this platform by many Internet users justifies by itself the sociologists interest. On the other, and contrarily to what we observe on other social network websites, ties between individuals are similar to the ones that appear offline. First, the thesis proposes to detangle the multiple meanings that are behind the fact of ”being on Facebook”. The uses of our surveyed are not compacted in fantasized normative practices but vary depending on how they appropriate the different composers of the platform tools. These uses, as we will see it, do not concern all the socioprofessional categories in the same way and they also influence how the respondents interact with their online friends. The manuscript also explores these interactions, as well as the lover role into the relational structure. Second part of the thesis builds a typology of these relational structures. They are said as egocentred, which means that they are taken from the perspective of the respondent. This typology of social networks is based on their graphlet counts, that are the number of times each type of subnetwork appear in them. This approach offers a meso perspective (between micro and macro), that is propitious to underline some new social phenomena. With a high pluri-disciplinary potential, the graphlet methodology is also discussed and explored itself
Nouvelles techniques de virtualisation de la mémoire et des entrées-sorties vers les périphériques pour les prochaines générations de centres de traitement de données basés sur des équipements répartis déstructurés by Maciej Bielski( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Cette thèse s'inscrit dans le contexte de la désagrégation des systèmes informatiques - une approche novatrice qui devrait gagner en popularité dans le secteur des centres de données. A la différence des systèmes traditionnels en grappes, où les ressources sont fournies par une ou plusieurs machines, dans les systèmes désagrégés les ressources sont fournies par des nœuds discrets, chaque nœud ne fournissant qu'un seul type de ressources (unités centrales de calcul, mémoire, périphériques). Au lieu du terme de machine, le terme de créneau (slot) est utilisé pour décrire une unité de déploiement de charge de travail. L'emplacement est assemblé dynamiquement avant un déploiement de charge de travail par l'orchestrateur système.Dans l'introduction nous abordons le sujet de la désagrégation et en présentons les avantages par rapport aux architectures en grappes. Nous ajoutons également au tableau une couche de virtualisation car il s'agit d'un élément crucial des centres de données. La virtualisation fournit une isolation entre les charges de travail déployées et un partitionnement flexible des ressources. Elle doit cependant être adaptée afin de tirer pleinement parti de la désagrégation. C'est pourquoi les principales contributions de ce travail se concentrent sur la prise en charge de la couche de virtualisation pour la mémoire désagrégée et la mise à disposition des périphériques.La première contribution principale présente les modifications de la pile logicielle liées au redimensionnement flexible de la mémoire d'une machine virtuelle (VM). Elles permettent d'ajuster la quantité de RAM hébergée (c'est à dire utilisée par la charge de travail en cours d'exécution dans une VM) pendant l'exécution avec une granularité d'une section mémoire. Du point de vue du logiciel il est transparent que la RAM proviennent de banques de mémoire locales ou distantes.La deuxième contribution discute des notions de partage de mémoire entre machines virtuelles et de migration des machines virtuelles dans le contexte de la désagrégation. Nous présentons d'abord comment des régions de mémoire désagrégées peuvent être partagées entre des machines virtuelles fonctionnant sur différents nœuds. De plus, nous discutons des différentes variantes de la méthode de sérialisation des accès simultanés. Nous expliquons ensuite que la notion de migration de VM a acquis une double signification avec la désagrégation. En raison de la désagrégation des ressources, une charge de travail est associée au minimum à un nœud de calcul et a un nœud mémoire. Il est donc possible qu'elle puisse être migrée vers des nœuds de calcul différents tout en continuant à utiliser la même mémoire, ou l'inverse. Nous discutons des deux cas et décrivons comment cela peut ouvrir de nouvelles opportunités pour la consolidation des serveurs.La dernière contribution de cette thèse est liée à la virtualisation des périphériques désagrégés. Partant de l'hypothèse que la désagrégation de l'architecture apporte de nombreux effets positifs en général, nous expliquons pourquoi elle n'est pas immédiatement compatible avec la technique d'attachement direct, est pourtant très populaire pour sa performance quasi native. Pour remédier à cette limitation, nous présentons une solution qui adapte le concept d'attachement direct à la désagrégation de l'architecture. Grâce à cette solution, les dispositifs désagrégés peuvent être directement attachés aux machines virtuelles, comme s'ils étaient branchés localement. De plus, l'OS hébergé, pour lequel la configuration de l'infrastructure sous-jacente n'est pas visible, n'est pas lui-même concerné par les modifications introduites
Performance et sécurité de dispositifs de distribution quantique de clés à variables continues by Paul Jouguet( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

This thesis focuses on a cryptographic primitive that allows two distant parties to generate an arbitrary amount of secret key even in the presence of an eavesdropper, provided that they share a short initial secret message. We focus our study on continuous-variable protocols and demonstrate experimentally an all-fiber system that performs distribution of secret keys at 80 km on a dedicated fiber link while taking into account all known imperfections. We could extract secret keys at such a distance bydesigning specific error correcting codes that perform very close to Shannon's bound for low signal to noise ratios. We also consider side-channel attacks that are not taken into account into the system security proof and propose some countermeasures. Finally, we study our system compability with intense communication channels that propagate on the same optical fiber
Déceler les attaques par détournement BGP by Quentin Jacquemart( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

The Internet is composed of tens of thousands Autonomous Systems (ASes) that exchange routing information using the Border Gateway Protocol (BGP). Consequently, every AS implicitly trusts every other ASes to provide accurate routing information. Prefix hijacking is an attack against the inter-domain routing infrastructure that abuses mutual trust in order to propagate fallacious routes. The current detection techniques pathologically raise a large number of alerts, mostly composed of false positives resulting from benign routing practices. In this Dissertation, we seek the root cause of routing events beyond reasonable doubts. First, we reduce the global number of alerts by analyzing false positive alerts, from which we extract constructs that reflect real-world standard routing practices. We then consider the security threat associated with these constructs in a prefix hijacking scenario. Second, we use a variety of auxiliary datasets that reflect distinct facets of the networks involved in a suspicious routing event in order to closely approximate the ground-truth, which is traditionally only known by the network owner. Specifically, we investigate Multiple Origin AS (MOAS) prefixes, and introduce a classification that we use to discard up to 80% of false positive. Then we show a real-world case where a MOAS coincided with spam and web scam traffic. We look at prefix overlaps, clarify their global use, and present a prototype that discards around 50% of false positive sub-MOAS alerts. Finally, we explore the IP blackspace, study the routing-level characteristics of those networks, find live IP addresses, and uncover a large amount of spam and scam activities
Mesure dynamique de déformation par rétrodiffusion Brillouin spontanée B-OTDR by Damien Maraval( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

Today, three distinct and complementary technologies are available for distributed temperature, strain or vibration measurements with the analysis of Raman, Brillouin and Rayleigh backscattered light. Current industrial needs are distributed strain measurements for linear infrastructures, such as pipelines, for which linear and real-time strain distribution is required. The research work aims to design a new distributed and dynamic strain measurement system based on the analysis of spontaneous Brillouin backscatter by reflectometry. Slope assisted technique is used to accelerate the measurement acquisition, currently limited to static events because of their actual principle of sweep frequency acquisition of the Brillouin backscattering spectrum. The experimental results are characterized and validated by the simulation of the measurements of the deformation and displacement of a pipe supported between two simple supports. A mechanical model, adapted to this configuration and transposable on real projects, is developed. Through Cementys industrial partner, this model is then used for two monitoring project of pipelines with different installation facilities and purpose
Fiabilité et problèmes de déploiement du codage réseau dans les réseaux sans fil by Paul-Louis Ageneau( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

Même si les réseaux de données ont beaucoup évolué au cours des dernières décennies, les paquets sont presque toujours transmis d'un nœud à l'autre comme des blocs de données inaltérables. Cependant, ce paradigme fondamental est aujourd'hui remis en question par des techniques novatrices comme le codage réseau, qui promet des améliorations de performance et de fiabilité si les nœuds sont autorisés à mixer des paquets entre eux. Les réseaux sans fil manquent de fiabilité en raison des obstacles ou interférences que subissent les liens sans fil, et ces problèmes peuvent empirer dans des topologies maillées avec de multiples relais potentiels. Dans ce travail, nous nous concentrons sur l'application du codage réseau intra-flux aux flux unicast dans les réseaux sans fil, avec pour objectif d'améliorer la fiabilité des transferts de données et de discuter des opportunités de déploiement et des performances. Tout d'abord, nous proposons une borne inférieure pour la redondance, puis un algorithme opportuniste distribué, pour adapter le codage aux conditions du réseau et permettre la livraison fiable des données dans un réseau sans fil maillé, tout en prenant en compte les besoins de l'application. En outre, puisque les opérations requises pour le codage réseau sont coûteuses en termes de calcul et de mémoire, nous étendons cet algorithme pour s'adapter aux contraintes physiques de chaque nœud. Ensuite, nous étudions les interactions du codage intra-flux avec TCP et son extension MPTCP. Le codage réseau peut en effet améliorer les performances de TCP, qui ont tendance à être plus faibles sur les liens sans fil, moins fiables. Nous observons l'impact des problèmes d'équité qui se posent quand des flux codés fonctionnent en parallèle avec des flux traditionnels non codés. Pour finir, nous explorons deux manières différentes d'améliorer les performances de MPTCP dans les environnements sans fil : le faire fonctionner sur du codage réseau, et implémenter directement le codage directement dans le protocole MPTCP tout en préservant sa compatibilité avec TCP
Multi-scale computational rhythm analysis : a framework for sections, downbeats, beats, and microtiming by Magdalena Fuentes( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

La modélisation computationnelle du rythme a pour objet l'extraction et le traitement d'informations rythmiques à partir d'un signal audio de musique. Cela s'avère être une tâche extrêmement complexe car, pour traiter un enregistrement audio réel, il faut pouvoir gérer sa complexité acoustique et sémantique à plusieurs niveaux de représentation. Les méthodes d'analyse rythmique existantes se concentrent généralement sur l'un de ces aspects à la fois et n'exploitent pas la richesse de la structure musicale, ce qui compromet la cohérence musicale des estimations automatiques. Dans ce travail, nous proposons de nouvelles approches tirant parti des informations multi-échelles pour l'analyse automatique du rythme. Nos modèles prennent en compte des interdépendances intrinsèques aux signaux audio de musique, en permettant ainsi l'interaction entre différentes échelles de temps et en assurant la cohérence musicale entre elles. En particulier, nous effectuons une analyse systématique des systèmes de l'état de l'art pour la détection des premiers temps, ce qui nous conduit à nous tourner vers des architectures convolutionnelles et récurrentes qui exploitent la modélisation acoustique à court et long terme; nous introduisons un modèle de champ aléatoire conditionnel à saut de chaîne pour la détection des premiers temps. Ce système est conçu pour tirer parti des informations de structure musicale (c'est-à-dire des répétitions de sections musicales) dans un cadre unifié. Nous proposons également un modèle linguistique pour la détection conjointe des temps et du micro-timing dans la musique afro-latino-américaine. Nos méthodes sont systématiquement évaluées sur diverses bases de données, allant de la musique occidentale à des genres plus spécifiques culturellement, et comparés à des systèmes de l'état de l'art, ainsi qu'à des variantes plus simples. Les résultats globaux montrent que nos modèles d'estimation des premiers temps sont aussi performants que ceux de l'état de l'art, tout en étant plus cohérents sur le plan musical. De plus, notre modèle d'estimation conjointe des temps et du microtiming représente une avancée vers des systèmes plus interprétables. Les méthodes présentées ici offrent des alternatives nouvelles et plus holistiques pour l'analyse numérique du rythme, ouvrant des perspectives vers une analyse automatique plus complète de la musique
Nouvelles méthodes de segmentation en imagerie tomographique volumique à faisceau conique dentaire by Timothée Evain( )

1 edition published in 2017 in French and held by 1 WorldCat member library worldwide

La tomographie à faisceau conique (CBCT) est devenue la modalité de référence pour les praticiens du domaine dentaire. Sa relative nouveauté et ses spécificités impliquent que le domaine du traitement de ces images est peu développé à l'heure actuelle. En partenariat industriel avec Carestream Dental, le premier volet de la thèse a conduit à développer une méthode de segmentation semi-automatique de chaque dent, reposant sur l'utilisation de contraintes de forme et d'intensité, et formulée comme un problème de minimisation d'énergie résolu par coupure de graphe. Les résultats montrent une bonne qualité de segmentation avec un coefficient de Dice moyen de 0, 958. Une application logicielle a été réalisée pour la mise en œuvre de la méthode de segmentation auprès des praticiens, en tenant compte des contraintes techniques et temporelles imposées par le contexte clinique, ainsi que du profil des utilisateurs. Un travail préliminaire d'extension de l'approche par coupure de graphe pour segmenter simultanément plusieurs dents à été réalisé, montrant la nécessité de rendre les contraintes de formes plus adaptées aux images et de modifier la méthode d'optimisation pour atteindre des temps de calcul compatibles avec la pratique clinique. Un second volet prospectif des travaux concerne la constitution d'un modèle structurel de la région maxillo-faciale pour formaliser les connaissances a priori sur les organes et leurs interactions. Ce modèle est un graphe conceptuel où sont représentés les concepts des structures et des relations. En particulier, les relations d'alignement et “le long de” ont été modélisées en 3D dans le cadre des ensembles flous
Deep learning for radar data exploitation of autonomous vehicle by Arthur Ouaknine( )

1 edition published in 2022 in English and held by 1 WorldCat member library worldwide

La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite
Analyse d'opinion dans les interactions orales by Valentin Barriere( )

1 edition published in 2019 in French and held by 1 WorldCat member library worldwide

La reconnaissance des opinions d'un locuteur dans une interaction orale est une étape cruciale pour améliorer la communication entre un humain et un agent virtuel. Dans cette thèse, nous nous situons dans une problématique de traitement automatique de la parole (TAP) sur les phénomènes d'opinions dans des interactions orales spontanées naturelles. L'analyse d'opinion est une tâche peu souvent abordée en TAP qui se concentrait jusqu'à peu sur les émotions à l'aide du contenu vocal et non verbal. De plus, la plupart des systèmes récents existants n'utilisent pas le contexte interactionnel afin d'analyser les opinions du locuteur. Dans cette thèse, nous nous penchons sur ces sujet. Nous nous situons dans le cadre de la détection automatique en utilisant des modèles d'apprentissage statistiques. Après une étude sur la modélisation de la dynamique de l'opinion par un modèle à états latents à l'intérieur d'un monologue, nous étudions la manière d'intégrer le contexte interactionnel dialogique, et enfin d'intégrer l'audio au texte avec différents types de fusion. Nous avons travaillé sur une base de données de Vlogs au niveau d'un sentiment global, puis sur une base de données d'interactions dyadiques multimodales composée de conversations ouvertes, au niveau du tour de parole et de la paire de tours de parole. Pour finir, nous avons fait annoté une base de données en opinion car les base de données existantes n'étaient pas satisfaisantes vis-à-vis de la tâche abordée, et ne permettaient pas une comparaison claire avec d'autres systèmes à l'état de l'art.A l'aube du changement important porté par l'avènement des méthodes neuronales, nous étudions différents types de représentations: les anciennes représentations construites à la main, rigides mais précises, et les nouvelles représentations apprises de manière statistique, générales et sémantiques. Nous étudions différentes segmentations permettant de prendre en compte le caractère asynchrone de la multi-modalité. Dernièrement, nous utilisons un modèle d'apprentissage à états latents qui peut s'adapter à une base de données de taille restreinte, pour la tâche atypique qu'est l'analyse d'opinion, et nous montrons qu'il permet à la fois une adaptation des descripteurs du domaine écrit au domaine oral, et servir de couche d'attention via son pouvoir de clusterisation. La fusion multimodale complexe n'étant pas bien gérée par le classifieur utilisé, et l'audio étant moins impactant sur l'opinion que le texte, nous étudions différentes méthodes de sélection de paramètres pour résoudre ces problèmes
Compensation des effets nonlinéaires pour les transmissions WDM longue distance à 400Gbps et au-delà by Abdelkerim Amari( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

Optical communication systems have evolved since their deployment to meet the growing demand for high-speed communications. Over the past decades, the global demand for communication capacity has increased exponentially and the most of the growth has occurred in the last few years when data started dominating network traffic. In order to meet the increase of traffic demands fueled by the growth of internet services, an increase of access network capacity and consequently metro and long-haul network capacities is required. Next generation of long-haul WDM transmission systems is expected to operate at 400Gbps or 1Tbps bit rate. Superchannel approaches, such as Nyquist WDM and multi-band OFDM, allow both high spectral efficiency and small guardband which makes them promising candidates to generate these high bit rates in combination with multi-level modulations formats. Such transmission systems are strongly disturbed by fiber nonlinear effects which increase with the data rate and the small guard band. Therefore, fiber nonlinearities compensation is required to get the desired performance in terms of transmission reach. DSP based approaches such as digital back propagation and third-order Volterra based nonlinear equalizer have been already proposed to deal with intra-channel or intra-band nonlinear effects. In the context of superchannel systems, we have proposed two new compensation techniques to deal with fiber nonlinear effects. The first one, called fifth-order inverse Volterra based nonlinear equalizer, compensate for intra-band nonlinear effects. The second approach, which is the interband/ subcarrier nonlinear interference canceler, is proposed to combat the nonlinear interference insuperchannel systems
Transmission coopérative et traitement du signal distribué avec feedback et backhaul limité by Qianrui Li( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

Transmitter cooperation is considered a promising tool for dealing with interference in wireless networks with an aggressive reuse policy of spectral resources. Although transmitter cooperation comes in many flavors, a recurrent assumption behind proposed methods lies in the need for cooperating devices to (i) acquire, share information pertaining to the propagation channel toward the multiple receivers and (ii) perform cooperation based on the disseminated information in the previous step. This holds true for instance for coordinated beamforming methods and, to an even greater extent, for network-MIMO (Joint Processing coordinated multi-point (JP CoMP) in the long term evolution (LTE) terminology). As feedback and exchange of channel state information (CSI) come at a price in terms of signaling overhead, there arise two important questions: (i) What information should be fed back or exchanged such that the CSI acquired at each transmitter is most informative to perform cooperation? (ii) Which techniques can reap the benefits of cooperation while living with an imperfect channel representation that varies from transmitter to transmitter ? In this thesis, we address both aforementioned questions. We consider first each transmitter acquires an initial imperfect CSI based on limited receivers feedback. For the design of efficient cooperation techniques that copes with the imperfect and non-identical CSI configuration at each transmitter, we investigate specifically a regularized zero forcing (RZF) precoder design in large system scenario. Finally, interesting and challenging research directions and open problems are discussed
Gestion des grandes masses de données dans les graphes réels by Imen Ben Dhia( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

De nos jours, un grand nombre d'applications utilisent de grands graphes pour la modélisation de données du monde réel. Nous avons assisté, ces dernières années, à une très rapide croissance de ces graphes dans divers contextes ; à savoir, les réseaux sociaux, la bioinformatique, le web sémantique, les systèmes de gestion des données géographiques, etc. La gestion, l'analyse et l'interrogation de ces données constituent un enjeu très important et ont suscité un vaste intérêt dans la communauté des Bases de Données. L'objectif de cette thèse est de fournir des algorithmes efficaces pour l'indexation et l'interrogation des données dans les grands graphes. Nous avons proposé EUQLID, une technique d'indexation qui permet de répondre efficacement aux requêtes de calcul de distance dans les grands graphes orientés. L'efficacité de cette technique est dûe au fait qu'elle exploite des propriétés intéressantes des graphes du monde réel. En effet, nous proposons un algorithme basé sur une variante efficace du fameux algorithme 2-hop. Les résultats obtenus montrent que notre algorithme surpassent les approches existantes en terme de temps d'indexation, ainsi qu'en temps de réponse. En effet, il permet de calculer la distance entre deux noeuds en quelques centaines de millisecondes sur de très grands graphes. Nous proposons également un modèle de contrôle d'accès pour les réseaux sociaux qui permet aux utlisateurs de spécifier leurs poltiques de contrôle d'accès en se basant sur leurs relations sociales, et qui peut utiliser EUQLID pour passer à l'échelle. Nous décrivons Primates comme étant un prototype appliquant le modèle proposé
Resource management in computer clusters : algorithm design and performance analysis by Céline Comte( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

The growing demand for cloud-based services encourages operators to maximize resource efficiency within computer clusters. This motivates the development of new technologies that make resource management more flexible. However, exploiting this flexibility to reduce the number of computers also requires efficient resource-management algorithms that have a predictable performance under stochastic demand. In this thesis, we design and analyze such algorithms using the framework of queueing theory.Our abstraction of the problem is a multi-server queue with several customer classes. Servers have heterogeneous capacities and the customers of each class enter the queue according to an independent Poisson process. Each customer can be processed in parallel by several servers, depending on compatibility constraints described by a bipartite graph between classes and servers, and each server applies first-come-first-served policy to its compatible customers. We first prove that, if the service requirements are independent and exponentially distributed with unit mean, this simple policy yields the same average performance as balanced fairness, an extension to processor-sharing known to be insensitive to the distribution of the service requirements. A more general form of this result, relating order-independent queues to Whittle networks, is also proved. Lastly, we derive new formulas to compute performance metrics.These theoretical results are then put into practice. We first propose a scheduling algorithm that extends the principle of round-robin to a cluster where each incoming job is assigned to a pool of computers by which it can subsequently be processed in parallel. Our second proposal is a load-balancing algorithm based on tokens for clusters where jobs have assignment constraints. Both algorithms are approximately insensitive to the job size distribution and adapt dynamically to demand. Their performance can be predicted by applying the formulas derived for the multi-server queue
Analyse et modélisation du canal radio pour la génération de clés secrètes by Taghrid Mazloum( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

Nowadays, the security of ubiquitous wireless communications becomes more and more a crucial requirement. Even though data is widely protected via symmetric ciphering keys, a well-known difficulty is the generation and distribution of such keys. In the recent years therefore, a set of works have addressed the exploitation of inherent characteristics of the fading propagation channel for security. In particular, secret keys could be generated from the wireless channel, considered as a shared source of randomness, available merely to a pair of communicating entities. ln the present dissertation, we are interested in the approach of secret key generation (SKG) from wireless channels, especially in relating the radio channel properties to the generated keys quality. We first develop a stochastic channel model, focusing on the security with respect to the eavesdropper side, which shows a residual channel memory weil beyond a few wavelengths distance (spatially nonstationary scenarios). Then, we analyze the channel degrees of freedom (DoF) and their impact on the SKG performance in different channel conditions, especially by considering more realistic channels in both outdoor and indoor environments (respectively through simulated ray tracing data and through measurements). The results show that, even for moderately wide band (such as standardized in IEEE 802.11), the sole frequency DOF or its association with the spatial DOF is often enough for generating long keys, provided an efficient quantization method of the complex channel coefficients is used
Estimation et fluctuations de fonctionnelles de grandes matrices aléatoires by Jianfeng Yao( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

The principal objective of this thesis is : the study of the fluctuations of functionals of spectrum for large random matrices, the construction of consistent estimators and the study of their performances, in the situation where the dimension of observations is with the same order as the number of the available observations. There will be two parts in the report : the methodological contribution and the estimation in large-dimensional data. As to the methodological contribution, we will study the fluctuations for spectral linear statistics of the model 'information-plus-noise' for analytic functionals, and the extension for non-analytic functionals. The extension is based on the interpolation between random variables and Gaussian terms. This method can be applied to empirical covariance matrices. Another part consists in the estimation of the eigenvalues of the real covariance from the empirical covariance for high dimensional data and the study of its performance. We propose a new consistent estimator and the fluctuation of the estimator will be studied . In wireless communications, this procedure permits a secondary network to ensure the presence of the available spectral resources
Détection d'anomalies logiques dans les logiciels d'entreprise multi-partis à travers des tests de sécurité by Giancarlo Pellegrino( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

Multi-party business applications are distributed computer programs implementing collaborative business functions. These applications are one of the main target of attackers who exploit vulnerabilities in order to perform malicious activities. The most prevalent classes of vulnerabilities are the consequence of insufficient validation of the user-provided input. However, the less-known class of logic vulnerabilities recently attracted the attention of researcher. According to the availability of software documentation, two testing techniques can be used: design verification via model checking, and black-box security testing. However, the former offers no support to test real implementations and the latter lacks the sophistication to detect logic flaws. In this thesis, we present two novel security testing techniques to detect logic flaws in multi-party business applicatons that tackle the shortcomings of the existing techniques. First, we present the verification via model checking of two security protocols. We then address the challenge of extending the results of the model checker to automatically test protocol implementations. Second, we present a novel black-box security testing technique that combines model inference, extraction of workflow and data flow patterns, and an attack pattern-based test case generation algorithm. Finally, we discuss the application of the technique developed in this thesis in an industrial setting. We used these techniques to discover previously-unknown design errors in SAML SSO and OpenID protocols, and ten logic vulnerabilities in eCommerce applications allowing an attacker to pay less or shop for free
Fast and slow machine learning by Jacob Montiel López( )

1 edition published in 2019 in French and held by 1 WorldCat member library worldwide

The Big Data era has revolutionized the way in which data is created and processed. In this context, multiple challenges arise given the massive amount of data that needs to be efficiently handled and processed in order to extract knowledge. This thesis explores the symbiosis of batch and stream learning, which are traditionally considered in the literature as antagonists. We focus on the problem of classification from evolving data streams.Batch learning is a well-established approach in machine learning based on a finite sequence: first data is collected, then predictive models are created, then the model is applied. On the other hand, stream learning considers data as infinite, rendering the learning problem as a continuous (never-ending) task. Furthermore, data streams can evolve over time, meaning that the relationship between features and the corresponding response (class in classification) can change.We propose a systematic framework to predict over-indebtedness, a real-world problem with significant implications in modern society. The two versions of the early warning mechanism (batch and stream) outperform the baseline performance of the solution implemented by the Groupe BPCE, the second largest banking institution in France. Additionally, we introduce a scalable model-based imputation method for missing data in classification. This method casts the imputation problem as a set of classification/regression tasks which are solved incrementally.We present a unified framework that serves as a common learning platform where batch and stream methods can positively interact. We show that batch methods can be efficiently trained on the stream setting under specific conditions. The proposed hybrid solution works under the positive interactions between batch and stream methods. We also propose an adaptation of the Extreme Gradient Boosting (XGBoost) algorithm for evolving data streams. The proposed adaptive method generates and updates the ensemble incrementally using mini-batches of data. Finally, we introduce scikit-multiflow, an open source framework in Python that fills the gap in Python for a development/research platform for learning from evolving data streams
Blancheur du résidu pour le débruitage d'image by Paul Riot( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

We propose an advanced use of the whiteness hypothesis on the noise to imrove denoising performances. We show the interest of evaluating the residual whiteness by correlation measures in multiple applications. First, in a variational denoising framework, we show that a cost function locally constraining the residual whiteness can replace the L2 norm commonly used in the white Gaussian case, while significantly improving the denoising performances. This term is then completed by cost function constraining the residual raw moments which are a mean to control the residual distribution. In the second part of our work, we propose an alternative to the likelihood ratio, leading to the L2 norm in the white Gaussian case, to evaluate the dissimilarity between noisy patches. The introduced metric, based on the autocorrelation of the patches difference, achieves better performances both for denoising and similar patches recognition. Finally, we tackle the no reference quality evaluation and the local model choice problems. Once again, the residual whiteness bring a meaningful information to locally estimate the truthfulness of the denoising
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.91 (from 0.89 for Sociabilit ... to 0.99 for Multi-scal ...)

Alternative Names
LTCI

UMR 5141

UMR5141

Unité mixte de recherche 5141

Languages
English (13)

French (8)