WorldCat Identities

Laboratoire Informatique, signaux et systèmes (Sophia Antipolis, Alpes-Maritimes)

Overview
Works: 126 works in 129 publications in 2 languages and 129 library holdings
Roles: Other, Degree grantor, Editor
Publication Timeline
.
Most widely held works by signaux et systèmes (Sophia Antipolis, Alpes-Maritimes) Laboratoire Informatique
Estimation de retards, de facteurs d'échelle et de variations de forme de signaux vectoriels : application aux signaux biomédicaux by Wrya Muhammad Ali( Book )

2 editions published in 2001 in French and held by 2 WorldCat member libraries worldwide

On traite des signaux de type déterministe, inconnus et transitoires. Les applications visées sont les enregistrements, par une grille de capteurs, de Potentiels d'Action qui se propagent tels que l'EMG de surface ou les signaux répétitifs tels que les signaux cardiaques. Dans la première partie, on estime un vecteur de retards en vue d'une estimation de la vitesse moyenne de conduction dans une Unité Motrice musculaire. Pour une vitesse supposée variable le long d'une fibre, l'estimateur des retards est amélioré en utilisant des contraintes sur les retards. On montre ensuite que la variance de l'estimateur de vitesse moyenne est diminuée grâce aux capteurs intermédiaires. On montre également comment varie le biais et la variance de l'estimateur de la vitesse en fonction de la distance entre capteurs. Dans la deuxième partie, on s'intéresse à la forme des signaux : trois mesures de différence de forme sont proposées dans un but de classification et comparées à d'autres existantes. Les mesures proposées se basent sur une distance calculée soit après estimation de la transformation affine qui minimise l'écart de forme, soit en utilisant un domaine invariant par rapport à une transformation affine : l'autocorrélation conserve l'échelle en s'affranchissant des translations, puis la transformée d'échelle permet d'obtenir un domaine invariant par changement d'échelle. (...). Dans la troisième partie, les paramètres de la transformation affine sont considérés comme porteurs d'informations : sous l'hypothèse de l'égalité des formes, l'estimation conjointe de retard et de facteur d'échelle est faite en utilisant une nouvelle méthode rapide et adaptée à la classe des signaux étudiés, notamment à l'EMG de surface pour accéder à la distribution des vitesses de conduction
Planification séquentielle d'expériences pour des modèles de paramétrisation non linéaire by Roland Gautier( Book )

2 editions published in 2000 in French and held by 2 WorldCat member libraries worldwide

La planification d'expériences optimales consiste à déterminer les conditions expérimentales optimales dans un but de précision sur l'estimation des paramètres d'un modèle, de la commande d'un système ou de discrimination entre structures de modèles. Ce travail concerne l'estimation de paramètres pour des modèles non linéaires. Dans ce cas, l'expérience optimale dépend des paramètres à estimer, et nous adoptons une approche séquentielle qui alterne des phases d'estimation de paramètres et des phases planification d'expériences. La première partie du mémoire traite de la planification totalement séquentielle (une seule observation est effectuée à chaque étape), qui est mise en œuvre sur un certain nombre de modèles non linaires classiques (cinétique chimie, pharmacocinétique). Les approches classiques (passives) sont détaillées et trois nouvelles méthodes actives sont présentées
Débruitage, séparation et localisation de sources EEG dans le contexte de l'épilepsie by Hanna Becker( Book )

2 editions published in 2014 in English and held by 2 WorldCat member libraries worldwide

L'électroencéphalographie (EEG) est une technique qui est couramment utilisée pour le diagnostic et le suivi de l'épilepsie. L'objectif de cette thèse consiste à fournir des algorithmes pour l'extraction, la séparation, et la localisation de sources épileptiques à partir de données EEG. D'abord, nous considérons deux étapes de prétraitement. La première étape vise à éliminer les artéfacts musculaires à l'aide de l'analyse en composantes indépendantes (ACI). Dans ce contexte, nous proposons un nouvel algorithme par déflation semi-algébrique qui extrait les sources épileptiques de manière plus efficace que les méthodes conventionnelles, ce que nous démontrons sur données EEG simulées et réelles. La deuxième étape consiste à séparer des sources corrélées. A cette fin, nous étudions des méthodes de décomposition tensorielle déterministe exploitant des données espace-temps-fréquence ou espace-temps-vecteur-d'onde. Nous comparons les deux méthodes de prétraitement à l'aide de simulations pour déterminer dans quels cas l'ACI, la décomposition tensorielle, ou une combinaison des deux approches devraient être utilisées. Ensuite, nous traitons la localisation de sources distribuées. Après avoir présenté et classifié les méthodes de l'état de l'art, nous proposons un algorithme pour la localisation de sources distribuées qui s'appuie sur les résultats du prétraitement tensoriel. L'algorithme est évalué sur données EEG simulées et réelles. En plus, nous apportons quelques améliorations à une méthode de localisation de sources basée sur la parcimonie structurée. Enfin, une étude des performances de diverses méthodes de localisation de sources est conduite sur données EEG simulées
Performances réseaux et système pour le cloud computing by Sonia Belhareth( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Cloud computing enables a flexible access to computation and storage services. This requires, for the cloud service provider, mastering network and system issues. During this PhD thesis, we focused on the performance of TCP Cubic, which is the default version of TCP in Linux and thus widely used in today's data centers. Cloud environments feature low bandwidth-delay products (BPD) in the case of intra data center communications and high BDP in the case of inter data center communications. We have developed analytical models to study the performance of a Cubic connection in isolation or a set of competing Cubic connections. Our models turn out to be precise in the low BDP case but fail at capturing the synchronization of losses that ns-2 simulations reveal in the high BDP case. We have complemented our simulations studies with tests in real environments: (i) an experimental network at I3S and (ii) a cloud solution available internally at Orange: Cube. Studies performed in Cube have highlighted the high correlation that might exist between network and system performance and the complexity to analyze the performance of applications in a cloud context. Studies in the controlled environment of I3S have confirmed the existence of synchronization and enabled us to identify its condition of appearance. We further investigated two types of solution to combat synchronization: client level solutions that entail modifications of TCP and network level solutions based on queue management solutions, in particular PIE and Codel
Modélisation et optimisation de la qualité d'expérience client des services data sur le réseau mobile. Application au vidéo streaming by Mohamed Bouzian( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

In recent years, mobile devices have become more powerful in terms of computing power, memory, size and screen quality. These improvements have greatly stimulated demand for multimedia services including video streaming. Moreover, customers are increasingly demanding in terms of the quality rendered on this type of service. In addition, a bad experience of video streaming has a great impact on the perception that customers have of the operator. Optimizing the quality of experience (QoE) of customers on the services of video streaming is thus a major competitive challenge. In this thesis, we are interested in modeling and optimizing the QoE of the streaming services taking into account the usages and the mobility of the clients. In particular, we are interested in two strategies for delivering content on the mobile network: the Fast Caching strategy and the On-Off strategy. We develop analytical models that allow us to calculate major indicators of the QoE for the streaming service that are: i) starvation, which drives operators to send more video content to customers and ii) the loss due to abandoning the video playback, which pushes them to send video content in a strictly reasonable manner. An optimal balance is to be found. We also propose QoE oriented strategies by maintaining a good level of QoE over the entire network and optimizing the QoE indicators of streaming services
Caractérisation spatio-temporelle de l'électrocardiogramme de surface pour prédire le résultat de l'ablation par cathéter de la fibrillation atriale persistante by Marianna Meo( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

Responsable d'un quart des accidents vasculaires cérébraux, la fibrillation auriculaire (FA) est l'arythmie cardiaque la plus répandue. La thérapie d'ablation par cathéter (CA) est de plus en plus utilisée pour traiter la FA, mais ses effets sur le substrat cardiaque ne sont pas suffisamment compris, d'où un taux de réussite très variable. L'électrocardiogramme (ECG) à 12 voies représente un outil non invasif peu coûteux pour caractériser la FA à partir de l'activité électrique du cœur. Cependant, les prédicteurs classiques de l'issue de la CA présentent plusieurs inconvénients, notamment leur calcul manuel sur une seule voie de l'ECG. Cette thèse exploite explicitement le caractère multi-capteur de l'ECG au moyen de techniques de décomposition multivariées, démontrant qu'elles peuvent améliorer la puissance prédictive de certaines propriétés de l'ECG dans le cadre de la CA. L'amplitude des ondes fibrillatoires est corrélée avec le résultat de la CA, et traitée par une méthode multi-capteur basée sur l'analyse en composantes principales (PCA). Des variantes comme la PCA pondérée (WPCA) et la factorisation en matrices non négatives (NMF) peuvent aussi quantifier la variabilité spatio-temporelle de la FA sur l'ECG. La théorie de l'information permet également d'estimer le niveau de corrélation entre les voies de l'ECG, mis en relation avec le résultat de la CA grâce à des approches multi-capteurs. Enfin, une dernière ligne de recherche concerne la réponse ventriculaire manifestée sur la variabilité cardiaque. L'approche paramétrique de processus ponctuel est capable de souligner certaines propriétés de cette variabilité, améliorant ainsi la caractérisation de la FA
Combinaison de programmes à objets actifs et BSP by Pierre Leca( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

Cette thèse présente un modèle de programmation hybride entre deux modèles de programmation parallèle : objets actifs et BSP (Bulk Synchronous Parallel). Les objets actifs sont spécialisés dans le parallélisme de tâche ; ils permettent d'exécuter du code fonctionnellement différent en parallèle, et d'échanger leurs résultats grâce à des futurs qui représentent ces résultats avant-même qu'ils soient disponibles. Le modèle BSP permet, quant à lui, un parallélisme assez différent de celui des objets actifs : un parallélisme de donnée. Ce parallélisme consiste à découper une tâche en plusieurs morceaux et de les traiter en parallèle pour aller plus vite. Ces deux modèles spécialisés, permettent une programmation haut niveau et ont des propriétés intéressantes telle que la facilité de programmation et le déterminisme sous certaines conditions. L'intérêt d'allier ces deux modèles est donc de permettre l'écriture de programmes combinant parallélisme de tâche et parallélisme de donnée, tout en bénéficiant des caractéristiques des deux modèles. Cette thèse étudie ce nouveau modèle d'objets actifs BSP sous un aspect théorique (grâce à une sémantique opérationnelle) et pratique (grâce à une implémentation en C++ avec MPI). Un nouveau concept de futurs distribués est également défini ; ils consistent à unifier les concepts de futurs et de vecteurs distribués. Cela permet une meilleure intégration entre objets actifs et BSP : grâce à eux, nos objets actifs BSP peuvent échanger entre eux efficacement en parallèle. L'efficacité de ces futurs distribués est montrée grâce à des benchmarks sur notre implémentation qui comparent les performances des futurs classiques et des futurs distribués
Un modèle de raisonnement pour les opérateurs de composition logicielle décrits en boite noire by Benjamin Benni( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

The complexity of software systems made it necessary to split them up and reunite them afterward. Separating concerns is a well-studied challenge and teams separate the work to be done beforehand. Still, separating without considering the recomposition leads to rushed, unsafe, and time-consuming recomposition. The composition should create the right and best system with minimal human effort. Composition operators are often ad-hoc solutions developed by non-specialist development teams. They are not developed using high-level formalism and end up being too complicated or too poorly formalized to support proper reasonings. We call them "black-boxes" as existing techniques requiring knowledge of its internals cannot be applied or reused. However, black-box operators, like others, must ensure guarantees: one must assess their idempotency to use them in a distributed context; provide an average execution time to assess usage in a reactive system; check conflicts to validate that the composed artifact conforms to business properties. Despite the black-box aspect, none of these properties are domain-specific. In this thesis, we present a domain-independent approach that enables (i) reasonings on composition equation, (ii) to compose them safely, (iii) by assessing properties similar to the ones from the state-of-the-art. We validated the approach in heterogeneous application domains: 19 versions of Linux kernel with 54 rewriting rules, fixing 13 antipatterns in 22 Android apps, and validating the efficiency of the approach on the composition of 20k Docker images
Propriétés métriques des grands graphes by Guillaume Ducoffe( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

Les grands réseaux de communication sont partout, des centres de données avec des millions de serveurs jusqu'aux réseaux sociaux avec plusieurs milliards d'utilisateurs.Cette thèse est dédiée à l'étude fine de la complexité de différents problèmes combinatoires sur ces réseaux. Dans la première partie, nous nous intéressons aux propriétés des plongements des réseaux de communication dans les arbres. Ces propriétés aident à mieux comprendre divers aspects du trafic dans les réseaux (tels que la congestion). Plus précisément, nous étudions la complexité du calcul de l'hyperbolicité au sens de Gromov et de paramètres des décompositions arborescentes dans les graphes. Ces paramètres incluent la longueur arborescente (treelength) et l'épaisseur arborescente (treebreadth). Au passage, nous démontrons de nouvelles bornes sur ces paramètres dans de nombreuses classes de graphes, certaines d'entre elles ayant été utilisées dans la conception de réseaux d'interconnexion des centres de données. Le résultat principal dans cette partie est une relation entre longueur et largeur arborescentes (treewidth), qui est un autre paramètre très étudié des graphes. De ce résultat, nous obtenons une vision unifiée de la ressemblance des graphes avec un arbre, ainsi que différentes applications algorithmiques. Nous utilisons dans cette partie divers outils de la théorie des graphes et des techniques récentes de la théorie de la complexité
Modélisation et détection des émotions à partir de données expressives et contextuelles by Franck Berthelon( )

1 edition published in 2013 in French and held by 1 WorldCat member library worldwide

We present a computational model for emotion detection based on human behavioural expression. For this work, we use the two-factor theory of Schachter and Singer to map our architecture onto natural behavior, using both expressive and contextual data to build our emotion detector. We focus our effort on expression interpretation by introducing Personalized Emotion Maps (PEMs), and on emotion contextualisation via an Emotion Ontology for Contex Awareness (EmOCA). PEMs are motivated by Scherer's complex system model of emotions and represent emotion values determined from multiple sensors. PEMs are calibrated to individuals, then a regression algorithm uses individual-specific PEMs to determine a person's emotional feeling from sensor measurements of their bodily expressions. The aim of this architecture is to dissociate expression interpretation from sensor measurements, thus allowing flexibility in the choice of sensors. Moreover, PEMs can also be used in facial expression synthesis. EmOCA brings context into the emotion-modulating cognitive input to weight predicted emotion. We use a well known interoperable reasoning tool, an ontology, allowing us to describe and to reason about philia and phobia in order to modulate emotion determined from expression. We present a prototype using facial expressions to evaluate emotion recognition from real-time video sequences. Moreover, we note that, interestingly, the system detects the sort of hysteresis phenomenon in changing emotion state as suggested by Scherer's psychological model
Automates cellulaires, fonctions booléennes et dessins combinatoires by Luca Mariot( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

The goal of this thesis is the investigation of Cellular Automata (CA) from the perspective of Boolean functions and combinatorial designs. Beside its theoretical interest, this research finds its motivation in cryptography, since Boolean functions and combinatorial designs are used to construct Pseudorandom Number Generators (PRNG) and Secret Sharing Schemes (SSS). The results presented in the thesis are developed along three research lines, organized as follows. The first line considers the use of heuristic optimization algorithms to search for Boolean functions with good cryptographic properties, to be used as local rules in CA-based PRNG. The main motivation is to improve Wolfram's generator based on rule 30, which has been shown to be vulnerable against two cryptanalytic attacks. The second line deals with vectorial Boolean functions induced by CA global rules. The first contribution considers the period of preimages of spatially periodic configurations in surjective CA, and analyze the cryptographic properties of CA global rules. The third line focuses on the combinatorial designs generated by CA, specifically considering Orthogonal Latin Squares (OLS), which are equivalent to SSS. In particular, an algebraic characterization of OLS generated by linear CA is given, and heuristic algorithms are used to build OLS based on nonlinear CA
Algorithmes pour la fouille de données et la bio-informatique by Kartick Chandra Mondal( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

L'extraction de règles d'association et de bi-clusters sont deux techniques de fouille de données complémentaires majeures, notamment pour l'intégration de connaissances. Ces techniques sont utilisées dans de nombreux domaines, mais aucune approche permettant de les unifier n'a été proposée. Hors, réaliser ces extractions indépendamment pose les problèmes des ressources nécessaires (mémoire, temps d'exécution et accès aux données) et de l'unification des résultats. Nous proposons une approche originale pour extraire différentes catégories de modèles de connaissances tout en utilisant un minimum de ressources. Cette approche est basée sur la théorie des ensembles fermés et utilise une nouvelle structure de données pour extraire des représentations conceptuelles minimales de règles d'association, bi-clusters et règles de classification. Ces modèles étendent les règles d'association et de classification et les bi-clusters classiques, les listes d'objets supportant chaque modèle et les relations hiérarchiques entre modèles étant également extraits. Cette approche a été appliquée pour l'analyse de données d'interaction protéomiques entre le virus VIH-1 et l'homme. L'analyse de ces interactions entre espèces est un défi majeur récent en bio-informatique. Plusieurs bases de données intégrant des informations hétérogènes sur les interactions et des connaissances biologiques sur les protéines ont été construites. Les résultats expérimentaux montrent que l'approche proposée peut traiter efficacement ces bases de données et que les modèles conceptuels extraits peuvent aider à la compréhension et à l'analyse de la nature des relations entre les protéines interagissant
Aide à la création et à l'exploitation de réglementations basée sur les modèles et techniques du Web sémantique by Khalil Riad Bouzidi( )

1 edition published in 2013 in French and held by 1 WorldCat member library worldwide

Regulations in the Building industry are becoming increasingly complex and involve more than one technical area. They cover products, components and project implementation. They also play an important role to ensure the quality of a building, and to minimize its environmental impact. For more than 30 years, CSTB has proved its expertise in this field through the development of the complete encyclopedia of French technical and regulatory texts in the building domain: the REEF. In the framework of collaboration between CSTB and the I3S laboratory, we are carrying on research on the acquisition of knowledge from the technical and regulatory information contained in the REEF and the automated processing of this knowledge with the final goal of assisting professionals in the use of these texts and the creation of new texts. We are implementing this work in CSTB to help industrials in the writing of Technical Assessments. The problem is how to specify these assessments and standardize their structure using models and adaptive semantic services. The research communities of Knowledge Engineering and Semantic Web play a key role in providing the models and techniques relevant for our research, whose main objective is to simplify access to technical regulatory information, to support professionals in its implementation, and to facilitate the writing of new regulations while taking into account constraints expressed in the existing regulatory corpus. We focus on Technical Assessments based on technical guides capturing both regulations and knowledge of CSTB experts when producing these documents. A Technical Assessment (in French: Avis Technique or ATec) is a document containing technical information on the usability of a product, material, component or element of construction, which has an innovative character. We chose this Technical Assessment as a case study because CSTB has the mastership and a wide experience in these kinds of technical documents. We are particularly interested in the modeling of the regulatory constraints derived from the Technical Guides used to validate the Assessment. These Guides are regulatory complements offered by CSTB to the various industrials to enable easier reading of technical regulations. They collect execution details with a wide range of possible situations of implementations. Our work aims to formalize the Technical Guides in a machine-processable model to assist the creation of Technical Assessments by automating their validation. For this purpose, we first constructed a domain-ontology, which defines the main concepts involved in the Technical Guides. This ontology called “OntoDT” is coupled with domain thesauri. Several are being developed at CSTB among which one seems the most relevant by its volume and its semantic approach: the thesaurus from the REEF project. Our second contribution is the use of standard SBVR (Semantics of Business Vocabulary and Business Rules) and SPARQL to reformulate the regulatory requirements of guides both in a controlled and formal language Third, our model incorporates expert knowledge on the verification process of Technical Documents. We have organized the SPARQL queries representing regulatory constraints into several processes. Each component involved in the Technical Document corresponds to a elementary process of compliance checking. An elementary process contains a set of SPARQL queries to check the compliance of an elementary component. A full complex process for checking a Technical Document is defined recursively and automatically built as a set of elementary processes relative to the components which have their semantic definition in OntoDT. Finally, we represent in RDF the association between the SBVR rules and SPARQL queries representing the same regulatory constraints. We use annotations to produce a compliance report in natural language to assist users in the writing of Technical Assessments
Codage spatio-temporel tensoriel pour les systèmes de communication sans fil MIMO by Michele Nazareth da Costa( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Since the growing success of mobile systems in the 1990s, new wireless technologies have been developed in order to support a growing demand for high-quality multimedia services with low error rates. An interesting way to improve the error performance and to achieve better transmission rates is to combine the use of various diversities and multiplexing access techniques in the MIMO system context. The incorporation of oversampling, spreading and multiplexing operations and additional diversities on wireless systems lead to multidimensional received signals which naturally satisfy tensor models. This thesis proposes a new tensorial approach based on a tensor space-time (TST) coding for MIMO wireless communication systems. The signals received by multiple antennas form a fourth-order tensor that satisfies a new tensor model, referred to as PARATUCK-(2,4) (PT-(2,4)) model. A performance analysis is carried out for the proposed TST system and a recent space-time-frequency (STF) system, which allows to derive expressions for the maximum diversity gain over a at fading channel. An uplink processing based on the TST coding with allocation resources is proposed. A new tensor decomposition is introduced, the so-called PT-(N1,N), which generalizes the standard PT-2 and our PT-(2,4) model. This thesis establishes uniqueness conditions for the PARATUCK-(N1,N) model. From these results, joint symbol and channel estimation is ensured for the TST and STF systems. Semi-blind receivers are proposed based on the well-known Alternating Least Squares algorithm and the Levenberg-Marquardt method, and also a new receiver based on the Kronecker Least Squares (KLS) for both systems
Parallélisme en programmation par contraintes by Mohamed Rezgui( )

1 edition published in 2015 in French and held by 1 WorldCat member library worldwide

We study the search procedure parallelization in Constraint Programming (CP). After giving an overview on various existing methods of the state-of-the-art, we present a new method, named Embarrassinqly Parallel Search (EPS). This method is based on the decomposition of a problem into many disjoint subproblems which are then solved in parallel by computing units with little or without communication. The principle of EPS is to have a resolution times balancing for each computing unit in a statistical sense to obtain a goodDépôt de thèse - Données complémentaireswell-balanced workload. We assume that the amount of resolution times of all subproblems is comparable to the resolution time of the entire problem. This property is checked with CP and allows us to have a simple and efficient method in practice. In our experiments, we are interested in enumerating all solutions of a problem, and proving that a problem has no solution and finding an optimal solution of an optimization problem. We observe that the decomposition has to generate at least 30 subproblems per computing unit to get equivalent workloads per computing unit. Then, we evaluate our approach on different architectures (multicore machine, cluster and cloud computing) and we observe a substantially linear speedup. A comparison with current methods such as work stealing or portfolio shows that EPS gets better results
Réseaux pilotés par logiciels efficaces en énergie by Nicolas Huin( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

In the recent years, the growth of the architecture of telecommunication networks has been quickly increasing to keep up with a booming traffic. Moreover, the energy consumption of these infrastructures is becoming a growing issue, both for its economic and ecological impact. Multiple approaches were proposed to reduce the networks' power consumption such as decreasing the number of active elements. Indeed, networks are designed to handle high traffic, e.g., during the day, but are over-provisioned during the night. In this thesis, we focus on disabling links and routers inside the network while keeping a valid routing. This approach is known as Energy Aware Routing (EAR). However current networks are not adapted to support the deployment of network-wide green policies due to their distributed management and the black-box nature of current network devices. The SDN and NFV paradigms bear the promise of bringing green policies to reality. The first one decouples the control and data plane and thus enable a centralized control of the network. The second one proposes to decouple the software and hardware of network functions and allows more flexibility in the creation and management of network services. In this thesis, we focus on the challenges brought by these two paradigms for the deployment of EAR policies. We dedicated the first two parts to the SDN paradigm. We first study the forwarding table size constraints due to an Increased complexity of rules. We then study the progressive deployment of SDN devices alongside legacy ones. We focus our attention on the NFV paradigm in the last part, and more particularly, we study the Service Function Chaining problem
Gestion du contrôle de la diffusion des données d'entreprises et politiques de contrôles d'accès by Yoann Bertrand( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

The main objective of this thesis is to solve the problem of unintentional data leakage within companies. These leaks can be caused by the use of both Access Control (AC) and Transmission Control (TC) policies. Moreover, using both AC and TC can lead to many problems for the security experts and the administrators that are in charge of the definition and maintenance of such policies. Among these problems, we can underline the genericity problem of existing models, the coherence problem between AC and TC rules and problems such as density, adaptability, interoperability and reactivity. In this thesis, we first define a meta-model to take into account the main AC models that are used within companies. We also propose a coherent and semi-automatic generation of TC policies based on existing AC to tackle the coherence problem. Moreover, several mechanisms have been proposed to tackle complexity, adaptability and interoperability issues. In order to validate the relevance of our solution, we have first conducted a survey among security experts and administrators. This survey has highlighted several information regarding the policies' size and density, the tiresomeness of having to define them and the interest for several functionalities that can cover the aforementioned problems. Finally, our solution has been tested on stochastically generated and real policies in order to take performances and reactivity under consideration. Results of these tests have validated that our solution covers the underlined problems
Modélisation Tensorielle de l'ECG pour l'Analyse de la Fibrillation Atriale Persistante by Pedro Marinho Ramos de Oliveira( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

La fibrillation atriale (FA) est l'arythmie soutenue la plus couramment diagnostiquée dans la pratique clinique. Elle est responsable de taux élevés d'hospitalisation et de décès. Les mécanismes électrophysiologiques qui sous-tendent ce trouble du rythme cardiaque ne sont pas complètement compris. Une stratégie non invasive et efficace pour étudier cette arythmie consiste à analyser l'activité atriale (AA) présente dans l'électrocardiogramme (ECG) de surface. Toutefois, l'AA est masquée par l'activité ventriculaire (AV) dans chaque battement, et elle a une amplitude faible, ce qui rend difficile son analyse. Au fil des années, des méthodes de traitement du signal ont aidé les cardiologues pour l'étude de la FA en extrayant l'AA de l'ECG. En particulier, des méthodes matricielles de séparation aveugle de sources (SAS) se sont révélées des outils d'extraction de l'AA efficaces. Cependant, certaines contraintes doivent être imposées pour garantir l'unicité de ces techniques de factorisation matricielle et, bien que mathématiquement cohérentes, elles peuvent manquer de fondements physiologiques, avec pour conséquence d'entraver l'interprétation des résultats. En revanche, les décompositions tensorielles peuvent garantir l'unicité sous des contraintes moins restrictives. En particulier, la décomposition en termes de blocs (Block Term Decomposition, BTD), récemment proposée comme technique SAS, peut être unique sous certaines contraintes satisfaites par les facteurs matriciels, facilement verifiées tant du point de vue mathématique que physiologique. Par ailleurs, les sources cardiaques peuvent être bien modélisées par des fonctions mathématiques spécifiques qui, lorsqu'elles sont mappées dans les facteurs matriciels structurés de la BTD, présentent un lien avec leur rang. Un autre avantage par rapport aux méthodes matricielles est que l'approche tensorielle est capable d'extraire l'AA à partir d'enregistrements ECG très courts. Dans la présente thèse de doctorat, on étudie tout d'abord le modèle Hankel-BTD comme outil d'extraction d'AA dans des épisodes de FA persistante, avec une validation basée sur des expériences statistiques concernant une population de patients atteints de FA et plusieurs types de segments ECG. Les enregistrements ECG avec des intervalles courts entre les battements cardiaques et de l'AA à faible amplitude sont des cas difficiles courants à ce stade de l'arythmie. Ces cas motivent l'utilisation d'une autre approche tensorielle, appelée Löwner-BTD, pour estimer un signal AA de meilleure qualité. Une telle approche est présentée dans le cadre d'une nouvelle stratégie optimale pour assurer la structure de Löwner qui est implémentée comme une variante d'un algorithme robuste récemment proposé pour le calcul de la BTD. Une autre contribution est la modélisation des ECG en FA par le modèle dit de Hankel-BTD couplé, qui offre une meilleure extraction d'AA avec un coût de calcul réduit par rapport à son homologue non couplé. D'autres contributions concernent les défis qui découlent du problème de l'extraction d'AA des ECG de FA, tels que la détection de la source d'AA parmi d'autres sources séparées dans des expériences réelles, où la vérité est inconnue. Pour cette tâche, plusieurs approches utilisent des algorithmes d'apprentissage automatique et des réseaux de neurones sont évaluées, offrant une précision satisfaisante. Un autre défi à relever est la difficulté de mesurer la qualité de l'estimation de l'AA. De nouveaux indices sont proposés et évalués pour quantifier la qualité de l'estimation AA pendant la FA. En résumé, cette thèse de doctorat fournit la première étude approfondie de l'application des techniques de traitement du signal tensoriel pour l'analyse de la fibrillation atriale, en mettant en évidence l'intérêt de l'approche tensorielle et son potentiel pour la prise en charge et la compréhension de ce trouble cardiaque complexe
Ecole d'été du pôle ResCom du GDR ASR : Sécurité et fiabilité des réseaux by Ecole d'été du pôle ResCom du GDR ASR( Book )

1 edition published in 2006 in English and held by 1 WorldCat member library worldwide

Un manageur de contextes résolvant les conflits entre les points de vue des concepteurs by The Can Do( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

Presently, self-adaptive systems (SAS) have become an essential feature in ubiquitous computing applications. They provide a capable of dynamically self-adapting their behavior in response to the user's current situation and needs. This thesis aims at providing several solutions for overcoming challenges on the development of selfadaptive system such as context modeling, context handling and improving adaptation ability. Our study focuses on two aspects: separating contextual concerns in context modeling and improving the responsiveness of self-adaptive system. To separate contextual concerns, we introduce the notion of independent viewpoints and provide a mechanism to use them for the context modeling process. This mechanism also simplifies the designers' task because it allows the designers to focus only on their expertise domain to modeling their contextual concern. To improve the responsiveness of SAS, we provide a new architectural pattern using context-aware management (CAM) to support self-adaptive system in handling context. In this architecture, the CAM focuses on the current context identification according to the specific viewpoints which it is in charge of, having the goal to deploy the adaptation rules to this situation. The SAS only has to manage a limited set of rules, already adapted to the current situation. In our approach, each specific viewpoint was built independently by different designers. Each viewpoint is related to a different scenario setup, but they might operate in one system at the same time. Therefore, the possibilities of conflict between viewpoints at one time always exist. Nevertheless, it is impossible to solve conflicts between viewpoints at design time because we are not able to predict all the users' scenarios and the combinations of viewpoints because they depend on the location, activity, regulation and user's choice. Therefore, we propose several solutions to detect and solve the conflicts between viewpoints in the context-aware management layer
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.93 (from 0.90 for Estimation ... to 0.94 for Estimation ...)

Alternative Names
Centre national de la recherche scientifique

Centre national de la recherche scientifique France Laboratoire Informatique, signaux et systèmes Sophia Antipolis, Alpes-Maritimes

Centre national de la recherche scientifique (France). Unité mixte de recherche (6070)

Centre national de la recherche scientifique (France). Unité mixte de recherche (7271)

Centre national de la recherche scientifique France Unité propre de recherche de l'enseignement supérieur associée 6070

Centre National de Recherche Scientifique Laboratoire d'Informatique, Signaux et Systèmes

I3S

Laboratoire d'Informatique Signaux et Systèmes

Laboratoire Informatique, signaux, systèmes

Laboratoire Informatique, signaux, systèmes Sophia Antipolis, Alpes-Maritimes

Laboratory of Computer Science Signals and Systems

UMR 6070

UMR 7271

Université Côte d'Azur. Laboratoire Informatique, signaux et systèmes

Université de Nice Laboratoire d'Informatique, Signaux et Systèmes

Université de Nice, Laboratoire Informatique, signaux et systèmes

Université de Nice Laboratoire Informatique, signaux et systèmes Sophia Antipolis, Alpes-Maritimes

Université de Nice-Sophia Antipolis. Laboratoire Informatique, signaux et systèmes

URA 1376

Languages
English (16)

French (7)