WorldCat Identities

Laboratoire Informatique, signaux et systèmes (Sophia Antipolis, Alpes-Maritimes)

Overview
Works: 126 works in 129 publications in 2 languages and 129 library holdings
Roles: Other, Degree grantor, Editor
Publication Timeline
.
Most widely held works by signaux et systèmes (Sophia Antipolis, Alpes-Maritimes) Laboratoire Informatique
Estimation de retards, de facteurs d'échelle et de variations de forme de signaux vectoriels : application aux signaux biomédicaux by Wrya Muhammad Ali( Book )

2 editions published in 2001 in French and held by 2 WorldCat member libraries worldwide

On traite des signaux de type déterministe, inconnus et transitoires. Les applications visées sont les enregistrements, par une grille de capteurs, de Potentiels d'Action qui se propagent tels que l'EMG de surface ou les signaux répétitifs tels que les signaux cardiaques. Dans la première partie, on estime un vecteur de retards en vue d'une estimation de la vitesse moyenne de conduction dans une Unité Motrice musculaire. Pour une vitesse supposée variable le long d'une fibre, l'estimateur des retards est amélioré en utilisant des contraintes sur les retards. On montre ensuite que la variance de l'estimateur de vitesse moyenne est diminuée grâce aux capteurs intermédiaires. On montre également comment varie le biais et la variance de l'estimateur de la vitesse en fonction de la distance entre capteurs. Dans la deuxième partie, on s'intéresse à la forme des signaux : trois mesures de différence de forme sont proposées dans un but de classification et comparées à d'autres existantes. Les mesures proposées se basent sur une distance calculée soit après estimation de la transformation affine qui minimise l'écart de forme, soit en utilisant un domaine invariant par rapport à une transformation affine : l'autocorrélation conserve l'échelle en s'affranchissant des translations, puis la transformée d'échelle permet d'obtenir un domaine invariant par changement d'échelle. (...). Dans la troisième partie, les paramètres de la transformation affine sont considérés comme porteurs d'informations : sous l'hypothèse de l'égalité des formes, l'estimation conjointe de retard et de facteur d'échelle est faite en utilisant une nouvelle méthode rapide et adaptée à la classe des signaux étudiés, notamment à l'EMG de surface pour accéder à la distribution des vitesses de conduction
Planification séquentielle d'expériences pour des modèles de paramétrisation non linéaire by Roland Gautier( Book )

2 editions published in 2000 in French and held by 2 WorldCat member libraries worldwide

La planification d'expériences optimales consiste à déterminer les conditions expérimentales optimales dans un but de précision sur l'estimation des paramètres d'un modèle, de la commande d'un système ou de discrimination entre structures de modèles. Ce travail concerne l'estimation de paramètres pour des modèles non linéaires. Dans ce cas, l'expérience optimale dépend des paramètres à estimer, et nous adoptons une approche séquentielle qui alterne des phases d'estimation de paramètres et des phases planification d'expériences. La première partie du mémoire traite de la planification totalement séquentielle (une seule observation est effectuée à chaque étape), qui est mise en œuvre sur un certain nombre de modèles non linaires classiques (cinétique chimie, pharmacocinétique). Les approches classiques (passives) sont détaillées et trois nouvelles méthodes actives sont présentées
Débruitage, séparation et localisation de sources EEG dans le contexte de l'épilepsie by Hanna Becker( Book )

2 editions published in 2014 in English and held by 2 WorldCat member libraries worldwide

L'électroencéphalographie (EEG) est une technique qui est couramment utilisée pour le diagnostic et le suivi de l'épilepsie. L'objectif de cette thèse consiste à fournir des algorithmes pour l'extraction, la séparation, et la localisation de sources épileptiques à partir de données EEG. D'abord, nous considérons deux étapes de prétraitement. La première étape vise à éliminer les artéfacts musculaires à l'aide de l'analyse en composantes indépendantes (ACI). Dans ce contexte, nous proposons un nouvel algorithme par déflation semi-algébrique qui extrait les sources épileptiques de manière plus efficace que les méthodes conventionnelles, ce que nous démontrons sur données EEG simulées et réelles. La deuxième étape consiste à séparer des sources corrélées. A cette fin, nous étudions des méthodes de décomposition tensorielle déterministe exploitant des données espace-temps-fréquence ou espace-temps-vecteur-d'onde. Nous comparons les deux méthodes de prétraitement à l'aide de simulations pour déterminer dans quels cas l'ACI, la décomposition tensorielle, ou une combinaison des deux approches devraient être utilisées. Ensuite, nous traitons la localisation de sources distribuées. Après avoir présenté et classifié les méthodes de l'état de l'art, nous proposons un algorithme pour la localisation de sources distribuées qui s'appuie sur les résultats du prétraitement tensoriel. L'algorithme est évalué sur données EEG simulées et réelles. En plus, nous apportons quelques améliorations à une méthode de localisation de sources basée sur la parcimonie structurée. Enfin, une étude des performances de diverses méthodes de localisation de sources est conduite sur données EEG simulées
Performances réseaux et système pour le cloud computing by Sonia Belhareth( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Le cloud computing permet d'offrir un accès à la demande à des ressources de calcul et de stockage. Le succès du cloud computing nécessite la maîtrise d'aspects système et réseau. Dans cette thèse, nous nous sommes intéressés aux performances du protocole TCP Cubic, qui est la version par défaut de TCP sous Linux et donc présent dans de nombreux serveurs opérationnels dans les data centers actuels. Afin de comprendre les performances d'un environnement cloud, qui offre un faible produit bande passante-délai pour le cas intra-data center, et un fort produit dans le cas inter-data center, nous avons développé des modèles analytiques pour les cas d'une ou plusieurs connexions TCP Cubic. Nos modèles se sont révélés précis dans le cas intra-datacenter, mais ne capturaient pas la synchronisation des pertes indiquée par les simulations ns-2 dans le cas inter-datacenter. Nous avons complété les simulations par des tests en environnements réels avec (i) un réseau expérimental à l'I3S ; et (ii) une solution cloud interne à Orange : Cube. Les études dans Cube nous ont démontré la forte corrélation qui pouvait exister entre performances réseau et système, et la complexité d'analyser les performances des applications dans des contextes cloud. Les études dans l'environnement I3S ont confirmé la forte synchronisation qui peut exister entre connexions TCP Cubic et nous ont permis de définir les conditions d'apparition de cette synchronisation. Nous avons étudié deux types de solution pour lutter contre la synchronisation: des solutions niveau client, avec des modifications de TCP Cubic, et des solutions réseau avec l'utilisation de politiques de gestion de tampon, notamment PIE et Codel
Réseaux pilotés par logiciels efficaces en énergie by Nicolas Huin( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

In the recent years, the growth of the architecture of telecommunication networks has been quickly increasing to keep up with a booming traffic. Moreover, the energy consumption of these infrastructures is becoming a growing issue, both for its economic and ecological impact. Multiple approaches were proposed to reduce the networks' power consumption such as decreasing the number of active elements. Indeed, networks are designed to handle high traffic, e.g., during the day, but are over-provisioned during the night. In this thesis, we focus on disabling links and routers inside the network while keeping a valid routing. This approach is known as Energy Aware Routing (EAR). However current networks are not adapted to support the deployment of network-wide green policies due to their distributed management and the black-box nature of current network devices. The SDN and NFV paradigms bear the promise of bringing green policies to reality. The first one decouples the control and data plane and thus enable a centralized control of the network. The second one proposes to decouple the software and hardware of network functions and allows more flexibility in the creation and management of network services. In this thesis, we focus on the challenges brought by these two paradigms for the deployment of EAR policies. We dedicated the first two parts to the SDN paradigm. We first study the forwarding table size constraints due to an Increased complexity of rules. We then study the progressive deployment of SDN devices alongside legacy ones. We focus our attention on the NFV paradigm in the last part, and more particularly, we study the Service Function Chaining problem
Codage spatio-temporel tensoriel pour les systèmes de communication sans fil MIMO by Michele Nazareth da Costa( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Since the growing success of mobile systems in the 1990s, new wireless technologies have been developed in order to support a growing demand for high-quality multimedia services with low error rates. An interesting way to improve the error performance and to achieve better transmission rates is to combine the use of various diversities and multiplexing access techniques in the MIMO system context. The incorporation of oversampling, spreading and multiplexing operations and additional diversities on wireless systems lead to multidimensional received signals which naturally satisfy tensor models. This thesis proposes a new tensorial approach based on a tensor space-time (TST) coding for MIMO wireless communication systems. The signals received by multiple antennas form a fourth-order tensor that satisfies a new tensor model, referred to as PARATUCK-(2,4) (PT-(2,4)) model. A performance analysis is carried out for the proposed TST system and a recent space-time-frequency (STF) system, which allows to derive expressions for the maximum diversity gain over a at fading channel. An uplink processing based on the TST coding with allocation resources is proposed. A new tensor decomposition is introduced, the so-called PT-(N1,N), which generalizes the standard PT-2 and our PT-(2,4) model. This thesis establishes uniqueness conditions for the PARATUCK-(N1,N) model. From these results, joint symbol and channel estimation is ensured for the TST and STF systems. Semi-blind receivers are proposed based on the well-known Alternating Least Squares algorithm and the Levenberg-Marquardt method, and also a new receiver based on the Kronecker Least Squares (KLS) for both systems
Un modèle de raisonnement pour les opérateurs de composition logicielle décrits en boite noire by Benjamin Benni( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

The complexity of software systems made it necessary to split them up and reunite them afterward. Separating concerns is a well-studied challenge and teams separate the work to be done beforehand. Still, separating without considering the recomposition leads to rushed, unsafe, and time-consuming recomposition. The composition should create the right and best system with minimal human effort. Composition operators are often ad-hoc solutions developed by non-specialist development teams. They are not developed using high-level formalism and end up being too complicated or too poorly formalized to support proper reasonings. We call them "black-boxes" as existing techniques requiring knowledge of its internals cannot be applied or reused. However, black-box operators, like others, must ensure guarantees: one must assess their idempotency to use them in a distributed context; provide an average execution time to assess usage in a reactive system; check conflicts to validate that the composed artifact conforms to business properties. Despite the black-box aspect, none of these properties are domain-specific. In this thesis, we present a domain-independent approach that enables (i) reasonings on composition equation, (ii) to compose them safely, (iii) by assessing properties similar to the ones from the state-of-the-art. We validated the approach in heterogeneous application domains: 19 versions of Linux kernel with 54 rewriting rules, fixing 13 antipatterns in 22 Android apps, and validating the efficiency of the approach on the composition of 20k Docker images
Caractérisation spatio-temporelle de l'électrocardiogramme de surface pour prédire le résultat de l'ablation par cathéter de la fibrillation atriale persistante by Marianna Meo( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

Atrial fibrillation (AF) is the most common sustained arrhythmia encountered in clinical practice, and one of the main causes of stroke. Yet its thorough characterization and treatment remain an open issue. Despite the increasing popularity of the radiofrequency catheter ablation (CA) therapy, very little is known about its impact on heart substrate, leading to rather uncertain success rates. This calls for advanced signal processing tools for quantitatively assessing CA outcome. The surface 12-lead electrocardiogram (ECG), a noninvasive and cost-effective cardiac activity recording modality, provides valuable information about AF. However, some issues affect most of the standard CA outcome predictors, e.g., manual computation and limited single-lead perspective. This thesis aims at explicitly exploiting the ECG's multilead character through multivariate decomposition tools, so as to enhance the role of some ECG features as CA outcome predictors. Fibrillatory wave amplitude is correlated with CA success in a multilead framework through principal component analysis (PCA). Multivariate approaches also enhance AF spatiotemporal variability measured on the ECG (e.g., weighted PCA, nonnegative matrix factorization), evidencing that the less repetitive the AF pattern, the less likely CA success. Information theory also quantifies interlead similarity between AF patterns, and is linked with CA outcome in a multilead framework. Another perspective focuses on the ventricular response as reflected on heart rate variability (HRV). Point process modeling can highlight certain HRV properties typical of AF in a parametric probabilistic context, helping AF pattern recognition
Modélisation et détection des émotions à partir de données expressives et contextuelles by Franck Berthelon( )

1 edition published in 2013 in French and held by 1 WorldCat member library worldwide

Nous proposons un modèle informatique pour la détection des émotions basé sur le comportement humain. Pour ce travail, nous utilisons la théorie des deux facteurs de Schachter et Singer pour reproduire dans notre architecture le comportement naturel en utilisant à la fois des données expressives et contextuelles. Nous concentrons nos efforts sur l'interprétation d'expressions en introduisant les Cartes Émotionnelles Personnalisées (CEPs) et sur la contextualisation des émotions via une ontologie du contexte émotionnel(EmOCA). Les CEPs sont motivées par le modèle complexe de Scherer et représentent les émotions déterminées par de multiple capteurs. Les CEPs sont calibrées individuellement, puis un algorithme de régression les utilises pour définir le ressenti émotionnel à partir des mesures des expressions corporelles. L'objectif de cette architecture est de séparer l'interprétation de la capture des expressions, afin de faciliter le choix des capteurs. De plus, les CEPs peuvent aussi être utilisées pour la synthétisation des expressions émotionnelles. EmOCA utilise le contexte pour simuler la modulation cognitive et pondérer l'émotion prédite. Nous utilisons pour cela un outil de raisonnement interopérable, une ontologie, nous permettant de décrire et de raisonner sur les philies et phobies pour pondérer l'émotion calculée à partir des expressions. Nous présentons également un prototype utilisant les expressions faciales pour évaluer la reconnaissance des motions en temps réel à partir de séquences vidéos. De plus, nous avons pu remarquer que le système décrit une sorte d'hystérésis lors du changement émotionnel comme suggéré par Scherer pour son modèle psychologique
Modélisation Tensorielle de l'ECG pour l'Analyse de la Fibrillation Atriale Persistante by Pedro Marinho Ramos de Oliveira( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

Atrial Fibrillation (AF) is the most common sustained arrhythmia diagnosed in clinical practice, responsible for high hospitalization and death rates. Furthermore, the electrophysiological mechanisms underlying this cardiac rhythm disorder are not completely understood. A non-invasive and efficient strategy to study this challenging cardiac condition is analyzing the atrial activity (AA) from the Electrocardiogram (ECG). However, the AA during AF is masked by the ventricular activity (VA) in each heartbeat and often presents a very low amplitude, hampering its analysis. Throughout the years, signal processing methods have helped cardiologists in the study of AF by extracting the AA from the ECG. In particular, matrix-based blind source separation (BSS) methods have proven to be ecient AA extraction tools. However, some constraints need to be imposed to guarantee the uniqueness of such matrix factorization techniques that, although mathematically coherent, may lack physiological grounds and hinder results interpretation. In contrast, tensor decompositions can ensure uniqueness under more relaxed constraints. Particularly, the block term decomposition (BTD), recently proposed as a BSS technique, can be unique under some constraints over its matrix factors, easily satisfying in the mathematical and physiological sense. In addition, cardiac sources can be well modeled by specific mathematical functions that, when mapped into the structured matrix factors of BTD, present a link with their rank. Another advantage over matrix-based methods is that the tensor approach is able to extract AA from very short ECG recordings. The present doctoral thesis has its first focus on the investigation of the Hankel-BTD as an AA extraction tool in persistent AF episodes, with validation based on statistical experiments over a population of AF patients and several types of ECG segments. ECG recordings with a short interval between heartbeats and an AA with significantly low amplitude are challenging cases common in this stage of the arrhythmia. Such cases motivate the use of other tensor-based approach to estimate an AA signal with better quality, the Löwner-BTD. Such an approach is presented along a novel optimal strategy to ensure the Löwner structure that is implemented as a variant of a recently proposed robust algorithm for BTD computation. Another contribution is the model of persistent AF ECGs by a coupled Hankel-BTD, which shows some advantages in terms of improved AA extraction and reduced computational cost over its non-coupled counterpart. Further contributions focus on challenges that arise from the problem of AA extraction from AF ECGs, such as detecting the AA source among the other separated sources in real experiments, where the ground truth it's unknown. For this task, several approaches that use machine learning algorithms and neural networks are assessed, providing satisfactory accuracy. Another challenge that is dealt with is the difficulty in measuring the quality of AA estimation. Here, new indices for AA estimation quality from ECG recordings during AF are proposed and assessed. In summary, this PhD thesis provides the first thorough investigation of the application of tensor-based signal processing techniques to the analysis of atrial fibrillation, showing the interest of the tensor approach and its potential in the management and understanding of this challenging cardiac condition
Algorithmes pour la fouille de données et la bio-informatique by Kartick Chandra Mondal( )

1 edition published in 2013 in English and held by 1 WorldCat member library worldwide

L'extraction de règles d'association et de bi-clusters sont deux techniques de fouille de données complémentaires majeures, notamment pour l'intégration de connaissances. Ces techniques sont utilisées dans de nombreux domaines, mais aucune approche permettant de les unifier n'a été proposée. Hors, réaliser ces extractions indépendamment pose les problèmes des ressources nécessaires (mémoire, temps d'exécution et accès aux données) et de l'unification des résultats. Nous proposons une approche originale pour extraire différentes catégories de modèles de connaissances tout en utilisant un minimum de ressources. Cette approche est basée sur la théorie des ensembles fermés et utilise une nouvelle structure de données pour extraire des représentations conceptuelles minimales de règles d'association, bi-clusters et règles de classification. Ces modèles étendent les règles d'association et de classification et les bi-clusters classiques, les listes d'objets supportant chaque modèle et les relations hiérarchiques entre modèles étant également extraits. Cette approche a été appliquée pour l'analyse de données d'interaction protéomiques entre le virus VIH-1 et l'homme. L'analyse de ces interactions entre espèces est un défi majeur récent en bio-informatique. Plusieurs bases de données intégrant des informations hétérogènes sur les interactions et des connaissances biologiques sur les protéines ont été construites. Les résultats expérimentaux montrent que l'approche proposée peut traiter efficacement ces bases de données et que les modèles conceptuels extraits peuvent aider à la compréhension et à l'analyse de la nature des relations entre les protéines interagissant
Combinaison de programmes à objets actifs et BSP by Pierre Leca( )

1 edition published in 2020 in English and held by 1 WorldCat member library worldwide

This thesis presents a hybrid programming model between two parallel programming models: active objects and BSP (Bulk Synchronous Parallel). Active objects are specialized in task parallelism; they enable the execution of functionally different codes in parallel and the exchange of their results thanks to futures, which represent these results before they are available. The BSP model enables a quite different parallelism from the one provided by active objects: data-parallelism. This form of parallelism consists of cutting a task into several pieces in order to process them faster in parallel. These two specialized models enable high-level programming and provide interesting properties such as ease of programming and determinism under certain conditions. The point of combining these two models is therefore to allow the writing of programs combining task-parallelism and data-parallelism, while benefiting from the properties of the two models. This thesis studies this new BSP active object model under a theoretical aspect (with operational semantics) and a practical aspect (with a C++/MPI implementation). We also introduce a new concept of distributed future. Our distributed futures consist in unifying the concepts of futures and distributed vectors in order to represent distributed data. This allows a better integration between active objects and BSP. With our distributed futures, our BSP active objects can communicate efficiently with each other in parallel. The efficiency of these distributed futures is shown through benchmark scenarios executed on our implementation. They allow us to confirm a performance improvement of our distributed futures against classical futures
Aide à la création et à l'exploitation de réglementations basée sur les modèles et techniques du Web sémantique by Khalil Riad Bouzidi( )

1 edition published in 2013 in French and held by 1 WorldCat member library worldwide

Regulations in the Building industry are becoming increasingly complex and involve more than one technical area. They cover products, components and project implementation. They also play an important role to ensure the quality of a building, and to minimize its environmental impact. For more than 30 years, CSTB has proved its expertise in this field through the development of the complete encyclopedia of French technical and regulatory texts in the building domain: the REEF. In the framework of collaboration between CSTB and the I3S laboratory, we are carrying on research on the acquisition of knowledge from the technical and regulatory information contained in the REEF and the automated processing of this knowledge with the final goal of assisting professionals in the use of these texts and the creation of new texts. We are implementing this work in CSTB to help industrials in the writing of Technical Assessments. The problem is how to specify these assessments and standardize their structure using models and adaptive semantic services. The research communities of Knowledge Engineering and Semantic Web play a key role in providing the models and techniques relevant for our research, whose main objective is to simplify access to technical regulatory information, to support professionals in its implementation, and to facilitate the writing of new regulations while taking into account constraints expressed in the existing regulatory corpus. We focus on Technical Assessments based on technical guides capturing both regulations and knowledge of CSTB experts when producing these documents. A Technical Assessment (in French: Avis Technique or ATec) is a document containing technical information on the usability of a product, material, component or element of construction, which has an innovative character. We chose this Technical Assessment as a case study because CSTB has the mastership and a wide experience in these kinds of technical documents. We are particularly interested in the modeling of the regulatory constraints derived from the Technical Guides used to validate the Assessment. These Guides are regulatory complements offered by CSTB to the various industrials to enable easier reading of technical regulations. They collect execution details with a wide range of possible situations of implementations. Our work aims to formalize the Technical Guides in a machine-processable model to assist the creation of Technical Assessments by automating their validation. For this purpose, we first constructed a domain-ontology, which defines the main concepts involved in the Technical Guides. This ontology called “OntoDT” is coupled with domain thesauri. Several are being developed at CSTB among which one seems the most relevant by its volume and its semantic approach: the thesaurus from the REEF project. Our second contribution is the use of standard SBVR (Semantics of Business Vocabulary and Business Rules) and SPARQL to reformulate the regulatory requirements of guides both in a controlled and formal language Third, our model incorporates expert knowledge on the verification process of Technical Documents. We have organized the SPARQL queries representing regulatory constraints into several processes. Each component involved in the Technical Document corresponds to a elementary process of compliance checking. An elementary process contains a set of SPARQL queries to check the compliance of an elementary component. A full complex process for checking a Technical Document is defined recursively and automatically built as a set of elementary processes relative to the components which have their semantic definition in OntoDT. Finally, we represent in RDF the association between the SBVR rules and SPARQL queries representing the same regulatory constraints. We use annotations to produce a compliance report in natural language to assist users in the writing of Technical Assessments
Automates cellulaires, fonctions booléennes et dessins combinatoires by Luca Mariot( )

1 edition published in 2018 in English and held by 1 WorldCat member library worldwide

The goal of this thesis is the investigation of Cellular Automata (CA) from the perspective of Boolean functions and combinatorial designs. Beside its theoretical interest, this research finds its motivation in cryptography, since Boolean functions and combinatorial designs are used to construct Pseudorandom Number Generators (PRNG) and Secret Sharing Schemes (SSS). The results presented in the thesis are developed along three research lines, organized as follows. The first line considers the use of heuristic optimization algorithms to search for Boolean functions with good cryptographic properties, to be used as local rules in CA-based PRNG. The main motivation is to improve Wolfram's generator based on rule 30, which has been shown to be vulnerable against two cryptanalytic attacks. The second line deals with vectorial Boolean functions induced by CA global rules. The first contribution considers the period of preimages of spatially periodic configurations in surjective CA, and analyze the cryptographic properties of CA global rules. The third line focuses on the combinatorial designs generated by CA, specifically considering Orthogonal Latin Squares (OLS), which are equivalent to SSS. In particular, an algebraic characterization of OLS generated by linear CA is given, and heuristic algorithms are used to build OLS based on nonlinear CA
Modélisation et optimisation de la qualité d'expérience client des services data sur le réseau mobile. Application au vidéo streaming by Mohamed Bouzian( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

In recent years, mobile devices have become more powerful in terms of computing power, memory, size and screen quality. These improvements have greatly stimulated demand for multimedia services including video streaming. Moreover, customers are increasingly demanding in terms of the quality rendered on this type of service. In addition, a bad experience of video streaming has a great impact on the perception that customers have of the operator. Optimizing the quality of experience (QoE) of customers on the services of video streaming is thus a major competitive challenge. In this thesis, we are interested in modeling and optimizing the QoE of the streaming services taking into account the usages and the mobility of the clients. In particular, we are interested in two strategies for delivering content on the mobile network: the Fast Caching strategy and the On-Off strategy. We develop analytical models that allow us to calculate major indicators of the QoE for the streaming service that are: i) starvation, which drives operators to send more video content to customers and ii) the loss due to abandoning the video playback, which pushes them to send video content in a strictly reasonable manner. An optimal balance is to be found. We also propose QoE oriented strategies by maintaining a good level of QoE over the entire network and optimizing the QoE indicators of streaming services
Un manageur de contextes résolvant les conflits entre les points de vue des concepteurs by The Can Do( )

1 edition published in 2019 in English and held by 1 WorldCat member library worldwide

De nos jours, les systèmes auto-adaptatifs (AAS) sont devenus des éléments essentiels pour piloter les applications dans le domaine de l'informatique ambiante. Ils offrent des capacités d'autoadaptation dynamique de leurs comportements en réponse aux situations contextuelles et aux besoins actuels de l'utilisateur. Cette thèse vise à proposer des solutions pour surmonter les défis de développement des systèmes autoadaptatif tels que la modélisation et la gestion du contexte pour ces systèmes et l'amélioration de leur capacité d'adaptation. L'étude se concentre sur deux aspects : la séparation des préoccupations contextuelles dans la modélisation du contexte et l'amélioration de la réactivité du système auto-adaptatif. Pour séparer les préoccupations contextuelles, nous introduisons la notion de points de vue indépendants et fournissons un mécanisme pour les utiliser dans le processus de modélisation du contexte. Ce mécanisme simplifie également la tâche du concepteur car il lui permet de se concentrer uniquement sur son domaine d'expertise pour modéliser sa préoccupation contextuelle (son point de vue). Pour améliorer la réactivité de SAS, nous fournissons un nouveau modèle d'architecture utilisant un manager de contextes (MC) pour prendre en charge le système auto-adaptatif dans le traitement du contexte. Dans cette architecture, le MC se concentre sur l'identification de la situation contextuelle actuelle, en fonction des points de vue spécifiques dont il a la charge, dans le but de déployer les règles d'adaptation adapter à cette situation. Le SAS n'a alors plus qu'à gérer un ensemble de règles limité, déjà adapté à la situation courante. Dans notre approche, chaque point de vue spécifique a été construit indépendamment des autres par des concepteurs différents. Chaque point de vue correspond à une préoccupation particulière, et il convient d'utiliser plusieurs points de vue en même temps pour répondre à tous les scénarios usages. Par conséquent, les possibilités de conflit entre les points de vue, à un moment donné, existent. Néanmoins, il est impossible de résoudre les conflits entre les points de vue au moment de la conception parce que nous ne sommes pas en mesure de prévoir tous les scénarios d'usages, les combinaisons de points de vue dépendant de l'emplacement, de l'activité, de la réglementation et des choix de l'utilisateur. C'est pourquoi nous proposons plusieurs solutions pour détecter et résoudre les conflits entre les points de vue dans le manager de contextes
Justification Factory : de l'élicitation d'exigences de justification jusqu'à leur production en continu by Clément Duffau( )

1 edition published in 2018 in French and held by 1 WorldCat member library worldwide

In many areas where it exists human risks, such as medicine, nuclear or avionics, it is necessary to go through a certification stage to ensure the proper functioning of a system or product. Certification is based on normative documents that express the justification requirements to which the product and the development process must conform. A certification audit then consists of producing documentation certifying compliance with this regulatory framework.To cope with this need for justifications to ensure compliance with the standards in force and the completeness of the justifications provided, it must therefore be able to target the justification requirements to be claimed for a project and produce justifications during the development of the project. In this context, eliciting the justification requirements from the standards and producing the necessary and sufficient justifications are issues to ensure compliance with standards and avoid over-justification.In these works we seek to structure the justification requirements and then help to produce the associated justifications while remaining attentive to the confidence that can be placed in them. To address these challenges, we have defined a formal semantics for an existing model of justifications: Justification Diagrams. From this semantics, we have been able to define a set of operations to control the life cycle of the justifications to ensure that the justifications regarding the justification requirements. Through this semantics, we have also been able to guide, and even automate in some cases, the production of justifications and the verification of conformance.These contributions were applied in the context of medical technologies for the company AXONIC, the bearer of this work. This made it possible to i) elicitate the justification requirements of the medical standards and company's internal practicals, ii) automatically produce the justifications associated with the IEC 62304 standard for medical software, iii) automate the verification and validation of the justifications as well as the production of documents that can be used during the audit
Ecole d'été du pôle ResCom du GDR ASR : Sécurité et fiabilité des réseaux by Ecole d'été du pôle ResCom du GDR ASR( Book )

1 edition published in 2006 in English and held by 1 WorldCat member library worldwide

Gestion du contrôle de la diffusion des données d'entreprises et politiques de contrôles d'accès by Yoann Bertrand( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

The main objective of this thesis is to solve the problem of unintentional data leakage within companies. These leaks can be caused by the use of both Access Control (AC) and Transmission Control (TC) policies. Moreover, using both AC and TC can lead to many problems for the security experts and the administrators that are in charge of the definition and maintenance of such policies. Among these problems, we can underline the genericity problem of existing models, the coherence problem between AC and TC rules and problems such as density, adaptability, interoperability and reactivity. In this thesis, we first define a meta-model to take into account the main AC models that are used within companies. We also propose a coherent and semi-automatic generation of TC policies based on existing AC to tackle the coherence problem. Moreover, several mechanisms have been proposed to tackle complexity, adaptability and interoperability issues. In order to validate the relevance of our solution, we have first conducted a survey among security experts and administrators. This survey has highlighted several information regarding the policies' size and density, the tiresomeness of having to define them and the interest for several functionalities that can cover the aforementioned problems. Finally, our solution has been tested on stochastically generated and real policies in order to take performances and reactivity under consideration. Results of these tests have validated that our solution covers the underlined problems
Parallélisme en programmation par contraintes by Mohamed Rezgui( )

1 edition published in 2015 in French and held by 1 WorldCat member library worldwide

Nous étudions la parallélisation de la procédure de recherche de solution d'un problème en Programmation Par Contraintes (PPC). Après une étude de l'état de l'art, nous présentons une nouvelle méthode, nommée Embarrassingly Parallel Search (EPS). Cette méthode est basée sur la décomposition d'un problème en un très grand nombre de sous-problèmes disjoints qui sont ensuite résolus en parallèle par des unités de calcul avec très peu, voire aucune communication. Le principe d'EPS est d'arriver statistiquement à un équilibrage des temps de résolution de chaque unité de calcul afin d'obtenir une bonne répartition de la charge de travail. EPS s'appuie sur la propriété suivante : la somme des temps de résolution de chacun des sous-problèmes est comparable au temps de résolution du problème en entier. Cette propriété est vérifiée en PPC, ce qui nous permet de disposer d'une méthode simple et efficace en pratique. Dans nos expérimentations, nous nous intéressons à la recherche de toutes les solutions d'un problème en PPC, à prouver qu'un problème n'a pas de solution et à la recherche d'une solution optimale d'un problème d'optimisation. Les résultats montrent que la décomposition doit générer au moins 30 sous-problèmes par unité de calcul pour obtenir des charges de travail par unité de calcul équivalentes. Nous évaluons notre approche sur différentes architectures (machine multi-coeurs, centre de calcul et cloud computing) et montrons qu'elle obtient un gain pratiquement linéaire en fonction du nombre d'unités de calcul. Une comparaison avec les méthodes actuelles telles que le work stealing ou le portfolio montre qu'EPS obtient de meilleurs résultats
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.93 (from 0.90 for Débruitag ... to 0.94 for Débruitag ...)

Alternative Names
Centre national de la recherche scientifique

Centre national de la recherche scientifique France Laboratoire Informatique, signaux et systèmes Sophia Antipolis, Alpes-Maritimes

Centre national de la recherche scientifique (France). Unité mixte de recherche (6070)

Centre national de la recherche scientifique (France). Unité mixte de recherche (7271)

Centre national de la recherche scientifique France Unité propre de recherche de l'enseignement supérieur associée 6070

Centre National de Recherche Scientifique Laboratoire d'Informatique, Signaux et Systèmes

I3S

Laboratoire d'Informatique Signaux et Systèmes

Laboratoire Informatique, signaux, systèmes

Laboratoire Informatique, signaux, systèmes Sophia Antipolis, Alpes-Maritimes

Laboratory of Computer Science Signals and Systems

UMR 6070

UMR 7271

Université Côte d'Azur. Laboratoire Informatique, signaux et systèmes

Université de Nice Laboratoire d'Informatique, Signaux et Systèmes

Université de Nice, Laboratoire Informatique, signaux et systèmes

Université de Nice Laboratoire Informatique, signaux et systèmes Sophia Antipolis, Alpes-Maritimes

Université de Nice-Sophia Antipolis. Laboratoire Informatique, signaux et systèmes

URA 1376

Languages
English (15)

French (8)