WorldCat Identities

Laboratoire d'informatique de Grenoble

Works: 374 works in 384 publications in 2 languages and 712 library holdings
Genres: Conference papers and proceedings 
Roles: Other, Organizer of meeting, Thesis advisor, 981
Classifications: Z699, 004
Publication Timeline
Most widely held works by Laboratoire d'informatique de Grenoble
ACM SIGIR 11th International Conference on Research & Development in Information Retrieval : Grenoble, France, June 13-15, 1988 by Annual International ACMSIGIR Conference on Research & Development in Information Retrieval( )

2 editions published in 1988 in English and held by 29 WorldCat member libraries worldwide

Interopérabilité Sémantique Multi-lingue des Ressources Lexicales en Données Liées Ouvertes by Andon Tchechmedjiev( )

2 editions published in 2016 in French and held by 3 WorldCat member libraries worldwide

When it comes to the construction of multilingual lexico-semantic resources, the first thing that comes to mind is that the resources we want to align, should share the same data model and format (representational interoperability). However, with the emergence of standards such as LMF and their implementation and widespread use for the production of resources as lexical linked data (Ontolex), representational interoperability has ceased to be a major challenge for the production of large-scale multilingual resources. However, as far as the interoperability of sense-level multi-lingual alignments is concerned, a major challenge is the choice of a suitable interlingual pivot. Many resources make the choice of using English senses as the pivot (e.g. BabelNet, EuroWordNet), although this choice leads to a loss of contrast between English senses that are lexicalized with a different words in other languages. The use of acception-based interlingual representations, a solution proposed over 20 years ago, could be viable. However, the manual construction of such language-independent pivot representations is very difficult due to the lack of expert speaking enough languages fluently and algorithms for their automatic constructions have never since materialized, mainly because of the lack of a formal axiomatic characterization that ensures the pre- servation of their correctness properties. In this thesis, we address this issue by first formalizing acception-based interlingual pivot architectures through a set of axiomatic constraints and rules that guarantee their correctness. Then, we propose algorithms for the initial construction and the update (dynamic interoperability) of interlingual acception-based multilingual resources by exploiting the combinatorial properties of pairwise bilingual translation graphs. Secondly, we study the practical considerations of applying our construction algorithms on a tangible resource, DBNary, a resource periodically extracted from Wiktionary in many languages in lexical linked data
Abstraction of conditional term rewriting systems by Didier Bert( Book )

1 edition published in 1995 in English and held by 3 WorldCat member libraries worldwide

Conception modulaire des systèmes d'exploitation by Jean Montuelle( )

2 editions published in 1977 in French and held by 3 WorldCat member libraries worldwide

Evaluation et étude comparative d'algorithmes d'optimisation combinatoire : application au problème de placment de processus by El-Ghazali Talbi( Book )

1 edition published in 1992 in French and held by 3 WorldCat member libraries worldwide

On solving stochastic coupling matrices arising in iterative aggregation/disaggregation methods by William J Stewart( Book )

1 edition published in 1993 in English and held by 3 WorldCat member libraries worldwide

Abstract: "Iterative aggregation/disaggregation (IAD) methods are powerful tools for solving Markov chain models whose transition probability matrices are nearly completely decomposable (NCD). Such models arise frequently during the performance and reliability analysis of computer and telecommunication systems. IAD methods require the solution of a stochastic coupling matrix whose elements denote transition probabilities among blocks. The coupling matrices are often large and in NCD models necessarily have diagonal elements close to one and small off- diagonal elements. This makes their solution by either iterative or direct methods rather difficult. In this paper we propose a modification of the coupling matrix that allows us to accurate [sic] and efficiently compute its stationary probability vector."
BetaSAC et OABSAC, deux nouveaux échantillonnages conditionnels pour RANSAC by Antoine Méler( )

1 edition published in 2013 in French and held by 2 WorldCat member libraries worldwide

RANSAC algorithm (Random Sample Consensus) is the most common approach for the problem of robust parameters estimation of a model in computer vision. This is mainly its ability to handle data containing more errors than potentially useful information that made its success in this area where sensors provide a very rich but noisy information. Since its creation thirty years ago, many modifications have been proposed to improve its speed, accuracy and robustness. In this work, we propose to accelerate the resolution of a problem by using RANSAC with more information than traditional approaches. This information, extracted from the data itself or from complementary sources of all types, is used help generating more relevant RANSAC hypotheses. To do this, we propose to distinguish four degrees of quality of a hypothesis: inlier, consistent, coherent or suitable sample. Then we show how an inlier sample is far from being relevant in the general case. Therefore, we strive to design a novel algorithm which, unlike previous methods, focuses on the generation of suitable samples rather than inlier ones. We begin by proposing a probabilistic model unifying all the RANSAC reordered sampling methods. These methods provide a guidance of the random data selection without impairing the search. Then, we propose our own scheduling algorithm, BetaSAC, based on conditional partial sorting. We show that the conditionality of the sort can satisfy consistency constraints, leading to a generation of suitable samples in the first iterations of RANSAC, and thus a rapid resolution of the problem. The use of partial rather than exhaustive sorting ensures rapidity and randomization, essential to this type of methods. In a second step, we propose an optimal version of our method, called OABSAC (for Optimal and Adaptive BetaSAC), involving an offline learning phase. This learning is designed to measure the properties of the specific problem that we want to solve in order to determine automatically the optimal setting of our algorithm. This setting is the one that should lead to a reasonably accurate estimate of the model parameters in a shortest time (in seconds). The two proposed methods are very general solutions that integrate into RANSAC any additional useful information. We show the advantage of these methods to the problem of estimating homographies and epipolar geometry between two photos of the same scene. The speed gain compared to the classical RANSAC algorithm can reach a factor of hundred
Analyse faciale avec dérivées Gaussiennes by John Alexander Ruiz Hernandez( )

1 edition published in 2011 in French and held by 2 WorldCat member libraries worldwide

Dans cette thèse, nous explorons l'utilisation des dérivées Gaussiennes multi-échelles comme représentation initiale pour la détection, la reconnaissance et la classification des visages humains dans des images. Nous montrons qu'un algorithme rapide, O(N), de construction d'une pyramide binomiale peut être utilisé pour extraire des dérivées Gaussiennes avec une réponse impulsionnelle identique à un facteur d'échelle √2. Nous montrons ensuite qu'un vecteur composé de ces dérivées à différentes échelles et à différents ordres en chaque pixel peut être utilisé comme base pour les algorithmes de détection, de classification et de reconnaissance lesquels atteignent ou dépassent les performances de l'état de l'art avec un coût de calcul réduit. De plus l'utilisation de coefficients entiers, avec une complexité de calcul et des exigences mémoires en O(N) font qu'une telle approche est appropriée pour des applications temps réel embarquées sur des systèmes mobiles. Nous testons cette représentation en utilisant trois problèmes classiques d'analyse d'images faciales : détection de visages, reconnaissance de visages et estimation de l'âge. Pour la détection de visages, nous examinons les dérivées Gaussiennes multi-échelles comme une alternative aux ondelettes de Haar pour une utilisation dans la construction d'une cascade de classifieurs linéaires appris avec l'algorithme Adaboost, popularisé par Viola and Jones. Nous montrons que la représentation pyramidale peut être utilisée pour optimiser le processus de détection en adaptant la position des dérivées dans la cascade. Dans ces experiences nous sommes capables de montrer que nous pouvons obtenir des niveaux de performances de détection similaires (mesurés par des courbes ROC) avec une réduction importante du coût de calcul. Pour la reconnaissance de visages et l'estimation de l'âge, nous montrons que les dérivées Gaussiennes multi-échelles peuvent être utilisées pour calculer une représentation tensorielle qui conserve l'information faciale la plus importante. Nous montrons que combinée à l'Analyse Multilinéaire en Composantes Principales et à la méthode Kernel Discriminative Common Vectors (KDCV), cette représentation tensorielle peut mener à un algorithme qui est similaire aux techniques concurrentes pour la reconnaissance de visages avec un coût de calcul réduit. Pour l'estimation de l'âge à partir d'images faciales, nous montrons que notre représentation tensorielle utilisant les dérivées de Gaussiennes multi-échelles peut être utilisée avec une machine à vecteur de pertinence pour fournir une estimation de l'âge avec des niveaux de performances similaires aux méthodes de l'état de l'art
ISEACAP : une méthode participative gamifiée pour mieux comprendre les routines organisationnelles liées à la capacité d'absorption by Fatemeh Movahedian-Attar( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

SMEs (Small and Medium sized Enterprises) confront resource scarcity during innovative projects. Thereby they are increasingly taking part in collaborative networks to access the required complementary knowledge for conducting their projects. To achieve this, SMEs deploy their absorptive capacity (ACAP) which means their ability to acquire, assimilate, transform and apply external knowledge. ACAP can be integrated via diverse practices called routines when they are repeated and accepted collectively. However, organisation's actors often perform these routines unconsciously. Thus, enhancing knowledge absorption requires highlighting applied routines to acquire, assimilate, transform and exploit external knowledge.This interdisciplinary thesis aims at: (i) Proposing a new participative method called ISEACAP (Identification, Simulation, Evaluation and Amelioration of Absorptive Capacity) based on gamification techniques. (ii) Providing a refine level of applied knowledge and ACAP's routines during innovative project by detailing related practices to each dimension of ACAP (acquisition, assimilation, transformation and application). (iii) Highlighting roles of ISEACAP's facilitators during experimental sessions to raise reflexivity among participants (organisations' actors). (iv) Describing role of ISEACAP's phases to facilitate learning on ACAP's routines for actors.Applied methodology during this thesis relies on qualitative analysis of collected data through semi-structured interviews and experimental sessions via ISEACAP. Based on the conducted interviews and experimental sessions in France and UK with practitioners, in different activity sectors, two case studies had been developed in textile and food sectors. Collected data from these two cases were coded and analysed thematically. Considering the results, this thesis contributes in engineering science by proposing and formalising a new gamified participative method (ISEACAP), and in management science, the contribution relies on providing a better understanding of ACAP's routines
New MP-SoC profiling tools based on data mining techniques by Sofiane Lagraa( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

Miniaturization of electronic components has led to the introduction of complex electronic systems which are integrated onto a single chip with multiprocessors, so-called Multi-Processor System-on-Chip (MPSoC). The majority of recent embedded systems are based on massively parallel MPSoC architectures, hence the necessity of developing embedded parallel applications. Embedded parallel application design becomes more challenging: It becomes a parallel programming for non-trivial heterogeneous multiprocessors with diverse communication architectures and design constraints such as hardware cost, power, and timeliness. A challenge faced by many developers is the profiling of embedded parallel applications so that they can scale over more and more cores. This is especially critical for embedded systems powered by MPSoC, where ever demanding applications have to run smoothly on numerous cores, each with modest power budget. Moreover, application performance does not necessarily improve as more cores are added. Application performance can be limited due to multiple bottlenecks including contention for shared resources such as caches and memory. It becomes time consuming for a developer to pinpoint in the source code the bottlenecks decreasing the performance. To overcome these issues, in this thesis, we propose a fully three automatic methods which detect the instructions of the code which lead to a lack of performance due to contention and scalability of processors on a chip. The methods are based on data mining techniques exploiting gigabytes of low level execution traces produced by MPSoC platforms. Our profiling approaches allow to quantify and pinpoint, automatically the bottlenecks in source code in order to aid the developers to optimize its embedded parallel application. We performed several experiments on several parallel application benchmarks. Our experiments show the accuracy of the proposed techniques, by quantifying and pinpointing the hotspot in the source code
Vers des communications anonymes et efficaces by Gautier Berthou( )

1 edition published in 2014 in French and held by 2 WorldCat member libraries worldwide

This theses focuses on information dissemination in computer networks. We study two aspects of this topic : anonymous communication on Internet in presence of rational nodes and uniform total order broadcast in a computer cluster. Concerning the first aspect, we observed that no anonymous communication protocol is capable of working in presence of rational nodes while scaling existed. Therefore, we proposed RAC, the first anonymous communication protocol functioning in presence of rational nodes and able of scaling. Concerning the second aspect, we observed that no existing uniform total order broadcast protocol is capable of ensuring both a good latency and an optimal throughput. In order to fill this lack we proposed FastCast, the first uniform total order
Detection of web vulnerabilities via model inference assisted evolutionary fuzzing by Fabien Duchene( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

Testing is a viable approach for detecting implementation bugs which have a security impact, a.k.a. vulnerabilities. When the source code is not available, it is necessary to use black-box testing techniques. We address the problem of automatically detecting a certain class of vulnerabilities (Cross Site Scripting a.k.a. XSS) in web applications in a black-box test context. We propose an approach for inferring models of web applications and fuzzing from such models and an attack grammar. We infer control plus taint flow automata, from which we produce slices, which narrow the fuzzing search space. Genetic algorithms are then used to schedule the malicious inputs which are sent to the application. We incorporate a test verdict by performing a double taint inference on the browser parse tree and combining this with taint aware vulnerability patterns. Our implementations LigRE and KameleonFuzz outperform current open-source black-box scanners. We discovered 0-day XSS (i.e., previously unknown vulnerabilities) in web applications used by millions of users
Une approche de fouille de données pour le débogage temporel des applications embarquées de streaming by Oleg Iegorov( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

Le déboggage des applications de streaming qui s'exécutent sur les systèmes embarqués multimédia est l'un des domaines les plus exigeants dans le développement de logiciel embarqué. Les nouvelles générations de materiel embarqué introduisent de nouvelles systèmes sur une puce, qui fait que les développeurs du logiciel doivent adapter leurs logiciels aux nouvelles platformes. Le logiciel embarqué doit non seulement fournir des résultats corrects mais aussi le faire en temps réel afin de respecter les propriétés de qualité de service (Quality-of-Service, QoS) du système. Lorsque les propriétés QoS ne sont pas respectées, des bugs temporels font leur apparition. Ces bugs se manifestent comme, par exemple, des glitches dans le flux vidéo ou des craquements dans le flux audio. Le déboggage temporel est en général difficile à effectuer car les bugs temporels n'ont pas souvent de rapport avec l'exactitude fonctionnelle du code des applications, ce qui rend les outils de débogage traditionels, comme GDB, peu utiles. Le non-respect des propriétés QoS peut provenir des interactions entre les applications, ou entre les applications et les processus systèmes. Par conséquent, le contexte d'exécution entier doit être pris en compte pour le déboggage temporel. Les avancements récents en collecte des traces d'exécution permettent aux développeurs de recueillir des traces et de les analyser après la fin d'exécution pour comprendre quelle activité système est responsable des bugs temporels. Cependant, les traces d'exécution ont une taille conséquente, ce qui demande aux devéloppeurs des connaissainces en analyse de données qu'ils n'ont souvent pas.Dans cette thèse, nous proposons SATM - une approche novatrice pour le déboggage temporel des applications de streaming. SATM repose sur la prémisse que les applications sont conçues avec le modèle dataflow, i.e. peuvent être représentées comme un graphe orienté où les données sont transmises entre des unités de calcul (fontions, modules, etc.) appelées "acteurs". Les acteurs doivent être exécutés de manière périodique afin de respecter les propriétés QoS représentées par les contraintes de temps-réél. Nous montrons qu'un acteur qui ne respecte pas de façon répétée sa période pendant l'exécution de l'application cause la violation des contraintes temps-reel de l'application. En pratique, SATM est un workflow d'analyse de données venant des traces d'exécution qui combine des mesures statistiques avec des algorithmes de fouille de données. SATM fournit une méthode automatique du débogage temporel des applications de streaming. Notre approche prend en entrée une trace d'exécution d'une application ayant une QoS basse ainsi qu'une liste de ses acteurs, et tout d'abord détecte des invocations des acteurs dans la trace. SATM découvre ensuite les périodes des acteurs ainsi que les séctions de la trace où la période n'a pas été respectée. Enfin, ces séctions sont analysées afin d'extraire des motifs de l'activité système qui différencient ces sections des autres séctions de la trace. De tels motifs peuvent donner des indices sur l'origine du problème temporel dans le systeme et sont rendus au devéloppeur. Plus précisément, nous représentons ces motifs comme des séquences contrastes minimales et nous étudions des différentes solutions pour fouiller ce type de motifs à partir des traces d'exécution.Enfin, nous montrons la capacité de SATM de détecter une perturbation temporelle injectée artificiellement dans un framework multimedia GStreamer, ainsi que des bugs temporels dans deux cas d'utilisation des applications de streaming industrielles provenant de la société STMicroelectronics. Nous fournissons également une analyse détaillée des algorithmes de fouille de motifs séquentiels appliqués sur les données venant des traces d'exécution, et nous expliquons pour quelle est la raison les algorithmes de pointe n'arrivent pas à fouiller les motifs séquentiels à partir des traces d'exécution de façon efficace
Apprentissage sur heuristiques simples pour l'ordonnancement online de tâches parallèles by Danilo Carastan dos Santos( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Les plate-formes de Calcul Haute Performance (High Performance Computing, HPC) augmentent en taille et en complexité. De manière contradictoire, la demande en énergie de telles plates-formes a également rapidement augmenté. Les supercalculateurs actuels ont besoin d'une puissance équivalente à celle de toute une centrale d'énergie. Dans le but de faire un usage plus responsable de ce puissance de calcul, les chercheurs consacrent beaucoup d'efforts à la conception d'algorithmes et de techniques permettant d'améliorer différents aspects de performance, tels que l'ordonnancement et la gestion des ressources. Cependent, les responsables des plate-formes HPC hésitent encore à déployer des méthodes d'ordonnancement à la fine pointe de la technologie et la plupart d'entre eux recourent à des méthodes heuristiques simples, telles que l'EASY Backfilling, qui repose sur un tri naïf premier arrivé, premier servi. Les nouvelles méthodes sont souvent complexes et obscures, et la simplicité et la transparence de l'EASY Backfilling sont trop importantes pour être sacrifiées.Dans un premier temps, nous explorons les techniques d'Apprentissage Automatique (Machine Learning, ML) pour apprendre des méthodes heuristiques d'ordonnancement online de tâches parallèles. À l'aide de simulations et d'un modèle de génération de charge de travail, nous avons pu déterminer les caractéristiques des applications HPC (tâches) qui contribuent pour une réduction du ralentissement moyen des tâches dans une file d'attente d'exécution. La modélisation de ces caractéristiques par une fonction non linéaire et l'application de cette fonction pour sélectionner la prochaine tâche à exécuter dans une file d'attente ont amélioré le ralentissement moyen des tâches dans les charges de travail synthétiques. Appliquées à des traces de charges de travail réelles de plate-formes HPC très différents, ces fonctions ont néanmoins permis d'améliorer les performances, attestant de la capacité de généralisation des heuristiques obtenues.Dans un deuxième temps, à l'aide de simulations et de traces de charge de travail de plusieurs plates-formes HPC réelles, nous avons effectué une analyse approfondie des résultats cumulés de quatre heuristiques simples d'ordonnancement (y compris l'EASY Backfilling). Nous avons également évalué des outres effets tels que la relation entre la taille des tâches et leur ralentissement, la distribution des valeurs de ralentissement et le nombre de tâches mises en calcul par backfilling, par chaque plate-forme HPC et politique d'ordonnancement. Nous démontrons de manière expérimentale que l'on ne peut que gagner en remplaçant l'EASY Backfilling par la stratégie SAF (Smallest estimated Area First) aidée par backfilling, car elle offre une amélioration des performances allant jusqu'à 80% dans la métrique de ralentissement, tout en maintenant la simplicité et la transparence d'EASY Backfilling. La SAF réduit le nombre de tâches à hautes valeurs de ralentissement et, par l'inclusion d'un mécanisme de seuillage simple, nous garantonts l'absence d'inanition de tâches.Dans l'ensemble, nous avons obtenu les remarques suivantes : (i) des heuristiques simples et efficaces sous la forme d'une fonction non linéaire des caractéristiques des tâches peuvent être apprises automatiquement, bien qu'il soit subjectif de conclure si le raisonnement qui sous-tend les décisions d'ordonnancement de ces heuristiques est clair ou non. (ii) La zone (l'estimation du temps d'exécution multipliée par le nombre de processeurs) des tâches semble être une propriété assez importante pour une bonne heuristique d'ordonnancement des tâches parallèles, car un bon nombre d'heuristiques (notamment la SAF) qui ont obtenu de bonnes performances ont la zone de la tâche comme entrée (iii) Le mécanisme de backfilling semble toujours contribuer à améliorer les performances, bien que cela ne remédie pas à un meilleur tri de la file d'attente de tâches, tel que celui effectué par SAF
Intelligence Socio-Affective pour un Robot : primitives langagières pour une interaction évolutive d'un robot de l'habitat intelligent by Yuko Sasa( )

1 edition published in 2018 in French and held by 2 WorldCat member libraries worldwide

The Natural Language Processing (NLP) has technically improved regarding human speech vocabulary extension, morphosyntax scope, style and aesthetic. Affective Computing also tends to integrate an “emotional” dimension with a common goal shared with NLP which is to disambiguate the natural language and increase the human-machine interaction naturalness. Within social robotics, the interaction is modelled in dialogue systems trying to reach out an attachment dimension which effects need to an ethical and collective control. However, the situated natural language dynamics is undermining the automated system's efficiency, which is trying to respond with useful and suitable feedbacks. This thesis hypothesis supposes the existence of a “socio-affective glue” in every interaction, set up in between two individuals, each with a social role depending on a communication context. This glue is so the consequence of dynamics generated by a process which mechanisms rely on an altruistic dimension, but independent of dominance dimension as seen in emotions studies. This glue would allow the exchange of the language events between interlocutors, by regularly modifying their relation and their role, which is changing themselves this glue, to ensure the communication continuity. The second hypothesis proposes the glue as built by “socio-affective pure prosody” forms that enable this relational construction. These cues are supposed to be carried by hearable and visible micro-expressions. The interaction events effect would also be gradual following the degree of the communication's intentionality control. The graduation will be continuous through language primitives as 1) mouth noises (neither phonetics nor phonological sounds), 2) pre-lexicalised sounds, 3) interjections and onomatopoeias, 4) controlled command-based imitations with the same socio-affective prosody supposed to create and modify the glue. Within the Domus platform, we developed an almost living-lab methodology. It functions on agile and iterative loops co-constructed with industrial and societal partners. A wizard of oz approach - EmOz - is used to control the vocal primitives proposed as the only language tools of a Smart Home butler robot interacting with relationally isolated elderly. The relational isolation allows the dimensions the socio-affective glue in a contrastive situation where it is damaged. We could thus observe the primitives' effects through multimodal language cues. One of the gerontechnology social motivation showed the isolation to be a phenomenon amplifying the frailty so can attest the emergence of assistive robotics. A vicious circle leads by the elderly communicational characteristics convey them to some difficulties to maintain their relational tissue while their bonds are beneficial for their health and well-being. If the proposed primitives could have a real effect on the glue, the automated system will be able to train the persons to regain some unfit mechanisms underlying their relational construction, and so possibly increase their desire to communicate with their human social surroundings. The results from the collected EEE corpus show the relation changes through various interactional cues, temporally organised. These denoted parameters tend to build an incremental dialogue system in perspectives - SASI. The first steps moving towards this system reside on a speech recognition prototype which robustness is not based on the accuracy of the recognised language content but on the possibility to identify the glue degree (i.e. the relational state) between the interlocutors. Thus, the recognition errors avoid the system to be rejected by the user, by tempting to be balanced by this system's adaptive socio-affective intelligence
CA-ICO : co-apprentissage dans les interfaces cerveau - ordinateur by Nataliya Kos'myna( )

1 edition published in 2015 in English and held by 2 WorldCat member libraries worldwide

Les Interfaces Cerveau Ordinateur Actives (ICOs) permettent à une personne d'exercer un contrôle direct et volontaire sur un système informatique par interprétation de son activité cérébrale : certains signaux du cerveau sont capturés afin que le système reconnaisse des actions imaginées spécifiques (mouvements, images, concepts). Les ICOs actives et leurs utilisateurs doivent être entrainés. Cet entraînement rend les signaux plus aisés à reconnaître par le système.Cependant, à l'heure actuelle les ICO servent principalement dans un contexte médical pour aider les personnes en situation de handicap (moteur, ou empêchant complètement la communication avec le monde extérieur) et se trouvent rarement en dehors de laboratoires spécialisés.Les ICO ont de nombreuses limitations :• La variabilité dans les signaux: les signaux sont différents d'une personne à l'autre voire même chez un même individu à des moments différents.• Des sessions d'entraînement longues et répétitives: entre dix minutes et deux mois, sont ennuyantes et désengagent les utilisateurs du processus d'apprentissage.• Un feedback limité: les systèmes actuels proposent un feedback unimodal élémentaire qui est inadapté pour les nombreux utilisateurs. la communication est unidirectionnelle dans le sens où le système donne des instructions que l'utilisateur doit exécuter.L'objectif de cette thèse est de proposer des solutions aux problèmes sus décrits afin d'obtenir une architecture consistante qui rendra les ICO plus compatibles avec les applications d'IHM. L'idée principale est l'implantation du co-apprentissage dans la boucle ICO et l'exploration de la manière dont les utilisateurs et le système peuvent mutuellement se donner du feedback dans le but de l'amélioration de l'utilisabilité des ICO.Cette thèse se structure autour de trois innovations portant sur la boucle ICO :• Une architecture générale basée sur les principes des ICO asynchrones et sur l'entraînement incrémental combinés avec une séparation aveugle des sources et un classifieur à distance minimum. Nous évaluerons l'architecture sur une tache de pilotage de drone au long d'un mois et concluons qu'elle est en adéquation avec les besoins d'une utilisation quotidienne ludique.• Une modalité de visualisation plus intuitive pour les résultats de classification ainsi que pour les caractéristiques de distance sur la base d'une projection en coordonnées de Wachspress pour un nombre arbitraire de classes. Nous combinons la visualisation avec un feedback direct des utilisateurs leur permettant d'interactivement changer la marge de classification, le type de distance où encore de trier et de gérer les signaux d'entraînement en temps réel. Nous évaluons cette contribution sur un jeu de tir simple et découvrons qu'il y a une bonne synergie entre la modalité de visualisation et le feedback direct des utilisateurs et qu'une telle combinaison est bien plus agréable à utiliser qu'un entraînement d'ICO standard.• Enfin, nous développons une ICO fonctionnelle à base d'imagerie conceptuelle à l'aide de notre architecture ainsi que de nos systèmes de visualisation et de feedback, ce qui permet une interaction plus agréable au travers de l'imagination de catégories sémantiques et de concepts. Nous démontrons que ce type d'ICO détecte plus aisément les catégories sémantiques éloignées plutôt que les catégories sémantiques proches. Pour terminer, nous créons un nouveau protocole d'entraînement implicite pour les ICO à base d'Imagerie Conceptuelle basé sur l'amorçage sémantique et conceptuel, ce qui permet d'intégrer l'entraînement dans le scénario et l'environnement d'une jeu vidéo sans que l'utilisateur n'en soit conscient. Notre protocole mène à une meilleure immersion et à meilleur sentiment de flot vis à vis du jeu
Smarter Radios for Energy efficiency in Wireless Sensor Networks by Maria Isabel Vergara Gallego( )

1 edition published in 2013 in English and held by 2 WorldCat member libraries worldwide

The constraints of Wireless Sensor Networks scenarios require the introduction of optimization techniques at different design levels: from the hardware to the software and communication protocol stack. In fact, the design of energy efficient WSNs involves an appropriate hardware/software co-design oriented to the concerned application. Given the event driven and multitasking nature of WSNs applications, one could think of adding different processing units that cooperate to manage events and tasks in an optimal way. Then, the complexity of tasks performed by the main processing unit can be reduced and energy efficiency can be achieved. In this PhD thesis we study protocols that leverage the implementation of smart radios. The idea of smart radios is introducing intelligence into the radio chip; in this way, it will be able to take decisions and perform several tasks in an autonomous way and without any intervention of the main processing unit. The processing unit will be in charge of bootstrapping the network and, after a stable state is reached, it can remain inactive most of the time while the radio chip provides a given set of services. The proposed protocol is called Wake on Idle and it provides integrated neighborhood maintenance and low duty-cycle medium access control. These services are provided based on analog transmissions that are time encoded; then, as soon as the network enters the stable state (i.e. the topology is formed and nodes are associated and synchronized) digital processing of frames is not needed. Since it relies on low-level information, Wake on Idle can be easily implemented on hardware and integrated into the radio chip; then, it works as a coprocessor that provides high-level services (i.e. neighborhood maintenance and medium access) to the main processing unit. Through theoretical analysis and a preliminary implementation we demonstrate the feasibility of the protocol and we show several interesting characteristics that help achieving energy efficiency and good performance. Then, we further exploit analog signaling to optimize duty cycle of existing medium access control protocols. We propose a mechanism called Sleep on Idle and it is based on the exchange of analog busy tones. Sleep on Idle can also be integrated into the smart radio to take decisions about whether the main processing unit has to be woken up. We apply the decision mechanism to the slotted ieee802.15.4 standard and validate it through simulations and experimentations. The results show an important gain in terms of energy consumption and network reactivity
Generalized k-means-based clustering for temporal data under time warp by Saeid Soheily-Khah( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

L'alignement de multiples séries temporelles est un problème important non résolu dans de nombreuses disciplines scientifiques. Les principaux défis pour l'alignement temporel de multiples séries comprennent la détermination et la modélisation des caractéristiques communes et différentielles de classes de séries. Cette thèse est motivée par des travaux récents portant sur l'extension de la DTW pour l'alignement de séries multiples issues d'applications diverses incluant la reconnaissance vocale, l'analyse de données micro-array, la segmentation ou l'analyse de mouvements humain. Ces travaux fondés sur l'extension de la DTW souffrent cependant de plusieurs limites : 1) Ils se limitent au problème de l'alignement par pair de séries 2) Ils impliquent uniformément les descripteurs des séries 3) Les alignements opérés sont globaux. L'objectif de cette thèse est d'explorer de nouvelles approches d'alignement temporel pour la classification non supervisée de séries. Ce travail comprend d'abord le problème de l'extraction de prototypes, puis de l'alignement de séries multiples multidimensionnelles
Adaptation des interfaces utilisateurs aux émotions by Julian Galindo losada( )

1 edition published in 2019 in French and held by 2 WorldCat member libraries worldwide

L'expérience utilisateur (UX) est aujourd'hui acceptée comme un facteur de qualité important pour le succès des systèmes informatiques ou des logiciels. Elle dépend de dimensions comme l'émotion, l'esthétique, le plaisir ou la confiance. Parmi ces dimensions, l'importance de la facilité d'utilisation et de l'esthétique est reconnue. Ces deux aspects doivent donc être considérés lors de la conception d'interfaces utilisateur.Cela soulève la question de comment les concepteurs peuvent vérifier UX à l'exécution et l'améliorer si nécessaire. Pour obtenir une bonne qualité d'interface utilisateur en tout contexte d'usage (c.-à-d. utilisateur, plate-forme et environnement), la plasticité propose d'adapter l'interface utilisateur au contexte tout en préservant l'utilisabilité. De manière similaire, notre objectif est de préserver ou d'améliorer UX à l'exécution, en proposant des adaptations des interfaces utilisateur aux émotions des utilisateurs. Les adaptations peuvent concerner l'esthétique ou l'utilisabilité.Ainsi la question de recherche abordée dans ce doctorat est comment conduire l'adaptation des interfaces utilisateur avec un modèle de l'utilisateur basé sur les émotions et les caractéristiques de l'utilisateur (âge et sexe).Notre approche vise à personnaliser les interfaces utilisateurs avec les émotions de l'utilisateur au moment de l'exécution. Une architecture, Perso2U, a été conçue pour adapter les 'interfaces en fonction de leurs émotions et de leurs âge et sexe. Le Perso2U comprend trois composantes principales : (1) un moteur d'inférence, (2) un moteur d'adaptation et (3) le système interactif. Premièrement, le moteur d'inférence reconnaît la situation de l'utilisateur et en particulier ses émotions (joie, colère, dégoût, tristesse, surprise, peur, mépris) qui sont dans le modèle d'émotion Ekman plus l'émotion neutre. Deuxièmement, après l'inférence sur les émotions, la structure d'interface la mieux adaptée est sélectionnée et l'ensemble des paramètres de l'interface utilisateur (audio, taille de la police, Widgets, disposition de l'interface utilisateur, etc.) est calculé en fonction de ces émotions détectées. Troisièmement, ce calcul d'une structure d'interface utilisateur et de paramètres appropriés permet à l'interface utilisateur d'exécuter des changements à l'exécution visant à fournir une meilleure interface utilisateur. Puisque la reconnaissance des émotions est exécutée cycliquement, alors il est possible d'adapter les interfaces utilisateur à l'exécution.Puisque cette approche repose sur des outils de reconnaissance des émotions, nous avons mené une expérience pour étudier la similitude de la détection des émotions des visages à partir d'ouitls existants afin de comprendre si cette détection est indépendante de l'outil de reconnaissance des émotions ou non. Les résultats ont confirmé que les émotions détectées par les outils fournissent des valeurs émotionnelles similaires.Comme l'UX dépend de facteurs de qualité de l'interaction utilisateur comme l'esthétique et la facilité d'utilisation, et de caractéristiques individuelles telles que l'âge et le sexe, nous avons effectué une deuxième analyse expérimentale. Elle tend à montrer que : (1) les facteurs de qualité de l'interface utilisateur (esthétique et/ou utilisabilité) influencent les émotions de l'utilisateur en fonction de l'âge et du sexe, (2) le niveau (élevé et/ou faible) des facteurs de qualité de l'interface utilisateur semblent avoir une incidence différente sur les émotions selon l'âge et le sexe. À partir de ces résultats, nous définissons des seuils en fonction de l'âge et du sexe qui permettent au moteur d'inférence de détecter les problèmes d'utilisabilité et/ou d'esthétique
Toward a customized privacy preservation method in mobile tourism applications by Lei Mou( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

The rapid development of ICT(Information and Communication Technology) brought huge impact to all industries. Mobile internet, Web 2.0, positioning technology are deployed world-widely, that initialized inner request of new technologies in the field of tourism as well. By enjoying the convenience brought by new technologies, more and more users starting to focus on privacy issues.As known, there is a contradiction between the quality of recommended location-based services and privacy. Detailed user profile and precise location information are needed for providing location-based service with high efficiency and quality, while privacy preservation requires hiding user's profile and location. Many recent researches aims to seek a balance between them, to obtain the best quality of the LBS in the context of the least exposed user profile content and location information.In this thesis, the author focused mainly on the privacy of mobile user profile, which covers both personal characteristics and location information.1, Customized user privacy model considering both personal attributes and spatial and temporal location is defined for mobile user.In this research, we proposed customized privacy model for every user to define, his/her own meaning of privacy. With this model, for different travel purpose, or even for different time and location, they can have different definitions for their privacy.2, Minimized the data to be stored on server.Profiles are stored in two different ways, complete profile is stored on the client side, and only the values of the attributes that are able for the users to share are stored on the server side, thus minimized the data to be stored on server.3, Customized levels of granularity of disclosure of location and time are adjustable for users.For frequently changing attributes such as location and time, user can disclose them with suitable granularity, in order to obtain expected service from the service providers.Keywords: privacy, location, user profile, mobile, tourism
moreShow More Titles
fewerShow Fewer Titles
Audience Level
Audience Level
  General Special  
Audience level: 0.83 (from 0.71 for Conception ... to 0.96 for ACM SIGIR ...)

Alternative Names
Centre national de la recherche scientifique

Centre national de la recherche scientifique France Laboratoire d'informatique de Grenoble

Centre national de la recherche scientifique France Unité mixte de recherche 5217

Computer Science Laboratory Grenoble

Heterogenous Autonomous distributed DAta Services (Équipe HADAS)

Institut national de recherche en informatique et en automatique (France) Laboratoire d'informatique de Grenoble

Institut Polytechnique de Grenoble Laboratoire d'informatique

Laboratoire d'informatique de Grenoble (UMR 5217)

Laboratoire I.M.A.G. Génie Informatique

Laboratoire ID

Laboratoire IMAG. Génie Informatique

Laboratoire Informatique et Distribution



Logiciels systemes reseaux


UMR 5132

UMR 5217

UMR 5526


Unité Mixte de Recherche 5217

Université Joseph Fourier - Grenoble I. Laboratoire d'informatique de Grenoble

Université Pierre Mendès France (Grenoble) Laboratoire d'informatique de Grenoble

Гренобльская лаборатория информатики

Інфармацыйная лябараторыя Грэноблю

English (13)

French (10)