WorldCat Identities

Laboratoire d'informatique de Grenoble

Overview
Works: 361 works in 370 publications in 2 languages and 699 library holdings
Genres: Conference papers and proceedings 
Roles: Other, Organizer of meeting, Thesis advisor, 981
Classifications: Z699, 004
Publication Timeline
.
Most widely held works by Laboratoire d'informatique de Grenoble
ACM SIGIR 11th International Conference on Research & Development in Information Retrieval : Grenoble, France, June 13-15, 1988 by Annual International ACMSIGIR Conference on Research & Development in Information Retrieval( )

2 editions published in 1988 in English and held by 30 WorldCat member libraries worldwide

Evaluation et étude comparative d'algorithmes d'optimisation combinatoire : application au problème de placment de processus by El-Ghazali Talbi( Book )

1 edition published in 1992 in French and held by 3 WorldCat member libraries worldwide

Conception modulaire des systèmes d'exploitation by Jean Montuelle( )

2 editions published in 1977 in French and held by 3 WorldCat member libraries worldwide

Interopérabilité Sémantique Multi-lingue des Ressources Lexicales en Données Liées Ouvertes by Andon Tchechmedjiev( )

2 editions published in 2016 in French and held by 3 WorldCat member libraries worldwide

When it comes to the construction of multilingual lexico-semantic resources, the first thing that comes to mind is that the resources we want to align, should share the same data model and format (representational interoperability). However, with the emergence of standards such as LMF and their implementation and widespread use for the production of resources as lexical linked data (Ontolex), representational interoperability has ceased to be a major challenge for the production of large-scale multilingual resources. However, as far as the interoperability of sense-level multi-lingual alignments is concerned, a major challenge is the choice of a suitable interlingual pivot. Many resources make the choice of using English senses as the pivot (e.g. BabelNet, EuroWordNet), although this choice leads to a loss of contrast between English senses that are lexicalized with a different words in other languages. The use of acception-based interlingual representations, a solution proposed over 20 years ago, could be viable. However, the manual construction of such language-independent pivot representations is very difficult due to the lack of expert speaking enough languages fluently and algorithms for their automatic constructions have never since materialized, mainly because of the lack of a formal axiomatic characterization that ensures the pre- servation of their correctness properties. In this thesis, we address this issue by first formalizing acception-based interlingual pivot architectures through a set of axiomatic constraints and rules that guarantee their correctness. Then, we propose algorithms for the initial construction and the update (dynamic interoperability) of interlingual acception-based multilingual resources by exploiting the combinatorial properties of pairwise bilingual translation graphs. Secondly, we study the practical considerations of applying our construction algorithms on a tangible resource, DBNary, a resource periodically extracted from Wiktionary in many languages in lexical linked data
On solving stochastic coupling matrices arising in iterative aggregation/disaggregation methods by William J Stewart( Book )

1 edition published in 1993 in English and held by 3 WorldCat member libraries worldwide

Abstract: "Iterative aggregation/disaggregation (IAD) methods are powerful tools for solving Markov chain models whose transition probability matrices are nearly completely decomposable (NCD). Such models arise frequently during the performance and reliability analysis of computer and telecommunication systems. IAD methods require the solution of a stochastic coupling matrix whose elements denote transition probabilities among blocks. The coupling matrices are often large and in NCD models necessarily have diagonal elements close to one and small off- diagonal elements. This makes their solution by either iterative or direct methods rather difficult. In this paper we propose a modification of the coupling matrix that allows us to accurate [sic] and efficiently compute its stationary probability vector."
Abstraction of conditional term rewriting systems by Didier Bert( Book )

1 edition published in 1995 in English and held by 3 WorldCat member libraries worldwide

Detection of web vulnerabilities via model inference assisted evolutionary fuzzing by Fabien Duchene( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

Le test est une approche efficace pour détecter des bogues d'implémentation ayant un impact sur la sécurité, c.a.d. des vulnérabilités. Lorsque le code source n'est pas disponible, il est nécessaire d'utiliser des techniques de test en boîte noire. Nous nous intéressons au problème de détection automatique d'une classe de vulnérabilités (Cross Site Scripting alias XSS) dans les applications web dans un contexte de test en boîte noire. Nous proposons une approche pour inférer des modèles de telles applications et frelatons des séquences d'entrées générées à partir de ces modèles et d'une grammaire d'attaque. Nous inférons des automates de contrôle et de teinte, dont nous extrayons des sous-modèles afin de réduire l'espace de recherche de l'étape de frelatage. Nous utilisons des algorithmes génétiques pour guider la production d'entrées malicieuses envoyées à l'application. Nous produisons un verdict de test grâce à une double inférence de teinte sur l'arbre d'analyse grammaticale d'un navigateur et à l'utilisation de motifs de vulnérabilités comportant des annotations de teinte. Nos implémentations LigRE et KameleonFuzz obtiennent de meilleurs résultats que les scanneurs boîte noire open-source. Nous avons découvert des XSS ``0-day'' (c.a.d. des vulnérabilités jusque lors inconnues publiquement) dans des applications web utilisées par des millions d'utilisateurs
Toward a customized privacy preservation method in mobile tourism applications by Lei Mou( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

The rapid development of ICT(Information and Communication Technology) brought huge impact to all industries. Mobile internet, Web 2.0, positioning technology are deployed world-widely, that initialized inner request of new technologies in the field of tourism as well. By enjoying the convenience brought by new technologies, more and more users starting to focus on privacy issues.As known, there is a contradiction between the quality of recommended location-based services and privacy. Detailed user profile and precise location information are needed for providing location-based service with high efficiency and quality, while privacy preservation requires hiding user's profile and location. Many recent researches aims to seek a balance between them, to obtain the best quality of the LBS in the context of the least exposed user profile content and location information.In this thesis, the author focused mainly on the privacy of mobile user profile, which covers both personal characteristics and location information.1, Customized user privacy model considering both personal attributes and spatial and temporal location is defined for mobile user.In this research, we proposed customized privacy model for every user to define, his/her own meaning of privacy. With this model, for different travel purpose, or even for different time and location, they can have different definitions for their privacy.2, Minimized the data to be stored on server.Profiles are stored in two different ways, complete profile is stored on the client side, and only the values of the attributes that are able for the users to share are stored on the server side, thus minimized the data to be stored on server.3, Customized levels of granularity of disclosure of location and time are adjustable for users.For frequently changing attributes such as location and time, user can disclose them with suitable granularity, in order to obtain expected service from the service providers.Keywords: privacy, location, user profile, mobile, tourism
New MP-SoC profiling tools based on data mining techniques by Sofiane Lagraa( )

1 edition published in 2014 in English and held by 2 WorldCat member libraries worldwide

La miniaturisation des composants électroniques a conduit à l'introduction de systèmes électroniques complexes qui sont intégrés sur une seule puce avec multiprocesseurs, dits Multi-Processor System-on-Chip (MPSoC). La majorité des systèmes embarqués récents sont basées sur des architectures massivement parallèles MPSoC, d'où la nécessité de développer des applications parallèles embarquées. La conception et le développement d'une application parallèle embarquée devient de plus en plus difficile notamment pour les architectures multiprocesseurs hétérogènes ayant différents types de contraintes de communication et de conception tels que le coût du matériel, la puissance et la rapidité. Un défi à relever par de nombreux développeurs est le profilage des applications parallèles embarquées afin qu'ils puissent passer à l'échelle sur plusieurs cœurs possible. Cela est particulièrement important pour les systèmes embarqués de type MPSoC, où les applications doivent fonctionner correctement sur de nombreux cœurs. En outre, la performance d'une application ne s'améliore pas forcément lorsque l'application tourne sur un nombre de cœurs encore plus grand. La performance d'une application peut être limitée en raison de multiples goulot d'étranglement notamment la contention sur des ressources partagées telles que les caches et la mémoire. Cela devient contraignant etune perte de temps pour un développeur de faire un profilage de l'application parallèle embarquée et d'identifier des goulots d'étranglement dans le code source qui diminuent la performance de l'application. Pour surmonter ces problèmes, dans cette thèse, nous proposons trois méthodes automatiques qui détectent les instructions du code source qui ont conduit à une diminution de performance due à la contention et à l'évolutivité des processeurs sur une puce. Les méthodes sont basées sur des techniques de fouille de données exploitant des gigaoctets de traces d'exécution de bas niveau produites par les platesformes MPSoC. Nos approches de profilage permettent de quantifier et de localiser automatiquement les goulots d'étranglement dans le code source afin d'aider les développeurs à optimiserleurs applications parallèles embarquées. Nous avons effectué plusieurs expériences sur plusieurs applications parallèles embarquées. Nos expériences montrent la précision des techniques proposées, en quantifiant et localisant avec précision les hotspots dans le code source
Apprentissage sur heuristiques simples pour l'ordonnancement online de tâches parallèles by Danilo Carastan dos Santos( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Les plate-formes de Calcul Haute Performance (High Performance Computing, HPC) augmentent en taille et en complexité. De manière contradictoire, la demande en énergie de telles plates-formes a également rapidement augmenté. Les supercalculateurs actuels ont besoin d'une puissance équivalente à celle de toute une centrale d'énergie. Dans le but de faire un usage plus responsable de ce puissance de calcul, les chercheurs consacrent beaucoup d'efforts à la conception d'algorithmes et de techniques permettant d'améliorer différents aspects de performance, tels que l'ordonnancement et la gestion des ressources. Cependent, les responsables des plate-formes HPC hésitent encore à déployer des méthodes d'ordonnancement à la fine pointe de la technologie et la plupart d'entre eux recourent à des méthodes heuristiques simples, telles que l'EASY Backfilling, qui repose sur un tri naïf premier arrivé, premier servi. Les nouvelles méthodes sont souvent complexes et obscures, et la simplicité et la transparence de l'EASY Backfilling sont trop importantes pour être sacrifiées.Dans un premier temps, nous explorons les techniques d'Apprentissage Automatique (Machine Learning, ML) pour apprendre des méthodes heuristiques d'ordonnancement online de tâches parallèles. À l'aide de simulations et d'un modèle de génération de charge de travail, nous avons pu déterminer les caractéristiques des applications HPC (tâches) qui contribuent pour une réduction du ralentissement moyen des tâches dans une file d'attente d'exécution. La modélisation de ces caractéristiques par une fonction non linéaire et l'application de cette fonction pour sélectionner la prochaine tâche à exécuter dans une file d'attente ont amélioré le ralentissement moyen des tâches dans les charges de travail synthétiques. Appliquées à des traces de charges de travail réelles de plate-formes HPC très différents, ces fonctions ont néanmoins permis d'améliorer les performances, attestant de la capacité de généralisation des heuristiques obtenues.Dans un deuxième temps, à l'aide de simulations et de traces de charge de travail de plusieurs plates-formes HPC réelles, nous avons effectué une analyse approfondie des résultats cumulés de quatre heuristiques simples d'ordonnancement (y compris l'EASY Backfilling). Nous avons également évalué des outres effets tels que la relation entre la taille des tâches et leur ralentissement, la distribution des valeurs de ralentissement et le nombre de tâches mises en calcul par backfilling, par chaque plate-forme HPC et politique d'ordonnancement. Nous démontrons de manière expérimentale que l'on ne peut que gagner en remplaçant l'EASY Backfilling par la stratégie SAF (Smallest estimated Area First) aidée par backfilling, car elle offre une amélioration des performances allant jusqu'à 80% dans la métrique de ralentissement, tout en maintenant la simplicité et la transparence d'EASY Backfilling. La SAF réduit le nombre de tâches à hautes valeurs de ralentissement et, par l'inclusion d'un mécanisme de seuillage simple, nous garantonts l'absence d'inanition de tâches.Dans l'ensemble, nous avons obtenu les remarques suivantes : (i) des heuristiques simples et efficaces sous la forme d'une fonction non linéaire des caractéristiques des tâches peuvent être apprises automatiquement, bien qu'il soit subjectif de conclure si le raisonnement qui sous-tend les décisions d'ordonnancement de ces heuristiques est clair ou non. (ii) La zone (l'estimation du temps d'exécution multipliée par le nombre de processeurs) des tâches semble être une propriété assez importante pour une bonne heuristique d'ordonnancement des tâches parallèles, car un bon nombre d'heuristiques (notamment la SAF) qui ont obtenu de bonnes performances ont la zone de la tâche comme entrée (iii) Le mécanisme de backfilling semble toujours contribuer à améliorer les performances, bien que cela ne remédie pas à un meilleur tri de la file d'attente de tâches, tel que celui effectué par SAF
Intelligence Socio-Affective pour un Robot : primitives langagières pour une interaction évolutive d'un robot de l'habitat intelligent by Yuko Sasa( )

1 edition published in 2018 in French and held by 2 WorldCat member libraries worldwide

The Natural Language Processing (NLP) has technically improved regarding human speech vocabulary extension, morphosyntax scope, style and aesthetic. Affective Computing also tends to integrate an “emotional” dimension with a common goal shared with NLP which is to disambiguate the natural language and increase the human-machine interaction naturalness. Within social robotics, the interaction is modelled in dialogue systems trying to reach out an attachment dimension which effects need to an ethical and collective control. However, the situated natural language dynamics is undermining the automated system's efficiency, which is trying to respond with useful and suitable feedbacks. This thesis hypothesis supposes the existence of a “socio-affective glue” in every interaction, set up in between two individuals, each with a social role depending on a communication context. This glue is so the consequence of dynamics generated by a process which mechanisms rely on an altruistic dimension, but independent of dominance dimension as seen in emotions studies. This glue would allow the exchange of the language events between interlocutors, by regularly modifying their relation and their role, which is changing themselves this glue, to ensure the communication continuity. The second hypothesis proposes the glue as built by “socio-affective pure prosody” forms that enable this relational construction. These cues are supposed to be carried by hearable and visible micro-expressions. The interaction events effect would also be gradual following the degree of the communication's intentionality control. The graduation will be continuous through language primitives as 1) mouth noises (neither phonetics nor phonological sounds), 2) pre-lexicalised sounds, 3) interjections and onomatopoeias, 4) controlled command-based imitations with the same socio-affective prosody supposed to create and modify the glue. Within the Domus platform, we developed an almost living-lab methodology. It functions on agile and iterative loops co-constructed with industrial and societal partners. A wizard of oz approach - EmOz - is used to control the vocal primitives proposed as the only language tools of a Smart Home butler robot interacting with relationally isolated elderly. The relational isolation allows the dimensions the socio-affective glue in a contrastive situation where it is damaged. We could thus observe the primitives' effects through multimodal language cues. One of the gerontechnology social motivation showed the isolation to be a phenomenon amplifying the frailty so can attest the emergence of assistive robotics. A vicious circle leads by the elderly communicational characteristics convey them to some difficulties to maintain their relational tissue while their bonds are beneficial for their health and well-being. If the proposed primitives could have a real effect on the glue, the automated system will be able to train the persons to regain some unfit mechanisms underlying their relational construction, and so possibly increase their desire to communicate with their human social surroundings. The results from the collected EEE corpus show the relation changes through various interactional cues, temporally organised. These denoted parameters tend to build an incremental dialogue system in perspectives - SASI. The first steps moving towards this system reside on a speech recognition prototype which robustness is not based on the accuracy of the recognised language content but on the possibility to identify the glue degree (i.e. the relational state) between the interlocutors. Thus, the recognition errors avoid the system to be rejected by the user, by tempting to be balanced by this system's adaptive socio-affective intelligence
Vers des communications anonymes et efficaces by Gautier Berthou( )

1 edition published in 2014 in French and held by 2 WorldCat member libraries worldwide

This theses focuses on information dissemination in computer networks. We study two aspects of this topic : anonymous communication on Internet in presence of rational nodes and uniform total order broadcast in a computer cluster. Concerning the first aspect, we observed that no anonymous communication protocol is capable of working in presence of rational nodes while scaling existed. Therefore, we proposed RAC, the first anonymous communication protocol functioning in presence of rational nodes and able of scaling. Concerning the second aspect, we observed that no existing uniform total order broadcast protocol is capable of ensuring both a good latency and an optimal throughput. In order to fill this lack we proposed FastCast, the first uniform total order
Adaptation des interfaces utilisateurs aux émotions by Julian Galindo losada( )

1 edition published in 2019 in French and held by 2 WorldCat member libraries worldwide

User interfaces adaptation by using emotions.Perso2U, an approach to personalize user interfaces with user emotions.User experience (UX) is nowadays recognized as an important quality factor to make systems or software successful in terms of user take-up and frequency of usage. UX depends on dimensions like emotion, aesthetics or visual appearance, identification, stimulation, meaning/value or even fun, enjoyment, pleasure, or flow. Among these dimensions, the importance of usability and aesthetics is recognized. So, both of them need to be considered while designing user interfaces (UI).It raises the question how designers can check UX at runtime and improve it if necessary. To achieve a good UI quality in any context of use (i.e. user, platform and environment), plasticity proposes to adapt UI to the context while preserving user-centered properties. In a similar way, our goal is to preserve or improve UX at runtime, by proposing UI adaptations. Adaptations can concern aesthetics or usability. They can be triggered by the detection of specific emotion, that can express a problem with the UI.So the research question addressed in this PhD is how to drive UI adaptation with a model of the user based on emotions and user characteristics (age & gender) to check or improve UX if necessary.Our approach aims to personalize user interfaces with user emotions at run-time. An architecture, Perso2U, has been designed to adapt the UI according to emotions and user characteristics (age and gender). Perso2U includes three main components: (1) Inferring Engine, (2) Adaptation Engine and (3) Interactive System. First, the inferring engine recognizes the user's situation and in particular him/her emotions (happiness, anger, disgust, sadness, surprise, fear, contempt) plus neutral which are into Ekman emotion model. Second, after emotion recognition, the best suitable UI structure is chosen and the set of UI parameters (audio, Font-size, Widgets, UI layout, etc.) is computed based on such detected emotions. Third, this computation of a suitable UI structure and parameters allows the UI to execute run-time changes aiming to provide a better UI. Since the emotion recognition is performed cyclically then it allows UI adaptation at run-time.To go further into the inferring engine examination, we run two experiments about the (1) genericity of the inferring engine and (2) UI influence on detected emotions regarding age and gender.Since this approach relies on emotion recognition tools, we run an experiment to study the similarity of detecting emotions from faces to understand whether this detection is independent from the emotion recognition tool or not. The results confirmed that the emotions detected by the tools provide similar emotion values with a high emotion detection similarity.As UX depends on user interaction quality factors like aesthetics and usability, and on individual characteristics such as age and gender, we run a second experimental analysis. It tends to show that: (1) UI quality factors (aesthetics and/or usability) influences user emotions differently based on age and gender, (2) the level (high and/or low) of UI quality factors seem to impact emotions differently based on age and gender. From these results, we define thresholds based on age and gender that allow the inferring engine to detect usability and/or aesthetics problems
Smarter Radios for Energy efficiency in Wireless Sensor Networks by Maria Isabel Vergara Gallego( )

1 edition published in 2013 in English and held by 2 WorldCat member libraries worldwide

The constraints of Wireless Sensor Networks scenarios require the introduction of optimization techniques at different design levels: from the hardware to the software and communication protocol stack. In fact, the design of energy efficient WSNs involves an appropriate hardware/software co-design oriented to the concerned application. Given the event driven and multitasking nature of WSNs applications, one could think of adding different processing units that cooperate to manage events and tasks in an optimal way. Then, the complexity of tasks performed by the main processing unit can be reduced and energy efficiency can be achieved. In this PhD thesis we study protocols that leverage the implementation of smart radios. The idea of smart radios is introducing intelligence into the radio chip; in this way, it will be able to take decisions and perform several tasks in an autonomous way and without any intervention of the main processing unit. The processing unit will be in charge of bootstrapping the network and, after a stable state is reached, it can remain inactive most of the time while the radio chip provides a given set of services. The proposed protocol is called Wake on Idle and it provides integrated neighborhood maintenance and low duty-cycle medium access control. These services are provided based on analog transmissions that are time encoded; then, as soon as the network enters the stable state (i.e. the topology is formed and nodes are associated and synchronized) digital processing of frames is not needed. Since it relies on low-level information, Wake on Idle can be easily implemented on hardware and integrated into the radio chip; then, it works as a coprocessor that provides high-level services (i.e. neighborhood maintenance and medium access) to the main processing unit. Through theoretical analysis and a preliminary implementation we demonstrate the feasibility of the protocol and we show several interesting characteristics that help achieving energy efficiency and good performance. Then, we further exploit analog signaling to optimize duty cycle of existing medium access control protocols. We propose a mechanism called Sleep on Idle and it is based on the exchange of analog busy tones. Sleep on Idle can also be integrated into the smart radio to take decisions about whether the main processing unit has to be woken up. We apply the decision mechanism to the slotted ieee802.15.4 standard and validate it through simulations and experimentations. The results show an important gain in terms of energy consumption and network reactivity
Analyse faciale avec dérivées Gaussiennes by John Alexander Ruiz Hernandez( )

1 edition published in 2011 in French and held by 2 WorldCat member libraries worldwide

In this thesis, we propose to modelize facial images using Gaussian Derivatives computed with a Half-Octave Gaussian Pyramid. In this scope, Gaussian derivatives have shown a high versatility in object recognition and image analysis, nevertheless there is not a considerable number of proposed aproaches in the state-of-the-art that uses Gaussian derivatives for extracting important information from facial images. Motivated by the above mentioned and the high amount of applications in facial analysis, security systems and Biometry, in this thesis as a first time, we propose to use an unique image representation, the Gaussian Scale Space computed with a half octave pyramid. We show in this thesis that this image representation could be used to perform different tasks in facial analysis without lost of performance compared with other approaches in the state-of-the-art that uses more complicated image representations. it is also well know that using an unique image represenation could be convenient in real world applications where the amount of memory capacity is limitated by hardware constraints. To demostrate our assumptations we solve three different tasks in facial analysis: Face detection, Face recognition and Age estimation. In face detection we propose to use a cascade of classifiers using Gaussian derivatives. Specifically we propose to use Gaussian derivatives up to the fourth order, in effect experiemnts using different derivatives orders have shown that fourth order Gaussian derivatives provide important information in face detection and recognition. In adition, to improve the speed of detection using Gaussian derivatives, we develope a new cascade architecture which considerates the computational cost of each Gaussian derivative order to chose its best position in the cascade. Finally, to solve the face recognition and age estimation problems, we propose a tensorial model based in Gaussian derivatives. This tensorial model preserves the 3-D structure of feature space and it does not break the natural structure of data when a vectorization process is applied. Each one of the methods proposed in the thesis are discused and validated with a set of well defined experiments. All our results are compared with the last state-of-the-art results in face detection, recognition and age estimation, giving comparable or superior results
Une approche de fouille de données pour le débogage temporel des applications embarquées de streaming by Oleg Iegorov( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

Le déboggage des applications de streaming qui s'exécutent sur les systèmes embarqués multimédia est l'un des domaines les plus exigeants dans le développement de logiciel embarqué. Les nouvelles générations de materiel embarqué introduisent de nouvelles systèmes sur une puce, qui fait que les développeurs du logiciel doivent adapter leurs logiciels aux nouvelles platformes. Le logiciel embarqué doit non seulement fournir des résultats corrects mais aussi le faire en temps réel afin de respecter les propriétés de qualité de service (Quality-of-Service, QoS) du système. Lorsque les propriétés QoS ne sont pas respectées, des bugs temporels font leur apparition. Ces bugs se manifestent comme, par exemple, des glitches dans le flux vidéo ou des craquements dans le flux audio. Le déboggage temporel est en général difficile à effectuer car les bugs temporels n'ont pas souvent de rapport avec l'exactitude fonctionnelle du code des applications, ce qui rend les outils de débogage traditionels, comme GDB, peu utiles. Le non-respect des propriétés QoS peut provenir des interactions entre les applications, ou entre les applications et les processus systèmes. Par conséquent, le contexte d'exécution entier doit être pris en compte pour le déboggage temporel. Les avancements récents en collecte des traces d'exécution permettent aux développeurs de recueillir des traces et de les analyser après la fin d'exécution pour comprendre quelle activité système est responsable des bugs temporels. Cependant, les traces d'exécution ont une taille conséquente, ce qui demande aux devéloppeurs des connaissainces en analyse de données qu'ils n'ont souvent pas.Dans cette thèse, nous proposons SATM - une approche novatrice pour le déboggage temporel des applications de streaming. SATM repose sur la prémisse que les applications sont conçues avec le modèle dataflow, i.e. peuvent être représentées comme un graphe orienté où les données sont transmises entre des unités de calcul (fontions, modules, etc.) appelées "acteurs". Les acteurs doivent être exécutés de manière périodique afin de respecter les propriétés QoS représentées par les contraintes de temps-réél. Nous montrons qu'un acteur qui ne respecte pas de façon répétée sa période pendant l'exécution de l'application cause la violation des contraintes temps-reel de l'application. En pratique, SATM est un workflow d'analyse de données venant des traces d'exécution qui combine des mesures statistiques avec des algorithmes de fouille de données. SATM fournit une méthode automatique du débogage temporel des applications de streaming. Notre approche prend en entrée une trace d'exécution d'une application ayant une QoS basse ainsi qu'une liste de ses acteurs, et tout d'abord détecte des invocations des acteurs dans la trace. SATM découvre ensuite les périodes des acteurs ainsi que les séctions de la trace où la période n'a pas été respectée. Enfin, ces séctions sont analysées afin d'extraire des motifs de l'activité système qui différencient ces sections des autres séctions de la trace. De tels motifs peuvent donner des indices sur l'origine du problème temporel dans le systeme et sont rendus au devéloppeur. Plus précisément, nous représentons ces motifs comme des séquences contrastes minimales et nous étudions des différentes solutions pour fouiller ce type de motifs à partir des traces d'exécution.Enfin, nous montrons la capacité de SATM de détecter une perturbation temporelle injectée artificiellement dans un framework multimedia GStreamer, ainsi que des bugs temporels dans deux cas d'utilisation des applications de streaming industrielles provenant de la société STMicroelectronics. Nous fournissons également une analyse détaillée des algorithmes de fouille de motifs séquentiels appliqués sur les données venant des traces d'exécution, et nous expliquons pour quelle est la raison les algorithmes de pointe n'arrivent pas à fouiller les motifs séquentiels à partir des traces d'exécution de façon efficace
ISEACAP : une méthode participative gamifiée pour mieux comprendre les routines organisationnelles liées à la capacité d'absorption by Fatemeh Movahedian-Attar( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

SMEs (Small and Medium sized Enterprises) confront resource scarcity during innovative projects. Thereby they are increasingly taking part in collaborative networks to access the required complementary knowledge for conducting their projects. To achieve this, SMEs deploy their absorptive capacity (ACAP) which means their ability to acquire, assimilate, transform and apply external knowledge. ACAP can be integrated via diverse practices called routines when they are repeated and accepted collectively. However, organisation's actors often perform these routines unconsciously. Thus, enhancing knowledge absorption requires highlighting applied routines to acquire, assimilate, transform and exploit external knowledge.This interdisciplinary thesis aims at: (i) Proposing a new participative method called ISEACAP (Identification, Simulation, Evaluation and Amelioration of Absorptive Capacity) based on gamification techniques. (ii) Providing a refine level of applied knowledge and ACAP's routines during innovative project by detailing related practices to each dimension of ACAP (acquisition, assimilation, transformation and application). (iii) Highlighting roles of ISEACAP's facilitators during experimental sessions to raise reflexivity among participants (organisations' actors). (iv) Describing role of ISEACAP's phases to facilitate learning on ACAP's routines for actors.Applied methodology during this thesis relies on qualitative analysis of collected data through semi-structured interviews and experimental sessions via ISEACAP. Based on the conducted interviews and experimental sessions in France and UK with practitioners, in different activity sectors, two case studies had been developed in textile and food sectors. Collected data from these two cases were coded and analysed thematically. Considering the results, this thesis contributes in engineering science by proposing and formalising a new gamified participative method (ISEACAP), and in management science, the contribution relies on providing a better understanding of ACAP's routines
CA-ICO : co-apprentissage dans les interfaces cerveau - ordinateur by Nataliya Kos'myna( )

1 edition published in 2015 in English and held by 2 WorldCat member libraries worldwide

Les Interfaces Cerveau Ordinateur Actives (ICOs) permettent à une personne d'exercer un contrôle direct et volontaire sur un système informatique par interprétation de son activité cérébrale : certains signaux du cerveau sont capturés afin que le système reconnaisse des actions imaginées spécifiques (mouvements, images, concepts). Les ICOs actives et leurs utilisateurs doivent être entrainés. Cet entraînement rend les signaux plus aisés à reconnaître par le système.Cependant, à l'heure actuelle les ICO servent principalement dans un contexte médical pour aider les personnes en situation de handicap (moteur, ou empêchant complètement la communication avec le monde extérieur) et se trouvent rarement en dehors de laboratoires spécialisés.Les ICO ont de nombreuses limitations :• La variabilité dans les signaux: les signaux sont différents d'une personne à l'autre voire même chez un même individu à des moments différents.• Des sessions d'entraînement longues et répétitives: entre dix minutes et deux mois, sont ennuyantes et désengagent les utilisateurs du processus d'apprentissage.• Un feedback limité: les systèmes actuels proposent un feedback unimodal élémentaire qui est inadapté pour les nombreux utilisateurs. la communication est unidirectionnelle dans le sens où le système donne des instructions que l'utilisateur doit exécuter.L'objectif de cette thèse est de proposer des solutions aux problèmes sus décrits afin d'obtenir une architecture consistante qui rendra les ICO plus compatibles avec les applications d'IHM. L'idée principale est l'implantation du co-apprentissage dans la boucle ICO et l'exploration de la manière dont les utilisateurs et le système peuvent mutuellement se donner du feedback dans le but de l'amélioration de l'utilisabilité des ICO.Cette thèse se structure autour de trois innovations portant sur la boucle ICO :• Une architecture générale basée sur les principes des ICO asynchrones et sur l'entraînement incrémental combinés avec une séparation aveugle des sources et un classifieur à distance minimum. Nous évaluerons l'architecture sur une tache de pilotage de drone au long d'un mois et concluons qu'elle est en adéquation avec les besoins d'une utilisation quotidienne ludique.• Une modalité de visualisation plus intuitive pour les résultats de classification ainsi que pour les caractéristiques de distance sur la base d'une projection en coordonnées de Wachspress pour un nombre arbitraire de classes. Nous combinons la visualisation avec un feedback direct des utilisateurs leur permettant d'interactivement changer la marge de classification, le type de distance où encore de trier et de gérer les signaux d'entraînement en temps réel. Nous évaluons cette contribution sur un jeu de tir simple et découvrons qu'il y a une bonne synergie entre la modalité de visualisation et le feedback direct des utilisateurs et qu'une telle combinaison est bien plus agréable à utiliser qu'un entraînement d'ICO standard.• Enfin, nous développons une ICO fonctionnelle à base d'imagerie conceptuelle à l'aide de notre architecture ainsi que de nos systèmes de visualisation et de feedback, ce qui permet une interaction plus agréable au travers de l'imagination de catégories sémantiques et de concepts. Nous démontrons que ce type d'ICO détecte plus aisément les catégories sémantiques éloignées plutôt que les catégories sémantiques proches. Pour terminer, nous créons un nouveau protocole d'entraînement implicite pour les ICO à base d'Imagerie Conceptuelle basé sur l'amorçage sémantique et conceptuel, ce qui permet d'intégrer l'entraînement dans le scénario et l'environnement d'une jeu vidéo sans que l'utilisateur n'en soit conscient. Notre protocole mène à une meilleure immersion et à meilleur sentiment de flot vis à vis du jeu
Generalized k-means-based clustering for temporal data under time warp by Saeid Soheily-Khah( )

1 edition published in 2016 in English and held by 2 WorldCat member libraries worldwide

Temporal alignment of multiple time series is an important unresolved problem in many scientific disciplines. Major challenges for an accurate temporal alignment include determining and modeling the common and differential characteristics of classes of time series. This thesis is motivated by recent works in extending Dynamic time warping for aligning multiple time series from several applications including speech recognition, curve matching, micro-array data analysis, temporal segmentation or human motion. However these DTW-based works suffer of several limitations: 1) They address the problem of aligning two time series regardless of the remaining time series, 2) They involve uniformly the features of the multiple time series, 3) The time series are aligned globally by including the whole observations. The aim of this thesis is to explore a generalized dynamic time warping for time series clustering. This work includes first the problem of prototype extraction, then the alignment of multiple and multidimensional time series
BetaSAC et OABSAC, deux nouveaux échantillonnages conditionnels pour RANSAC by Antoine Méler( )

1 edition published in 2013 in French and held by 2 WorldCat member libraries worldwide

RANSAC algorithm (Random Sample Consensus) is the most common approach for the problem of robust parameters estimation of a model in computer vision. This is mainly its ability to handle data containing more errors than potentially useful information that made its success in this area where sensors provide a very rich but noisy information. Since its creation thirty years ago, many modifications have been proposed to improve its speed, accuracy and robustness. In this work, we propose to accelerate the resolution of a problem by using RANSAC with more information than traditional approaches. This information, extracted from the data itself or from complementary sources of all types, is used help generating more relevant RANSAC hypotheses. To do this, we propose to distinguish four degrees of quality of a hypothesis: inlier, consistent, coherent or suitable sample. Then we show how an inlier sample is far from being relevant in the general case. Therefore, we strive to design a novel algorithm which, unlike previous methods, focuses on the generation of suitable samples rather than inlier ones. We begin by proposing a probabilistic model unifying all the RANSAC reordered sampling methods. These methods provide a guidance of the random data selection without impairing the search. Then, we propose our own scheduling algorithm, BetaSAC, based on conditional partial sorting. We show that the conditionality of the sort can satisfy consistency constraints, leading to a generation of suitable samples in the first iterations of RANSAC, and thus a rapid resolution of the problem. The use of partial rather than exhaustive sorting ensures rapidity and randomization, essential to this type of methods. In a second step, we propose an optimal version of our method, called OABSAC (for Optimal and Adaptive BetaSAC), involving an offline learning phase. This learning is designed to measure the properties of the specific problem that we want to solve in order to determine automatically the optimal setting of our algorithm. This setting is the one that should lead to a reasonably accurate estimate of the model parameters in a shortest time (in seconds). The two proposed methods are very general solutions that integrate into RANSAC any additional useful information. We show the advantage of these methods to the problem of estimating homographies and epipolar geometry between two photos of the same scene. The speed gain compared to the classical RANSAC algorithm can reach a factor of hundred
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.83 (from 0.71 for Conception ... to 0.96 for ACM SIGIR ...)

Alternative Names
Centre national de la recherche scientifique

Centre national de la recherche scientifique France Laboratoire d'informatique de Grenoble

Centre national de la recherche scientifique France Unité mixte de recherche 5217

Computer Science Laboratory Grenoble

Heterogenous Autonomous distributed DAta Services (Équipe HADAS)

Institut national de recherche en informatique et en automatique (France) Laboratoire d'informatique de Grenoble

Institut Polytechnique de Grenoble Laboratoire d'informatique

Laboratoire d'informatique de Grenoble (UMR 5217)

Laboratoire I.M.A.G. Génie Informatique

Laboratoire ID

Laboratoire IMAG. Génie Informatique

Laboratoire Informatique et Distribution

LIG

LIGLAB

Logiciels systemes reseaux

LSR

UMR 5132

UMR 5217

UMR 5526

UMR5217

Unité Mixte de Recherche 5217

Université Joseph Fourier - Grenoble I. Laboratoire d'informatique de Grenoble

Université Pierre Mendès France (Grenoble) Laboratoire d'informatique de Grenoble

Гренобльская лаборатория информатики

Інфармацыйная лябараторыя Грэноблю

Languages
English (13)

French (10)