WorldCat Identities

Hachet, Martin (1977-....).

Overview
Works: 21 works in 22 publications in 2 languages and 25 library holdings
Roles: Thesis advisor, Other, Opponent, Author
Publication Timeline
.
Most widely held works by Martin Hachet
Navigation multimodale dans une vue bifocale sur dispositifs mobiles by Sébastien Pelurson( )

1 edition published in 2016 in French and held by 2 WorldCat member libraries worldwide

Mobile devices are now ubiquitous in everyday computing. Technological advances and increasing mobile network performance allow users to manipulate more and more information on their mobile devices, changing the use they make of these types of devices, which are gradually replacing desktop computers. However mobile devices are not used in the same way as desktops and face specific constraints. In particular, smaller screens fail to display as much information as a computer screen. In addition, these screens, mostly tactile, are used as both input and output devices, leading to occlusion of a portion of the screen during touch interaction. These findings and limitations give rise to the problem of interactive visualization of large amounts of information on mobile devices.We addressed this problem by considering two related research axes: on the one hand information visualization and on the other hand interaction on mobile devices.For the first axis, we focused on visualization techniques that provide an overview of the information space and a detailed subset of it. Indeed, only one view of a subset of the information space makes it difficult to understand it because of the lack of context. Conversely, visualizing the complete information space on the screen of a mobile device makes it unreadable.For the second axis, we studied interaction techniques for navigating an information space. Facing the variety of sensors available in todays mobile devices, there is a vast set of possibilities in terms of interaction modalities.We provide two types of contribution: conceptual and practical.First we present a design space of navigation techniques on mobile devices: this design space enables us to describe, compare and design interaction modalities for the task of navigation in an information space. Second we propose a conceptual model of multimodal navigation for navigating a multiscale information space.Based on a state of the art of visualization techniques on mobile devices, we designed, developed and experimentally tested a bifocal view on a mobile device. By relying on our design space and by operationalizing our conceptual model of navigation, we designed developed and experimentally compared several multimodal interaction techniques for navigating a multiscale information space
Proposition of new metaphors and techniques for 3D interaction and navigation preserving immersion and facilitating collaboration between distant users by Thi Thuong Huyen Nguyen( Book )

2 editions published in 2014 in English and held by 2 WorldCat member libraries worldwide

Recent progress of the virtual reality technology gives the computer supported collaborative work a potential and flexible tool of vividly representing data as well as users themselves in collaborative virtual environments. Collaborative virtual environments have been defined as computer-based, distributed virtual worlds in which people can meet, communicate and interact with others, with data and 3D objects. People may be geometrically far from each other, speak different languages and use heterogeneous computer systems. The ultimate goal in developing collaborative virtual environments is to support a smooth collaboration between multiple users which involves considerable communication and negotiation, cooperative and collaborative activities, interaction techniques, and awareness process. Considering these aspects into the design of a collaborative virtual environment, we are interested in four main factors, including immersion, awareness, communication and naturalness. These factors greatly determine the success of a collaborative virtual system. From the need of improving and completing interaction techniques in CVEs considering the four preceding factors, in this research we propose and evaluate new metaphors for 3D navigation and manipulation techniques. The first contribution of this research is to propose and evaluate a set of three navigation metaphors in a collaborative exploration context, including drawing directional arrows, lighting up path to follow, and orientating a compass to show a direction. These navigation metaphors can be dynamically implemented and used without constraints in any 3D virtual environments. The empirical result of our experiment revealed that these navigation metaphors considerably reduced wasted time in a wayfinding task of a collaborative exploring scenario. We have developed, in the second part of this research, a direct manipulation technique in immersive virtual environments. This manipulation technique deals with some difficulties the user often encounters such as hand jitter or Heisenberg effects while manipulating 3D objects in immersive projection systems. By dividing the number of degrees of freedom of the manipulated object into each handle of our tool, our technique enables a user to partially control the object, making the manipulation of large objects easier in immersive virtual environments. The last contribution of this research is the implementation and evaluation of two interaction metaphors in a digital mock-up application. Taking into account the four factors including immersion, awareness, communication and naturalness, we have built a workstation design application for three main users: an end-user, a design engineer and an ergonomics expert. In order to have an optimal immersion for the whole application and natural interaction between them, we have implemented an asymmetric system setup at each user's site. Each user could use some implicit communication metaphors which were simple, natural and still relevant in our collaborative context
De la réalisation d'une interface cerveau-ordinateur pour une réalité virtuelle accessible au grand public by Grégoire Cattan( )

1 edition published in 2019 in French and held by 2 WorldCat member libraries worldwide

Malgré des développements récents dans la conception des casques électroencéphalographiques (EEG) et dans l'analyse du signal cérébrale, les interfaces cerveau-machine (ICM) sont toujours restreintes au contexte de la recherche scientifique. Toutefois, les ICM gagneraient à intégrer la réalité virtuelle (VR) car elles diminuent la distance entre l'utilisateur et son avatar en remplaçant les commandes mécaniques, et donc améliorent le sentiment d'immersion. De plus, les ICM fournissent également des informations sur l'état mental de l'utilisateur comme sa concentration, son attention ou ses points d'intérêts dans l'environnement virtuel. Dans cette thèse, nous étudions l'interaction entre ICM et VR, qui constituent une interface homme-machine dont les applications nous semblent prometteuses pour le grand public, particulièrement dans le domaine du divertissement. Nous nous concentrons sur l'utilisation d'une ICM basée sur l'EEG et sur une stimulation visuelle occasionnelle, autrement-dit une ICM basée sur la détection du P300, un potentiel évoqué positif apparaissant dans l'EEG 250 à 600 ms après l'apparition d'un stimulus. Nous étudions l'usage de cette ICM pour interagir avec un environnement simulé grâce à un casque de VR mobile utilisant un smartphone ordinaire, c'est-à-dire un matériel de VR approprié pour une utilisation grand public.Toutefois, l'intégration des ICM dans la VR pour le grand public rencontre aujourd'hui des défis d'ordre technique, expérimental et conceptuel. En effet, l'utilisation d'un matériel mobile pose des contraintes techniques considérables, et une telle technologie n'a pas encore fait l'objet d'une validation. Les facteurs influençant la performance des ICM en VR par rapport à une utilisation sur PC restent flous. Également, les caractéristiques physiologiques de la réponse du cerveau à des stimuli en VR par rapport aux mêmes stimuli présentés sous PC sont inconnues. Finalement, les ICM et la VR admettent des limites considérables, parfois incompatibles. Par exemple, l'utilisateur interagit avec la VR en bougeant, ce qui perturbe le signal EEG et diminue la performance de l'ICM. Il y a donc une nécessité d'adapter le design de l'application pour une technologie mixte ICM+VR.Dans ce travail, nous présentons une contribution dans chacun de ces domaines : une réalisation technique vers une ICM grand public en VR ; une analyse expérimentale de sa performance et une analyse des différences physiologies produites par des stimuli présentés dans un casque de VR par rapport aux mêmes stimuli sous PC - analyses menées à bien grâce à deux campagnes expérimentales portant sur 33 sujets ; une synthèse des recommandations pour un design adapté à la fois aux ICM et à la VR
Interactions gestuelles multi-point et géométrie déformable pour l'édition 3D sur écran tactile by Remi Brouet( )

1 edition published in 2015 in English and held by 2 WorldCat member libraries worldwide

Multi-touch gesture interactions and deformable geometry for 3D edition on touch screen: Despite the advances made in the fields of existing objects capture and of procedural generation, creation of content for virtual worlds can not be perform without human interaction. This thesis suggests to exploit new touch devices ("multi-touch" screens) to obtain an easy, intuitive 2D interaction in order to navigate inside a virtual environment, to manipulate, position and deform 3D objects. First, we study the possibilities and limitations of the hand and finger gestures while interacting on a touch screen in order to discover which gestures are the most adapted to edit 3D scene and environment. In particular, we evaluate the effective number of degrees of freedom of the human hand when constrained on a planar surface. Meanwhile, we develop a new gesture analysis method using phases to identify key motion of the hand and fingers in real time. These results, combined to several specific user-studies, lead to a gestural design pattern which handle not only navigation (camera positioning), but also object positioning, rotation and global scaling. Then, this pattern is extended to complex deformation (such as adding and deleting material, bending or twisting part of objects, using local control). Using these results, we are able to propose and evaluate a 3D world editing interface that handle a natural touch interaction, in which mode selection (i.e. navigation, object positioning or object deformation) and task selections is automatically processed by the system, relying on the gesture and the interaction context (without any menu or button). Finally, we extend this interface to integrate more complex deformations, adapting the garment transfer from a character to any other in order to process interactive deformation of the garment while the wearing character is deformed
Gestes et manipulation directe pour la réalité virtuelle immersive by Emmanuelle Chapoulie( )

1 edition published in 2014 in English and held by 1 WorldCat member library worldwide

Virtual reality is a technology with applications in numerous fields (medical, automotive, etc.). This thesis focuses on immersive virtual spaces, and aims at studying the effects of the two major types of interfaces proposed (6 degree of freedom flystick, and finger-tracking system) on the user experience, and specifically for 3D object manipulation. We are interested in parameters such as ease of use, sense of presence, speed and precision offered. To do so, we design experiments to evaluate these parameters via tasks with measurable success, and which are not field specific.In a first experiment, we study complex general purpose tasks, combining skills required in everyday manipulations, such as grabbing, releasing, translating, rotating, and balancing objects while walking. We then refine our study by observing the effects of those interfaces on the movements themselves, by decomposing them into individual and grouped degrees of freedom. Lastly, we evaluate the applicability of our direct manipulation system in the context of a preliminary study on the use of virtual reality for the treatment of Alzheimer's disease. These studies analyze the properties of these interfaces to provide guidelines to the choice of the most appropriate interface for future experiments
An interaction Continuum for 3D Dataset Visualization by Lonni Besançon( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

Un nombre croissant de paradigmes d'interaction et de dispositifs ont été développés et étudiés pour les manipulations 3D.Ce développement bénéficie, en particulier, aux domaines scientifiques tels que la visualisation qui s'appuie sur la manipulation de données 3D.De nombreuses études ont démontré les avantages de chacun d'entre eux pour des tâches spécifiques liées à la visualisation. Pourtant, les interfaces utilisateur graphiques classiques ainsi que la souris et les claviers prédominent toujours dans la plupart des environnements interactifs: de tels environnements sont toujours utiles pour des tâches spécifiques et parce qu'ils sont facilement disponibles et accessibles par rapport aux nouveaux paradigmes d'interaction et aux dispositifs innovants. Contrairement à l'approche habituelle qui consiste à créer ou étudier un nouveau paradigme, une nouvelle technique ou un nouveau dispositif d'interaction, les travaux présentés dans cette thèse ouvrent la voie à un continuum d'interaction: la possibilité de passer d'un paradigme d'interaction à l'autre et de combiner deux ou plusieurs paradigmes d'interaction pour en tirer profit. Pour atteindre cet objectif, nous prenons plusieurs mesures. Tout d'abord, en se basant sur l'observation que la souris et le clavier, l'interaction tactile et l'interaction tangible sont maintenant des normes ou se rapprochent d'être des paradigmes d'interaction standard pour les cas d'utilisation occasionnelle ou spécifique, cette thèse étudie et compare leurs avantages et limites inhérents aux manipulations 3D.Sur la base de ce travail, nous créons ensuite un paradigme d'interaction hybride tactile et tangible. Basé sur les besoins de la visualisation scientifique pour la mécanique des fluides, nous mettons en œuvre des techniques spécifiques d'interaction exploratrice 3D avec le paradigme hybride et les évaluons avec des experts du domaine. La mise en œuvre prototypique de ce paradigme hybride est une tablette tactile capable de quantifier ses propres mouvements (rotations et translations). Sur la base des retours d'expérience des experts du domaine, une telle combinaison est plus flexible que l'état de l'art et permet des manipulations 3D précises. Avec le potentiel de ce paradigme hybride, nous abordons ensuite la tâche complexe de la sélection des sous-ensembles 3D --une étape initiale majeure pour la compréhension des données. Alors que la sélection de sous-ensembles 3D est généralement effectuée avec une entrée 2D initiale étendue ultérieurement par la machine, notre combinaison d'interactions tactiles et tangibles permet aux utilisateurs d'avoir une technique de sélection entièrement manuelle avec la même tablette: un lasso 2D peut être dessiné avec une entrée tactile qui peut ensuite être étendue en 3D lors du déplacement de la tablette. Non seulement cette combinaison comble-t-elle un vide dans la taxonomie des techniques de sélection de sous-ensembles 3D, mais est, qui plus est, plus précise que les solutions partiellement automatisées, quoique plus lentes. Enfin, en nous appuyant sur l'observation selon laquelle une interaction tangible avec un dispositif localement couplé pourrait nécessiter des ajustements de facteur de gain, nous proposons d'utiliser un aspect spécifique de l'interaction tactile, la détection de pression, pour contrôler les facteurs de gain des manipulations tangibles. Les travaux présentés dans cette thèse démontrent donc le potentiel d'un continuum d'interaction pour la visualisation en proposant des paradigmes d'interaction hybrides dans une configuration facile à maintenir, facile à intégrer et abordable. Il fournit les premières étapes nécessaires pour un continuum d'interaction qui, espérons-le, inspirera la création de plus de techniques d'interaction hybrides pour l'interaction de données 3D
Manipulation de contenu 3D sur des surfaces tactiles by Aurélie Cohé( )

1 edition published in 2012 in French and held by 1 WorldCat member library worldwide

Since the emergence of tactile surfaces in recent years, the general public uses them every day for multiple tasks, such as checking email, photo manipulation, and so on. However, very few 3D applications on these devices exist, although such applications may have great potential in various fields, such as culture, architecture, or archeology. The major difficulty for such applications is to interact with a defined space in three dimensions from an interaction modality defined in two dimensions. Work in this thesis explores the association between tactile surfaces and manipulation of 3D content for the general public. The first studies were conducted to understand how the user tends to manipulate a 3D virtual object with a touch surface without imposing specific interaction techniques. Throughout knowledge gained by users, the following works are developing new interaction techniques and their evaluation
From surface to surface - Transformations de surface tactile pour l'interaction incarnée dans le cockpit by Sylvain Pauchet( )

1 edition published in 2019 in French and held by 1 WorldCat member library worldwide

The "surface" in interactive touch systems is both the support of touch and image. While over time touch surfaces have been transformed in their thicknesses, shapes and stiffness, the interaction modality is limited, as on the first devices, to a simple contact of the finger with the screen in a gesture that pretends to manipulate what is displayed. The sense of touch, even for touch devices installed in critical systems, such as in the aeronautics or automotive industries, remains mainly used as an extension of vision, to point and control. While the theories of the phenomenology of perception, ecological perception and tangible and embodied interactions recognize the importance of the body, motor skills and interactions with the environment in perceptual phenomena, it seems simplistic to consider vision as the first and main sense of touch interaction. We believe that transforming the physical form of the touch interface is an effective way to reincarnate the space of touch interaction by making better use of users' motor skills and their ability to negotiate, manipulate and orient themselves in their environment. Based on a characterization of the potential risks of developing touch interactions in the context of an airliner cockpit (increase in cognitive load, overload of the visual channel, alteration of situational awareness, etc.), we explore, through the design, manufacture and evaluation of three functional prototypes, the contributions of a touch interface with shape change to improve pilotes-system collaboration. With the qualitative and quantitative study of the GazeForm prototype, we show that changing the shape of a touch surface according to the position of the gaze makes it possible, compared to a conventional touch screen, to reduce the workload, improve performance, reduce eye movements and improve the distribution of visual attention. By qualitative evaluation of the two Multi-plié devices, the first with a series of articulated touch screens and the second with a "pleatable" touch display surface, we show that a transformable touch surface stabilizes touch action, promotes collaboration and improves situational awareness. In addition to these contributions, we find that changing the shape of the touch interaction surface increases the feeling and level of control for the management of a critical system. Finally, to generalize the knowledge produced to other contexts of use with a strong division of visual attention (driving, control room, portable touch device in mobility) we propose a design space for reconfigurable touch interfaces
Interaction avec des environnements virtuels affichés au moyen d'interfaces de visualisation collective by Martin Hachet( )

in French and held by 1 WorldCat member library worldwide

Les interfaces de visualisation collective à base de grands écrans Permettent à plusieurs participants, localisés en un lieu unique, d'être immergés dans un même environnement virtuel (EV). Malgré leur potentiel pour le travail de groupe, ces interfaces restent souvent sous-utilisées, car les utilisateurs n'ont pas la possibilité d'interagir facilement et efficacement avec les EV qu'ils sont en train de visualiser. Nous nous proposons d'étudier les caractéristiques des interfaces de visualisation collective afin de définir un ensemble de recommandations pour l'interaction avec des EV. A partir de ces recommandations, nous critiquons les interfaces d'action existantes et proposons une nouvelle interface appelée le CAT. Le CAT est une interface d'action à six degrés de liberté fonctionnant à partir de modes de résistances isotoniques et isométriques. Un plateau mobile articulé autour d'un pied fixe permet la réalisation de tâches d'interaction 3D (navigation, manipulation). Une tablette graphique, fixée sur le plateau permet la réalisation de tâches d'interaction 2D (sélection, contrôle du système). La structure du CAT favorise une interaction non contraignante, rapide et efficace pour des utilisateurs novices. Une évaluation formelle a permis de montrer que le CAT était plus performant qu'une spacemouse pour des tâches de manipulation d'objets 3D, et que les préférences des utilisateurs étaient en sa faveur. Le CAT a été utilisé pour des applications de revue de projet et de théâtre interactif. Cette nouvelle interface d'action favorise le développement d'applications concrètes utilisant des EV affichés au moyen d'interfaces de visualisation collective
Interaction en réalité augmentée mobile : exploration et pointage de cibles numériques by Patrick Perea( )

1 edition published in 2020 in French and held by 1 WorldCat member library worldwide

This thesis contributes to the research field of Human-Computer Interaction (HCI). The focus of the research is on user interaction with handheld Augmented Reality (AR) systems.AR allows the addition of digital content, primarily graphics, to the user's physical environment. The resulting mixed environment includes digital objects registered in the physical world. This mixed environment, partially visible on the mobile device's screen, defines several constraints for interaction. Our work is dedicated to the selection of a digital target in this mixed environment and we address two questions: (1) how to improve the perception of the mixed environment beyond what is perceived by the camera's field of view of the mobile device, for finding off-screen digital targets (2) how to enhance pointing at a digital target registered in the physical environment. Our contributions answer these two questions.We first propose three interactive off-screen guidance techniques, which we evaluate by conducting two laboratory experiments. These techniques are based on Halo, a visualization technique of off-screen objects based on circles, and differ in the way the aggregation of the off-screen objects is displayed on screen. The results of the two experiments show that our three techniques effectively extend users' knowledge of the mixed environment, and limit the visual intrusion on the mobile device's screen in comparison with the traditional arrow-based visualization technique.We then define two interaction techniques enhancing the selection of digital targets. These techniques are based on (1) target expansion techniques, which facilitate target selection by allocating a larger active area to each target and (2) a cursor jump, which shortens the distance between the cursor and the content of the digital target. The two techniques differ in the way users manipulate the cursor once it has jumped to the digital target. We propose two possibilities: physical pointing by moving the mobile device to the desired content, or relative pointing using thumb strokes on the screen. The result of a laboratory experiment confirms that target expansion techniques improve the pointing performance, while relative pointing is preferred by participants.Our contributions are applied to the field of industrial maintenance, in charge of repairing or preventing failures on production machines. As part of a Schneider Electric-CIFRE thesis, the Schneider Electric's Augmented Operator Advisor product (AR maintenance assistance application) includes one of the proposed targeting assistance techniques
one reality : augmenting the human experience through the combination of physical and digital worlds by Joan sol Roo( )

1 edition published in 2017 in English and held by 1 WorldCat member library worldwide

Alors que le numérique a longtemps été réservé à des usages experts, il fait aujourd'hui partie intégrante de notre quotidien, au point, qu'il devient difficile de considérer le monde physique dans lequel nous vivons indépendamment du monde numérique. Pourtant, malgré cette évolution, notre manière d'interagir avec le monde numérique a très peu évolué, et reste toujours principalement basé sur l'utilisation d'écrans, de claviers et de souris. Dans les nouveaux usages rendus possible par le numérique, ces interfaces peuvent se montrer inadaptées, et continuent à préserver la séparation entre le monde physique et le monde numérique. Au cours de cette thèse, nous nous sommes concentrés à rendre cette frontière entre mondes physique et numérique plus subtil au point de la faire disparaître. Cela est rendu possible en étendant la portée des outils numériques dans le monde physique, puis en concevant des artefacts hybrides (des objets aux propriétés physique et numérique), et enfin en permettant les transitions dans une réalité mixte (physique-numérique), laissant le choix du niveau d'immersion à l'utilisateur en fonction de ses besoins. L'objectif final de ce travail est d'augmenter l'expérience de la réalité. Cela comprend non seulement le support de l'interaction avec le monde extérieur, mais aussi avec notre monde intérieur. Cette thèse fournit aux lecteurs les informations contextuelles et les connaissances techniques requises pour pouvoir comprendre et concevoir des systèmes de réalité mixte. A partir de ces fondements, nos contributions, ayant pour but de fusionner le monde physique et le monde virtuel, sont présentées. Nous espérons que ce document inspirera et facilitera des travaux futurs ayant pour vision d'unifier le physique et le virtuel
Interactions au sein d'environnements tangibles et augmentés pour découvrir, comprendre et apprendre. by Philippe Giraudeau( )

1 edition published in 2021 in French and held by 1 WorldCat member library worldwide

Le numérique fait désormais partie intégrante du quotidien en s'immisçant progressivement dans toute les activités de notre société. Nous l'utilisons pour réaliser des tâches courantes comme découvrir, comprendre et apprendre. Des approches basées sur la manipulation physique et les activités de groupe ont la capacité à faciliter ce genre d'activité. Cependant, les dispositifs numériques traditionnels s'appuyant sur des interfaces utilisant écrans, claviers et souris sont limités dans ce type d'approche. Dans cette thèse, nous proposons d'utiliser de nouveaux paradigmes d'interaction avec le numérique, basés notamment sur la réalité augmentée et les interactions tangibles, afin de créer des environnements mixtes où le monde physique sert de support au monde virtuel. Si ces paradigmes existent depuis aux moins deux décennies, ils sont encore peu répandus au sein de notre société et difficilement accessibles hors de cas d'usage très spécifiques. Dans un premier temps, nous avons conçu et évalué des environnements physico-numériques qui mélangent des objets physiques présents en salle de classe tels que du papier, des crayons et des livres, avec des éléments numériques projetés (images, sons vidéos), au sein d'un même espace de travail. Ainsi, les élèves peuvent travailler de façon active et collective,comme ils le feraient dans un espace purement physique, tout en bénéficiant des possibilités offertes par le numérique. Dans un deuxième temps, nous avons exploré l'utilisation des interactions tangibles et de la réalité augmentée pour aider les utilisateurs à prendre conscience de leur consommation énergétique, et à optimiser la disposition et la circulation des personnes au sein de bâtiments publics, pour lutter contre l'épidémie de coronavirus
Extending Interaction Space in Augmented Reality : Contributions in Optical-See-Through and Projection-Based Augmented Environments by Rajkumar Darbar( )

1 edition published in 2021 in English and held by 1 WorldCat member library worldwide

Contrairement aux environnements informatiques de bureaux, la réalité augmentée (RA) estompe les frontières entre le monde physique et le monde numérique en superposant des informations virtuelles à l'environnement réel. Il est notamment possible de créer une expérience immersive de réalité augmentée en portant un casque dédiée sur la tête, ou en utilisant des vidéoprojecteurs. Cette thèse explore les défis d'interaction associés à ces deux types d'affichage de réalité augmentée.Les casques de réalité augmentée s'améliorent constamment en termes d'affichage (c'est-à-dire le champ de vision), de suivi, de techniques d'interaction et de portabilité. Les techniques d'entrée actuellement disponibles (telles que la saisie manuelle, la tête/le regard et la voix) dans les casque RA sont relativement faciles à utiliser pour certaines tâches (par exemple, saisir et déplacer un objet). Cependant, elles manquent de précision et ne sont pas adaptées à un usage prolongé. Par conséquent, les tâches qui nécessitent de la précision deviennent difficiles à réaliser. Dans nos recherches, nous considérons une telle tâche - la sélection de texte qui nécessite une précision au niveau des caractères.D'autre part, la RA basée sur la projection, généralement appelée réalité augmentée spatiale (RAS), augmente directement les objets physiques avec du contenu numérique en utilisant des projecteurs. Dans la RAS, l'augmentation numérique est généralement prédéfinie et l'utilisateur agit souvent comme un spectateur passif. Pour apporter de l'interactivité à la RAS, les utilisateurs ont besoin de widgets graphiques contextuels (fenêtres contextuelles, menus, étiquettes, outils interactifs, etc.) Malheureusement, l'intégration de ces widgets dans la scène RAS est difficile.Dans cette thèse, nous avons exploré de nouvelles techniques d'interaction pour relever les défis mentionnés ci-dessus. Nos deux principales contributions sont les suivantesPremièrement, nous avons étudié l'utilisation d'un smartphone comme contrôleur interactif pour sélectionner du texte affiché au travers d'un casque. Nous avons développé quatre techniques de sélection de texte à une main pour les casques de RA à l'aide d'un smartphone : le toucher continu (où l'écran tactile du smartphone agit comme un pavé tactile), le toucher discret (où l'écran tactile du smartphone est utilisé pour déplacer le curseur caractère par caractère, mot par mot et ligne par ligne), le mouvement spatial (le smartphone est déplacé devant l'utilisateur) et la projection de rayons (le smartphone est utilisé comme un pointeur laser). Nous les avons également comparés dans une étude utilisateur.Deuxièmement, nous avons étendu l'espace physique dans des environnement en RAS en fournissant des widgets graphiques 2D dans l'air en utilisant la projection sur un panneau de projection monté sur un drone. Les utilisateurs peuvent contrôler la position du drone et interagir dynamiquement avec les informations projetées à l'aide d'une manette. Nous présentons trois façons possibles d'intégrer des widgets à l'aide d'un drone en RSA : afficher des annotations en l'air, fournir des outils interactifs, supporter différents points de vue. Nous décrivons également les détails de mise en œuvre de notre approche.Ces explorations visent à étendre l'espace d'interaction dans les applications immersives de réalité augmentée
Understanding & Improving Mental-Imagery Based Brain-Computer Interface (Mi-Bci) User-Training : towards A New Generation Of Reliable, Efficient & Accessible Brain- Computer Interfaces by Camille Jeunet( )

1 edition published in 2016 in English and held by 1 WorldCat member library worldwide

Mental-imagery based brain-computer interfaces (MI-BCIs) enable users to interact with theirenvironment using their brain-activity alone, by performing mental-imagery tasks. This thesisaims to contribute to the improvement of MI-BCIs in order to render them more usable. MIBCIsare bringing innovative prospects in many fields, ranging from stroke rehabilitation tovideo games. Unfortunately, most of the promising MI-BCI based applications are not yetavailable on the public market since an estimated 15 to 30% of users seem unable to controlthem. A lot of research has focused on the improvement of signal processing algorithms.However, the potential role of user training in MI-BCI performance seems to be mostlyneglected. Controlling an MI-BCI requires the acquisition of specific skills, and thus anappropriate training procedure. Yet, although current training protocols have been shown tobe theoretically inappropriate, very little research is done towards their improvement. Our mainobject is to understand and improve MI-BCI user-training. Thus, first we aim to acquire a betterunderstanding of the processes underlying MI-BCI user-training. Next, based on thisunderstanding, we aim at improving MI-BCI user-training so that it takes into account therelevant psychological and cognitive factors and complies with the principles of instructionaldesign. Therefore, we defined 3 research axes which consisted in investigating the impact of(1) cognitive factors, (2) personality and (3) feedback on MI-BCI performance. For each axis,we first describe the studies that enabled us to determine which factors impact MI-BCIperformance; second, we describe the design and validation of new training approaches; thethird part is dedicated to future work. Finally, we propose a solution that could enable theinvestigation of MI-BCI user-training using a multifactorial and dynamic approach: an IntelligentTutoring System
Leveraging human-computer interactions and social presence with physiological computing by Jérémy Frey( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

Cette thèse explore comment l'informatique physiologique peut contribuer aux interactions homme-machine (IHM) et encourager l'apparition de nouveaux canaux de communication parmi le grand public. Nous avons examiné comment des capteurs physiologiques,tels que l'électroencéphalographie (EEG), pourraient être utilisés afin d'estimer l'état mental des utilisateurs et comment ils se positionnent par rapport à d'autres méthodes d'évaluation. Nous avons créé la première interface cerveau-ordinateur capable de discriminer le confort visuel pendant le visionnage d'images stéréoscopiques et nous avons esquissé un système qui peux aider à estimer l'expérience utilisateur dans son ensemble, en mesurant charge mentale, attention et reconnaissance d'erreur. Pour abaisser la barrière entre utilisateurs finaux et capteurs physiologiques, nous avons participé à l'intégration logicielle d'un appareil EEG bon marché et libre, nous avons utilisé des webcams du commerce pour mesurer le rythme cardiaque à distance, nous avons confectionné des wearables dont les utilisateurs peuvent rapidement s'équiper afin qu'électrocardiographie, activité électrodermale et EEG puissent être mesurées lors de manifestations publiques. Nous avons imaginé de nouveaux usages pour nos capteurs, qui augmenteraient la présence sociale. Dans une étude autour de l'interaction humain agent,les participants avaient tendance à préférer les avatars virtuels répliquant leurs propres états internes. Une étude ultérieure s'est concentrée sur l'interaction entre utilisateurs, profitant d'un jeu de plateau pour décrire comment l'examen de la physiologie pourrait changer nos rapports. Des avancées en IHM ont permis d'intégrer de manière transparente du biofeedback au monde physique. Nous avons développé Teegi, une poupée qui permet aux novices d'en découvrir plus sur leur activité cérébrale, par eux-mêmes. Enfin avec Tobe, un toolkit qui comprend plus de capteurs et donne plus de liberté quant à leurs visualisations, nous avons exploré comment un tel proxy décalenos représentations, tant de nous-mêmes que des autres
Approches directes et planifiées de l'interaction 3D sur terminaux mobiles by Fabrice Decle( )

1 edition published in 2009 in French and held by 1 WorldCat member library worldwide

Mobile devices, such as phones, PDAs or GPS, are getting more and more powerful. They are now able to compute and to display 3D scenes in real time. However, mobile devices' ergonomics and technical limitations may make 3D interaction hard to achieve ef?ciently. In particular, 3D interaction techniques developed for desktop computers may be affected by the lack of mouse. In this thesis, we will study mobile devices' constraints and speci?cities, and their in?uences on 3D interaction tasks. The ?rst part of this thesis will be an introduction to the domains addressed in this thesis. We will de?ne the term “mobile device” and analyze their technical and ergonomic speci?cities. We will also de?ne some 3D geometry and 3D interaction basis. In the second part of the thesis, we will talk about 3D interaction with direct control, which is used in many 3D applications, where the user's actions induce modi?cations into the 3D environment in real time. After presenting the related works, we will introduce a 3D inspection technique we have developed. This technique uses depth and contours information in order to compute camera movements adapted to the current context. The following of this second part will be dedicated to a study about bene?ts of using two ?ngers on a multitouch screen. The third part of this thesis is dedicated to “planned 3D interaction”. This kind of control is more adapted to the mobile devices' constraints and offers a higher level of interaction than direct control. We will de?ne and analyze planned 3D interaction in this part. We will then present our contributions : a key based 3D navigation technique, and a 3D camera positioning technique based on some gestures which allows both expert and novice users to easily specify a point of view
Interaction and introspection with tangible augmented objects by Renaud Gervais( )

1 edition published in 2015 in English and held by 1 WorldCat member library worldwide

La plupart des métiers du travail de l'information requièrent maintenant de passer la majeure partie de nos journée devant un écran. Ceci s'ajoute au temps déjà consacré à ce médium dans nos temps libres pour le divertissement et la communication, que ce soit en utilisant des téléphones intelligents, tablettes ou ordinateurs. Alors que les avancées technologiques dans le domaine des écrans tactiles nous ont permis d'interagir avec ces appareils de manière plus expressive, par exemple en utilisant nos doigts pour interagir directement avec le contenu numérique, ce que nous voyons et manipulons sur écran reste “intouchable” ; nos doigts ne pouvant pénétrer la surface de l'écran pour toucher le contenu numérique qui se trouve derrière. Pour que l'interaction avec le monde numérique soit écologique dans le futur, elle doit mettre à profit l'ensemble des différentes capacités de l'humain au lieu de ne se concentrer que sur certaines d'entre elles (comme le toucher et la vision), laissant les autres sens s'atrophier. Une façon de considérer le problème est d'utiliser le monde réel physique comme support pour le monde numérique, permettant d'imaginer un futur où les objets du quotidien auront de riches et expressives fonctions numériques, tout en étant ancrés dans le monde réel. La réalité augmentée spatiale est une modalité permettant d'aller dans cette direction. Cette thèse s'intéresse principalement à deux aspects en lien avec ces objets tangibles augmentés. Dans un premier temps, nous soulevons la question de comment interagir avec du contenu numérique lorsqu'il est supporté par des objets physiques. Comme point de départ de notre investigation, nous avons étudié différentes modalités qui utilisent des dispositifs d'entrée/sortie typiquement retrouvés dans un environnement de bureau. Cette approche est justifiée par le désir d'utiliser au maximum l'expérience que les utilisateurs ont déjà acquise avec leurs outils numériques tout en se dirigeant vers un espace d'interaction comprenant des éléments physiques. Dans un second temps, nous sommes allés au delà du thème de l'interaction avec le contenu numérique pour se questionner sur le potentiel des objets tangibles augmentés comme support pour un médium plus humain. Nous avons investigué comment ces artéfacts augmentés, combinés à différents capteurs physiologiques, pourraient permettre d'améliorer notre conscience des processus internes de notre corps et de notre esprit, pour éventuellement favoriser l'introspection. Cette partie a pris la forme de deux projets où un avatar tangible a été proposé pour laisser les utilisateurs explorer et personnaliser le retour d'information sur leurs propres états internes en temps réel
Interagir en réalité mixte avec un casque : application à la chirurgie augmentée by Charles Bailly( )

1 edition published in 2020 in French and held by 1 WorldCat member library worldwide

This thesis is in the field of Human-Computer Interaction (HCI) and specifically focuses on user interaction with Mixed Reality systems that rely on Head-Mounted Displays. Mixed Reality (MR) enables us to create mixed environments that combine virtual content with physical content. The entire workspace, including both physical and virtual objects, can then be used to interact with the system. Unlike traditional graphical interfaces, MR combines the advantages of the physical environment while providing the flexibility of virtual elements. The fields of application are many and varied, ranging from industrial manufacturing to medicine.Surgery is an application context in which MR is particularly promising. The ability to view medical data directly on the patient's body and around the operating table is a crucial benefit for surgeons. However, the existing techniques for interacting with this virtual information are not suited to the many constraints of the operating room. New approaches are needed to enable surgeons to view, manipulate and edit virtual content during an operation.Our research is driven by this need for MR interaction techniques for augmented surgery. Thanks to our partnership with the company Aesculap for this CIFRE thesis, our work is dedicated to knee prosthesis operations. We focus on the use of Head-Mounted Displays (HMDs), through which the augmented field of view is directly related to the position of the head.We start by providing a design space for MR head-based interaction. We explore this design space by devising new interaction techniques with menus. These techniques involve the entire reality-virtuality continuum by considering different physicalities for targets and implementing transitions between mixed reality and virtual reality. Our goal is to fulfill the surgery constraints by taking advantage of the objects already present in the operating room.After exploring head-based techniques, we broaden our area of research by considering surgical stages where surgeons have at least one hand available to interact with the system. Our contributions on this aspect are twofold. We first continue our study of menu techniques by considering a key aspect of the surgeon's work: visual attention to the operating field. We thus propose three new techniques allowing the surgeon to bring virtual widgets back into his field of vision without having to look away from the operating field. We then study the exploration of MR 3D scenes with multiple views. For instance, multiple views of the knee are displayed during the surgical planning step. The originality of the work lies in the different nature of the multiple views: virtual views and mixed views. We propose two new complementary interaction techniques that allow users to control the level of coupling between these different views and implement transitions between virtual reality and mixed reality
Construction, manipulation et visualisation de processus sonores dans des environnements virtuels immersifs pour la performance musicale by Florent Berthaut( )

1 edition published in 2010 in French and held by 1 WorldCat member library worldwide

The work presented in this thesis belongs to the computer music field as well as to the virtual reality field. First, we describe the advantages of immersive virtual environments and of 3D graphical interaction for multiprocesses instruments and particularly for the hierarchical live-looping, a new instrument model that we define. We then suggest solutions to visualize and manipulate sound processes in these virtual environments. In order to display the sound processes, we introduce the 3D reactive widgets, which rely on audiovisual mappings that we study. We develop a novel 3D interaction device suitable for musical interaction, called Piivert, together with associated interaction techniques, among which the tunnels, in order to manipulate the 3D reactive widgets Finally, we implement the hierarchical live-looping with an immersive instrument called Drile, using the previously developped techniques, and we study different stages for immersive musical performances
Beyond desktop : designing novel user interfaces to enhance 3D exploration by Sebastian Knödel( )

1 edition published in 2009 in English and held by 1 WorldCat member library worldwide

Our research concerns the investigation of new approaches that enhance 3D exploration in virtual environments for users. Thereby, we concentrate on design of novel transversal 3D interaction techniques that are simple, efficient and benefit from new input technology, like tactile interfaces. Our approach allows users to perform complex 3D interaction using single and multiple 2D touch input. Users carry out simple touch, stroke or sketch-based gestures to interact with content. To draw conclusions about the usability of our interfaces we evaluate the interaction techniques by conducting users studies. In addition, we adopt different traditional and illustrative visualization techniques to highlight object characteristics in focus while preserving context information. Furthermore, we propose new methods for collaboration between users, who interact together with 3D data using varying technology, from small mobile devices to immersive virtual environments
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  Kids General Special  
Audience level: 0.95 (from 0.86 for Propositio ... to 0.99 for An interac ...)

Languages
English (11)

French (10)