WorldCat Identities

Chetouani, Mohamed

Overview
Works: 78 works in 125 publications in 2 languages and 1,798 library holdings
Genres: Conference papers and proceedings 
Roles: Editor, Author, Other, htt, Thesis advisor, Opponent, Contributor, dgs
Classifications: TK7882.S65, 006.4454
Publication Timeline
.
Most widely held works by Mohamed Chetouani
Advances in nonlinear speech processing : International Conference on Nonlinear Speech Processing, NOLISP 2007, Paris, France, May 22-25, 2007 : revised selected papers by Mohamed Chetouani( )

28 editions published between 2007 and 2008 in English and Undetermined and held by 582 WorldCat member libraries worldwide

This book constitutes the thoroughly refereed postproceedings of the International Conference on Non-Linear Speech Processing, NOLISP 2007, held in Paris, France, in May 2007. The 24 revised full papers presented were carefully reviewed and selected from numerous submissions for inclusion in the book. The papers are organized in topical sections on nonlinear and nonconventional techniques, speech synthesis, speaker recognition, speech recognition, speech analysis, and exploitation of non-linear techniques
Human Behavior Understanding 7th International Workshop, HBU 2016, Amsterdam, the Netherlands, October 16, 2016, Proceedings by HBU (Workshop)( )

12 editions published in 2016 in English and held by 360 WorldCat member libraries worldwide

This book constitutes the refereed proceedings of the 7th International Workshop on Human Behavior Understanding, HBU 2016, held in Amsterdam, The Netherlands, in October 2016. The 10 full papers were carefully reviewed and selected from 17 initial submissions. They are organized in topical sections named: behavior analysis during play; daily behaviors; gesture and movement analysis; and vision based applications
ICMI '20 companion : companion publication of the 2020 International Conference on Multimodal Interaction : October 25-29, 2020, Virtual Event, Netherlands by ICMI (Conference)( )

1 edition published in 2020 in English and held by 244 WorldCat member libraries worldwide

ICMI '20 : proceedings of the 2020 International Conference on Multimodal Interaction : October 25-29, 2020, Virtual Event, Netherlands by ICMI (Conference)( )

1 edition published in 2020 in English and held by 234 WorldCat member libraries worldwide

DAA '16 : proceedings of the International Workshop on Social Learning and Multimodal Interaction for Designing Artificial Agents by International Workshop on Social Learning and Multimodal Interaction for Designing Artificial Agents( )

1 edition published in 2016 in English and held by 224 WorldCat member libraries worldwide

Annotation
Proceedings of the International Workshop on Social Learning and Multimodal Interaction for Designing Artificial Agents by Mohamed Chetouani( )

4 editions published in 2016 in English and Undetermined and held by 54 WorldCat member libraries worldwide

Annotation
Proceedings of the 1st Workshop on Modeling INTERPERsonal SynchrONy And infLuence by Mohamed Chetouani( )

3 editions published in 2015 in English and Undetermined and held by 6 WorldCat member libraries worldwide

Annotation
Human Behavior Understanding by Mohamed Chetouani( )

1 edition published in 2016 in Undetermined and held by 4 WorldCat member libraries worldwide

Codage neuro-prédictif pour l'extraction de caractéristiques de signaux de parole by Mohamed Chetouani( Book )

2 editions published in 2004 in French and held by 3 WorldCat member libraries worldwide

Biometric Applications Related to Human Beings: There Is Life beyond Security by Marcos Faúndez Zanuy( )

1 edition published in 2012 in English and held by 2 WorldCat member libraries worldwide

Companion Robots Behaving with Style : Towards Plasticity in Social Human-Robot Interaction by Wafa Benkaouar johal( )

1 edition published in 2015 in English and held by 2 WorldCat member libraries worldwide

De nos jours, les robots compagnons présentent de réelles capacités et fonctionnalités. Leurs acceptabilité dans nos habitats est cependant toujours un objet d'étude du fait que les motivations et la valeur du companionage entre robot est enfant n'a pas encore été établi. Classiquement, les robots sociaux avaient des comportements génériques qui ne prenaient pas en compte les différences inter-individuelles. De plus en plus de travaux en Interaction Humain-Robot se penchent sur la personnalisation du compagnon. Personnalisation et contrôle du compagnon permettrai une meilleure compréhension de ses comportements par l'utilisateur. Proposer une palette d'expressions du compagnon jouant un rôle social permettrait à l'utilisateur de customiser leur compagnon en fonction de leur préférences.Dans ce travail, nous proposons un système de plasticité pour l'interaction humain-robot. Nous utilisons une méthode de Design Basée Scenario pour expliciter les rôles sociaux attendu des robot compagnons. Puis en nous appuyant sur la littérature de plusieurs disciplines, nous proposons de représenter ces variations de comportement d'un robot compagnon par les styles comportementaux. Les styles comportementaux sont défini en fonction du rôle social grâce à des paramètres d'expressivité non-verbaux. Ces paramètres (statiques, dynamiques et décorateurs) permettent de transformer des mouvements dit neutres en mouvements stylés. Nous avons mener une étude basée sur des vidéos, qui montraient deux robots avec des mouvement stylés, afin d'évaluer l'expressivité de deux styles parentaux par deux types de robots. Les résultats montrent que les participants étaient capable de différentier les styles en termes de dominance et d'autorité, en accord avec la théorie en psychologie sur ces styles. Nous avons constater que le style préféré par les parents n'étaient pas corréler à leur propre style en tant que parents. En conséquence, les styles comportementaux semblent être des outils pertinents pour la personnalisation social du robot compagnon par les parents.Une seconde expérience, dans un appartement impliquant 16 enfants dans des interaction enfant-robot, a montré que parents et enfants attendent plutôt d'un robot d'être polyvalent et de pouvoir jouer plusieurs rôle à la maison. Cette étude a aussi montré que les styles comportementaux ont une influence sur l'attitude corporelle des enfants pendant l'interaction avec le robot. Des dimensions classiquement utilisées en communication non-verbal nous ont permises de développer des mesures pour l'interaction enfant-robot, basées sur les données capturées avec un capteur Kinect 2.Dans cette thèse nous proposons également la modularisation d'une architecture cognitive et affective précédemment proposé résultant dans l'architecture Cognitive et Affective orientées Interaction (CAIO) pour l'interaction social humain-robot. Cette architecture a été implémenter en ROS, permettant son utilisation par des robots sociaux. Nous proposons aussi l'implémentation des Stimulus Evaluation Checks (SECs) de [Scherer, 2009] pour deux plateformes robotiques permettant l'expression dynamique d'émotion.Nous pensons que les styles comportementaux et l'architecture CAIO pourront s'avérer utile pour l'amélioration de l'acceptabilité et la sociabilité des robot compagnons
Evaluation automatique de la coordination pour l'analyse des interactions by Emilie Delaherche( Book )

2 editions published in 2013 in French and held by 2 WorldCat member libraries worldwide

In social interaction, we unconsciously coordinate our verbal and nonverbal behaviors to those of our partner. This coordination results in the adoption of identical behavior (mimicry) or similar tempo (synchrony). Coordination is involved in the acquisition of social skills during child development. In adulthood, it is linked to the quality of interaction and understanding between individuals. A lack of coordination can conversely show a pathological condition (depression, autism). Also, the evaluation of coordination is of major interest for the understanding of communication. This thesis is part of the Social Signal Processing research domain. We propose a system for the automatic assessment of coordination, from nonverbal behavioral cues extracted on interactive partners. A hierarchical clustering explains the organization between modalities. Then, a refined representation of gestures is adopted to distinguish between mimicry and synchrony. Finally, we have shown that the coordination measures we proposed could be used upstream of classification or prediction systems to infer various dimensions of interaction: social (degree of coordination), pathological (clinical diagnosis) or developmental (age). Together, we have proposed new nonverbal behavioral cues, reflecting gestural rhythm or organization of turn-taking. These cues also reflect the perception of coordination and enable to infer these dimensions of interaction
The social Simon effect in the tactile sensory modality: a negative finding by Alix Pérusseau-Lambert( )

1 edition published in 2019 in English and held by 2 WorldCat member libraries worldwide

Planning for human-robot interaction by Thibault Kruse( )

1 edition published in 2015 in English and held by 2 WorldCat member libraries worldwide

The recent advances in robotics inspire visions of household and service robots making our lives easier and more comfortable. Such robots will be able to perform several object manipulation tasks required for household chores, autonomously or in cooperation with humans. In that role of human companion, the robot has to satisfy many additional requirements compared to well established fields of industrial robotics. The purpose of planning for robots is to achieve robot behavior that is goal-directed and establishes correct results. But in human-robot-interaction, robot behavior cannot merely be judged in terms of correct results, but must be agree-able to human stakeholders. This means that the robot behavior must suffice additional quality criteria. It must be safe, comfortable to human, and intuitively be understood. There are established practices to ensure safety and provide comfort by keeping sufficient distances between the robot and nearby persons. However providing behavior that is intuitively understood remains a challenge. This challenge greatly increases in cases of dynamic human-robot interactions, where the actions of the human in the future are unpredictable, and the robot needs to constantly adapt its plans to changes. This thesis provides novel approaches to improve the legibility of robot behavior in such dynamic situations. Key to that approach is not to merely consider the quality of a single plan, but the behavior of the robot as a result of replanning multiple times during an interaction. For navigation planning, this thesis introduces directional cost functions that avoid problems in conflict situations. For action planning, this thesis provides the approach of local replanning of transport actions based on navigational costs, to provide opportunistic behavior. Both measures help human observers understand the robot's beliefs and intentions during interactions and reduce confusion
Learning socio-communicative behaviors of a humanoid robot by demonstration by Duc-Canh Nguyen( )

1 edition published in 2018 in English and held by 2 WorldCat member libraries worldwide

Un robot d'assistance sociale (SAR) est destiné à engager les gens dans une interaction située comme la surveillance de l'exercice physique, la réadaptation neuropsychologique ou l'entraînement cognitif. Alors que les comportements interactifs de ces systèmes sont généralement scriptés, nous discutons ici du cadre d'apprentissage de comportements interactifs multimodaux qui est proposé par le projet SOMBRERO.Dans notre travail, nous avons utilisé l'apprentissage par démonstration afin de fournir au robot des compétences nécessaires pour effectuer des tâches collaboratives avec des partenaires humains. Il y a trois étapes principales d'apprentissage de l'interaction par démonstration: (1) recueillir des comportements interactifs représentatifs démontrés par des tuteurs humains; (2) construire des modèles des comportements observés tout en tenant compte des connaissances a priori (modèle de tâche et d'utilisateur, etc.); et ensuite (3) fournir au robot-cible des contrôleurs de gestes appropriés pour exécuter les comportements souhaités.Les modèles multimodaux HRI (Human-Robot Interaction) sont fortement inspirés des interactions humain-humain (HHI). Le transfert des comportements HHI aux modèles HRI se heurte à plusieurs problèmes: (1) adapter les comportements humains aux capacités interactives du robot en ce qui concerne ses limitations physiques et ses capacités de perception, d'action et de raisonnement limitées; (2) les changements drastiques des comportements des partenaires humains face aux robots ou aux agents virtuels; (3) la modélisation des comportements interactifs conjoints; (4) la validation des comportements robotiques par les partenaires humains jusqu'à ce qu'ils soient perçus comme adéquats et significatifs.Dans cette thèse, nous étudions et faisons des progrès sur ces quatre défis. En particulier, nous traitons les deux premiers problèmes (transfert de HHI vers HRI) en adaptant le scénario et en utilisant la téléopération immersive. En outre, nous utilisons des réseaux neuronaux récurrents pour modéliser les comportements interactifs multimodaux (tels que le discours, le regard, les mouvements de bras, les mouvements de la tête, les canaux). Ces techniques récentes surpassent les méthodes traditionnelles (Hidden Markov Model, Dynamic Bayesian Network, etc.) en termes de précision et de coordination inter-modalités. A la fin de cette thèse, nous évaluons une première version de robot autonome équipé des modèles construits par apprentissage
Incubateur et assistance respiratoire : incidence sur les prémices de la communication du nouveau-né prématuré by Pauline Laurent( )

2 editions published between 2020 and 2022 in French and held by 2 WorldCat member libraries worldwide

ALe but de cette étude est d'observer si l'incubateur et l'assistance respiratoire ont une incidence sur la perception des stimuli sonores et donc sur les compétences communicationnelles précoces du nouveau-né extrême ou grand prématuré. Il s'agit d'une étude descriptive, prospective et transversale portant sur une cohorte de vingt-et-une dyades parent/nouveau-né. Nous avons recueilli des données acoustiques et vidéographiques lors d'un moment dans l'incubateur et lors d'un moment en peau à peau. Cette étude a permis de mettre en évidence que l'incubateur et l'assistance respiratoire modifient significativement les paramètres acoustiques des stimuli sonores et impactent significativement le regard et le sourire. Pour les autres compétences communicationnelles, les résultats ne sont pas significatifs. Ainsi, le bébé dans son incubateur perçoit une voix plus faible, plus grave et assourdie par le bruit et dont la prosodie est altérée. Les nouveau-nés en ventilation spontanée ou lunettes présentent de meilleures compétences communicationnelles précoces lors des moments en peau à peau et de meilleures compétences communicationnelles précoces que les nouveau-nés en CPAP ou Infant Flow. Concernant les nouveau-nés en CPAP ou Infant Flow, la différence intérieur/extérieur n'est pas significative mais on observe une amélioration qualitative du regard et des grimaces. Les résultats de cette étude révèlent bien l'incidence de l'incubateur et de l'assistance respiratoire sur la perception des stimuli sonores et sur les compétences communicationnelles précoces. Ils encouragent donc à favoriser les moments en peau à peau pour permettre une communication et une exposition à la voix parentale dans des conditions optimales
Region-based facial representation for real-time Action Units intensity detection across datasets by Isabelle Hupont( )

1 edition published in 2017 in English and held by 2 WorldCat member libraries worldwide

GOLIAH (Gaming Open Library for Intervention in Autism at Home): a 6-month single blind matched controlled exploratory study by MICHELANGELO Study Group( )

1 edition published in 2017 in English and held by 2 WorldCat member libraries worldwide

Intelligence Socio-Affective pour un Robot : primitives langagières pour une interaction évolutive d'un robot de l'habitat intelligent by Yuko Sasa( )

1 edition published in 2018 in French and held by 2 WorldCat member libraries worldwide

Le Traitement Automatique de la Parole (TAP) s'intéresse de plus en plus et progresse techniquement en matière d'étendue de vocabulaire, de gestion de complexité morphosyntaxique, de style et d'esthétique de la parole humaine. L'Affective Computing tend également à intégrer une dimension « émotionnelle » dans un objectif commun au TAP visant à désambiguïser le langage naturel et augmenter la naturalité de l'interaction personne-machine. Dans le cadre de la robotique sociale, cette interaction est modélisée dans des systèmes d'interaction, de dialogue, qui tendent à engendrer une dimension d'attachement dont les effets doivent être éthiquement et collectivement contrôlés. Or la dynamique du langage humain situé met à mal l'efficacité des systèmes automatiques. L'hypothèse de cette thèse propose dans la dynamique des interactions, il existerait une « glu socio-affective » qui ferait entrer en phases synchroniques deux individus dotés chacun d'un rôle social impliqué dans une situation/contexte d'interaction. Cette thèse s'intéresse à des dynamiques interactionnelles impliquant spécifiquement des processus altruistes, orthogonale à la dimension de dominance. Cette glu permettrait ainsi de véhiculer les événements langagiers entre les interlocuteurs, en modifiant constamment leur relation et leur rôle, qui eux même viennent à modifier cette glu, afin d'assurer la continuité de la communication. La seconde hypothèse propose que la glu socio-affective se construise à partir d'une « prosodie socio-affective pure » que l'on peut retrouver dans certaines formes de micro-expressions vocales. L'effet de ces événements langagiers serait alors graduel en fonction du degré de contrôle d'intentionnalité communicative qui s'observerait successivement par des primitives langagières : 1) des bruits de bouche (non phonétiques, non phonologiques), 2) des sons prélexicaux, 3) des interjections/onomatopées, 4) des imitations à contenu lexical contrôlé. Une méthodologie living-lab est ainsi développée au sein de la plateforme Domus, sur des boucles agiles et itératives co-construites avec les partenaires industriels et sociétaux. Un Magicien d'Oz - EmOz - est utilisé afin de contrôler les primitives vocales comme unique support langagier d'un robot majordome d'un habitat intelligent interagissant avec des personnes âgées en isolement relationnel. Un large corpus, EmOz Elderly Expressions -EEE- est ainsi recueilli. Cet isolement relationnel permet méthodologiquement d'appréhender les dimensions de la glu socio-affective, en introduisant une situation contrastive dégradée de la glu. Les effets des primitives permettraient alors d'observer les comportements de l'humain à travers des indices multimodaux. Les enjeux sociétaux abordés par la gérontechnologie montrent que l'isolement est un facteur de fragilisation où la qualité de la communication délite le maillage relationnel des personnes âgées alors que ces liens sont bénéfiques à sa santé et son bien-être. L'émergence de la robotique d'assistance en est une illustration. Le système automatisé qui découlera des données et des analyses de cette étude permettrait alors d'entraîner les personnes à solliciter pleinement leurs mécanismes de construction relationnelle, afin de redonner l'envie de communiquer avec leur entourage humain. Les analyses du corpus EEE recueilli montrent une évolution de la relation à travers différents indices interactionnels, temporellement organisés. Ces paramètres visent à être intégrés dans une perspective de système de dialogue incrémental - SASI. Les prémisses de ce système sont proposées dans un prototype de reconnaissance de la parole dont la robustesse ne dépendra pas de l'exactitude du contenu langagier reconnu, mais sur la reconnaissance du degré de glu, soit de l'état relationnel entre les locuteurs. Ainsi, les erreurs de reconnaissance tendraient à être compensées par l'intelligence socio-affective adaptative de ce système dont pourrait être doté le robot
 
moreShow More Titles
fewerShow Fewer Titles
Audience Level
0
Audience Level
1
  General Special  
Audience level: 0.00 (from 0.00 for Advances i ... to 0.00 for Advances i ...)

Advances in nonlinear speech processing : International Conference on Nonlinear Speech Processing, NOLISP 2007, Paris, France, May 22-25, 2007 : revised selected papers
Covers
Alternative Names
Mohamed Chetouani wetenschapper

Languages
English (55)

French (7)