Que recherchez-vous ?
Un contenu sur ce site
Une personne sur l'annuaire
Une formation sur le catalogue
Un contenu sur ce site
Une personne sur l'annuaire
Une formation sur le catalogue
Les comportements des êtres humains reposent sur un ensemble de processus sensorimoteurs et cognitifs permettant d’interagir avec l’environnement physique, technologique et/ou social. L’étude de la régulation de ces comportements et des processus cognitifs sous-jacents est au centre des travaux de l’équipe.
Axe 1 : Interactions Humain-Environnement. Coordinateur: Frédéric Danion
Dans cet axe, nous nous appuyons sur l’idée que notre cerveau utilise des représentations (i.e. modèles internes) du corps et de l’environnement à la fois pour percevoir, décider, anticiper et agir. L’objectif principal sera de déterminer comment ces représentations se mettent à jour lorsque des perturbations sensorielles (visuelles, tactiles, proprioceptives, vestibulaires, et/ou nociceptives) ou dynamiques (application de force) viennent perturber de manière prévisible ou non l’exécution d’un mouvement. La diversité des perturbations externes, des tâches et des populations testées est utilisée comme levier pour déterminer l’universalité et la robustesse des lois de contrôle participant à la prise de décision, la planification, l’exécution et l’apprentissage du mouvement. En plaçant l’apprentissage sensorimoteur au cœur de cette problématique, ce travail permet d’envisager des applications dans le milieu médical, que ce soit dans le cadre de la prévention et de la rééducation.
Axe 2 : Interactions entre Individus. Coordinatrice: Sandrine Gil
Une interaction interpersonnelle adaptée nécessite de traiter un panel d’informations qui relèvent à la fois des représentations dépendantes de soi (i.e., issues de ses compétences sensori-motrices, de ses compétences cognitives et/ou de ses attentes quant à l’interaction) et de celles relevant du feedback qui régit toute forme d’interaction et qui dépendent d’autrui – autrui étant lui-même contraint par ces mêmes compétences. Aussi, l’objectif des travaux menés dans cet axe est d’étudier les déterminants de l’interaction entre individus. Il s’agira d’une part d’étudier la compréhension des indices émis par autrui (i.e., perception des actions d’autrui, pragmatique du langage, émotions). D’autre part, il s’agira d’examiner en quoi cette compréhension détermine les comportements émis par l’individu (i.e., question de l’apprentissage, voire de l’entrainement) et, en écho, en quoi ces derniers influencent ceux d’autrui. En appréhendant les mécanismes typiques de l’interaction inter-personnelle, ce travail permet d’envisager des applications dans le domaine médical relatifs à certains troubles des interactions (e.g., Troubles du Spectre Autistique) ou encore en lien étroit avec l’Axe 3, comme référence de la connaissance de l’interaction humain-humain.
Axe 3 : Interactions Humain-Système. Coordinateur : Nicolas Louveton
L’objectif de cet axe est d’étudier l’impact de différentes modalités d’interactions entre humains et systèmes numériques sur la réalisation d’activités finalisées. Les systèmes numériques, qu’ils soient logiciels ou physiques (par exemple, robotique), participent à la réalisation de tâches orientées vers un but, soit en tant qu’interface, soit en collaborant activement avec l’humain. Nous étudions à la fois les modalités de travail conjoint (e.g., asservissement, délégation, supervision) et la nature des informations échangées (e.g., informations visuelles, communication verbale, retours haptiques) qui concourent à la réussite de la tâche en évaluant et optimisant les paramètres cognitifs associés : charge mentale, conscience de la situation, confiance, engagement émotionnel et attentionnel.
Les travaux expérimentaux menés dans cet axe utilisent des interfaces immersives, telles que la réalité virtuelle, les interfaces haptiques ou le dialogue naturel afin d’améliorer le contrôle de systèmes dotés de capacité d’autonomie, en utilisant des retours pour guider l’action (par exemple, force feedback), pour aider au raisonnement et à la prise de décision complexe (i.e., feedback auditifs, visuels) ou encore pour construire une représentation commune de la situation entre deux partenaires communicants (e.g., feedback émotionnels). Les applications visées sont celles liées à l’industrie 4.0, la formation immersive et les jumeaux numériques, les nouvelles formes d’interactions (réalité étendue, XR) ainsi que le dialogue et la confiance dans les systèmes fondés sur l’intelligence artificielle : interfaces conversationnelles, véhicules semi-autonomes, etc.
En cliquant sur le nom d’un des membres de l’équipe, vous accèderez à sa page personnelle.
Prénom Nom |
Denis Alamargot (PU ) |
Romain Bechet (Doc) co-encadrement Romain Tisserand, F. Colloud et L. Fadet – Laboratoire PPrime Université de Poitiers |
Alexis Besseyrias (Doc) |
Christel Bidet-Ildei (Professeure – Directrice du CeRCA) |
Yannick Blandin (PR) |
Véronique Bonnaud (Membre associé au laboratoire) |
José Manuel Castillo (Post Doc) |
Lola Charbonnier (Doc) |
Adrien Coudière (Doc) |
Frédéric Danion (Chercheur CNRS) |
Marine Desvergnes (Doc) |
Nicolas Epinoux (MCf, INSPE) |
Charly Ferrier (PRAG STAPS, Doctorant) |
Victor Francisco (Doc) |
Guillaume Galliou (Doc) |
Sandrine Gil (PR) |
Evan Launay (Doc) |
Virginie Laval (PR) |
Ludovic Le Bigot (PR) |
Deslande Liboutchi Pepe (Doc) |
Mildred Loiseau Taupin (MCf) |
Nicolas Louveton (MCf – HDR) |
Cécile Scotto (MCf – HDR) |
Paul Teillet (Doc) |
Romain Tisserand (MCf) |
Lucette Toussaint (PR) |