Le Laboratoire

AMI

LAC : Laboratoire Aimé Cotton
LIMSI : Laboratoire d'Informatique pour la Mécanique et les Sciences de l'Ingénieur

Vidéos

Contexte

 Les progrès de la réanimation des grands prématurés ont très fortement augmenté le taux de handicap moteur avec déficit visuel ou cognitif associé. Chaque année naissent ainsi en France plus de 1800 enfants atteints d’Infirmité Motrice Cérébrale (IMC). Responsable de retard dans le développement intellectuel et moteur de l’enfant, les nouveau‐nés atteints d’une telle paralysie cérébrale se retrouvent dans une situation de polyhandicap qui affecte fortement leurs capacités de déplacement et leur compréhension de l’environnement qui les entoure. En grandissant, ces enfants sont accueillis dans différents types de centres spécialisés : Institut d’Education Motrice (IEM), Institut Médico‐Educatif (IME), Centre de Rééducation Fonctionnelle (CRF), au sein desquels ils seront accompagnés dans l’apprentissage de leurs déplacements. Selon les handicaps que présente l’enfant, une solution de mobilité adaptée lui sera proposée. Dans la grande majorité des cas d’IMC, la solution proposée est un fauteuil roulant électrique, pilotable à l’aide d’un joystick manuel ou d’une commande occipitale. Toutefois, cette nouvelle possibilité de déplacement entraîne un certain nombre de problèmes. En effet, cette population d’utilisateurs est parfois sujette à des mouvements et des gestes qui peuvent être aléatoires et non‐contrôlés, notamment dans le cas de fortes charges émotionnelles. Ceci rend la manipulation du fauteuil encore plus périlleuse, en particulier dans des situations complexes à appréhender (descente de trottoir, seuil de porte, escalier, impasse, passage étroit, obstacle frontal...). Actuellement aucune solution à ces problèmes n’est proposée. Le point bloquant étant la difficulté au niveau des capteurs à obtenir une information fiable et robuste en toutes conditions de luminosité externe (de la nuit au plein soleil) ainsi que la mise en place d'une interface de contrôle entre la personne et son fauteuil qui puisse prendre en compte les spécificités de son handicap sensori‐moteur et cognitif.

   
Détection d'escaliers   Détection de bordures de trottoirs   Dystonie

Objectifs

Ce projet vise à concevoir, mettre en oeuvre et évaluer un fauteuil roulant électrique augmenté pour des personnes polyhandicapées souffrant de handicaps moteurs associés éventuellement à des handicaps cognitifs et/ou visuels. Il s'agit d'augmenter le fauteuil d'un dispositif d’assistance par imagerie optique active afin de sécuriser les déplacements des personnes et de le doter d'une interface multimodale adaptable en fonction des capacités sensori‐motrices et cognitives de la personne polyhandicapée. Une combinaison de télémètres lasers à triangulation et de caméras à temps de vol permettra de détecter les passages étroits (couloirs, seuils de portes ...) et les trajectoires dangereuses (escaliers, descente de trottoirs, obstacles ...). Une interface multimodale offrant diverses modalités d’interaction en entrée/sortie (joystick, tablette tactile, contacteurs, commande occipitale, vibreurs, reconnaissance et synthèse vocale, ...) permettra d'offrir un large panel de possibilités d'interaction afin de faciliter le contrôle du fauteuil, d'alerter et de prévenir les situations dangereuses et de s'adapter de manière la plus optimale possible aux capacités d'interaction de la personne polyhandicapée.

         
Contrôle du fauteuil à partir d'une tablette   Interface tactile
en mode discret
  Interface tactile
en mode continu

Membres

  • FAVEY Clément, Doctorant en Optique, LAC
  • GUEDIRA Youssef, Doctorant en Informatique, LIMSI
  • JORDAN Liam, CDD, LAC
  • ZOGAGHI Aziz, ITA, LAC
  • FARCY René, Professeur, LAC
  • BELLIK Yacine, Maître de conférences HDR, groupe AMI, LIMSI

Partenaires

Journée test du premier prototype avec l'association TarbayaVidéo (28 Mai 2016)

Articles

Intranet

Wiki réservé aux membres du projet

Membres : J. Françoise, V. Belissen, Y. Bellik, H. Bull, H. Chaaban, N. DelpratM. Gouiffès

Collaborateurs : A. Braffort (ILES), M. Filhol (ILES), É. Prigent (CPU), S. Fdili Alaoui (LRI)

Analyse automatique de vidéos de Langue des Signes

lsf• Caractérisation des articulateurs impliqués dans la langue des signes française (LSF) : regard, labialisation, mouvement et forme des mains. Étude de leur impact dans la distinction entre signes lexicaux et signes à visée illustrative. 
• Caractérisation du mouvement manuel (emplacement, symétrie, mono et bimanualité, mouvement local et global)
• Reconnaissance de signes lexicaux et identification de structures linguistiques : pointages, balises
• Segmentation et annotation de vidéos de LSF, détection de pauses
• Alignement de texte (français écrit) et de vidéo de LSF pour la création d’un concordancier français écrit-LSF et pour le sous-titrage automatique de vidéos de LSF.

Méthodes : utilisation d’estimateurs de pose par apprentissage tels que Deep Hand, Deep Face, OpenPose, réseaux récurrents RNN LSTM, graph-based networks.

Live-coding pour l’analyse et la sonification du mouvement

livecodingLa conception d’interactions expressives basées sur le mouvement pour la danse contemporaine nécessite le développement de nouveaux outils et méthodologies de design.
Le thème mouvement contribue à :
• Développer une nouvelle approche du design d’interactions utilisant le mouvement s’appuyant sur l’improvisation
• Permettre le prototypage rapide et la programmation à la volée (« live-coding ») des interactions basées sur le mouvement, notamment la sonification
• Élaborer de nouvelles pratiques d’improvisation en danse augmentée où les interactions entre mouvement et son sont programmées en temps réel
• Étudier l’influence d’un retour sonore continu sur la perception du mouvement, en particulier concernant l’anticipation du mouvement d’une personne.

Méthodes : design centré sur l’utilisateur, live-coding, programmation réactive, traitement du signal de mouvement, reconnaissance de geste 

Apprentissage du Mouvement en IHM

appmvt

• Étude et modélisation de l’apprentissage moteur en IHM, en particulier concernant l’acquisition de la coarticulation dans l’apprentissage de séquences de gestes bimanuels
• Études d’interactions « apprenantes » et « apprenables » qui prennent en comptent les mécanismes d’apprentissage réciproques entre l’utilisateur et un système d’apprentissage automatique interactif
• Développement d’outils d’apprentissage automatique centré sur l’humain permettant la personnalisation d’interactions gestuelles et l’adaptation aux capacités sensori-motrices de différents utilisateurs.
• Application à l’apprentissage du mouvement dans des contextes artistiques (danse) et pour l’assistance aux personnes en situation de handicap.

Méthodes : études expérimentales de l’apprentissage, modèles statistiques pour la modélisation du mouvement (HMMs et extensions) 

Emotion, avatar-matière et conscience de soi

ELEMENTA delprat

  • Travail en recherche et création sur le ressenti émotionnel d’une transformation virtuelle de la densité du corps sous forme de matières élémentaires
  • Etude des liens entre conscience corporelle et matérialité virtuelle à travers le paradigme de Rêverie Augmentée prenant en compte la dimension imaginaire dans la boucle d’action-perception et l’interaction immobile avec un avatar matériel
  • Evaluation de l’impact des différentes modalités son/mouvement/image sur le ressenti corporel et le sentiment de soi (postures, comportements psychomoteurs, entretiens d’explicitation)
  • Mise au point de protocoles expérimentaux pour le développement d’une offre alternative et originale de remédiation cognitive et émotionnelle, ciblée sur la modulation des processus attentionnels impliqués dans la perception de l’état interne du corps et la régulation des émotions.

Méthodes : dispositif interactif RêvA, développé au LIMSI-CNRS dans le cadre de la thématique VIDA (collaboration N. Ladevèze et L. Bolot, P2I), utilisé comme support de médiation thérapeutique, pour l’étude du sentiment de soi et comme outil de production artistique.

 

Membres: O. Grynszpan, L. Abbih, Y. Bellik, D. BérouleF. BimbardM. Gouiffès, Y. Guedira, 

En raison du vieillissement de la population et des progrès médicaux permettant des taux de survie plus élevés des personnes avec troubles moteurs, sensoriels ou cognitifs, les problèmes liés aux handicaps et incapacités sont devenus des préoccupations majeures pour notre système de santé. Au cours de la dernière décennie, les politiques nationales et internationales n’ont eu de cesse de souligner la nécessité de développer des technologies numériques pour aider les personnes avec handicap. Pourtant, l'industrie a encore du mal fournir des technologies adéquates. L'utilisation des technologies numériques pour aider les personnes avec handicap pose de nouveaux défis. Des méthodologies rigoureuses fondées sur les preuves sont nécessaires pour évaluer les aides technologiques, tout en tenant compte de leur immense potentiel d'individualisation. Les modèles informatiques sont également de plus en plus utilisés pour étudier et analyser divers troubles.

Building Evidence for Technology and Autism (beta-project.org)

ouriel1

Les technologies numériques pour aider la communauté de l’autisme connaissent une prolifération exponentielle, sans aucun mécanisme spécifique par lequel les personnes autistes ou leurs aidants peuvent facilement utiliser et identifier des preuves permettant de déterminer si de telles technologies sont bénéfiques ou pour évaluer les risques potentiels. Le contexte actuel se caractérise comme une situation dans laquelle les technologies numériques disponibles dans le commerce ont rarement des preuves d’efficacité, alors que les technologies dont l’efficacité est étayée sont rarement disponibles dans le commerce. Dans ce projet, nous avons cherché à développer conjointement avec la communauté de l'autisme un cadre méthodologique d'évaluation des informations permettant d’étayer les pratiques basées sur les technologies. Ce projet a reçu un financement de la FIRAH (Fondation Internationale de la Recherche Appliquée sur le Handicap), la Fondation Orange et la Fondation UEFA pour l’enfance. Il est coordonné avec le CAAR (Centre for Applied Autism Research) de l’Université de Bath (GB). Le projet inclut en outre l’IRTIC (Institute of Robotics and Information and Communication Technologies) de l’Université de Valence (Espagne), le Patrick Wild Centre de l’Université d’Edimbourg (GB) et le Bouvé College of Health Sciences & College of Computer and Information Science de Northeastern University (USA).
Nous avons développé une nouvelle échelle, appelée « User-Centered Design for Support (UCDS) scale », pour évaluer les rapports de recherche sur les aides basées sur les technologies numériques pour l’autisme. Nous avons également conduit une étude Delphi, qui consiste en une technique en ligne de construction de consensus, afin d’extraire des recommandations d’un groupe d’experts sur les aides numériques pour l’autisme. Des adultes autistes, de membres de la famille, des praticiens/cliniciens et des chercheurs ont été consultés de manière itérative jusqu’à ce qu’une liste consensuelle de recommandations soit obtenue. Le cadre méthodologique que nous avons développé peut aider les membres de la communauté de l'autisme à déterminer quelles sont les données probantes étayant une aide technologique avant de l’adopter.

Interfaces Asservies au regard pour l’autisme

ouriel2

Le regard joue un rôle prépondérant dans le développement des habiletés sociales chez l’homme et ses dysfonctionnements constituent un signe précoce du syndrome d’autisme. En contexte social, le regard contribue à la communication en tant qu’action : Il permet d’orienter l’attention d’autrui sur des éléments de l’environnement et d’aboutir à une situation d’attention conjointe. Nos précédentes études en collaborations avec l’équipe CPU soulignent les difficultés des personnes avec TSA à adapter leur regard en situation sociale, en particulier lorsqu’elles doivent guider le regard d’autrui. Pour aborder ces questions, nous développons des technologies d’eye-tracking pour induire des interactions par le regard entre les participants et des humains virtuels.

Fauteuil Roulant Electrique Multimodal et Augmenté (FREMA)

vlcsnap 2017 10 16 10h00m04s441

Ce projet mené en collaboration avec le laboratoire Aimé Cotton (LAC) vise à concevoir, mettre en œuvre et évaluer un fauteuil roulant électrique augmenté pour des personnes polyhandicapées souffrant de handicaps moteurs associés éventuellement à des handicaps cognitifs et/ou visuels. Il s'agit d'augmenter le fauteuil d'un dispositif d’assistance par imagerie optique active afin de sécuriser les déplacements des personnes et de le doter d'une interface multimodale adaptable en fonction des capacités sensori-motrices et cognitives de la personne polyhandicapée. Une combinaison de télémètres lasers à triangulation et de caméras à temps de vol permettra de détecter les passages étroits (couloirs, seuils de portes...) et les trajectoires dangereuses (escaliers, descente de trottoirs, obstacles...). Une interface multimodale offrant diverses modalités d’interaction en entrée/sortie (joystick, tablette tactile, contacteurs, commande occipitale, vibreurs, reconnaissance et synthèse vocale, ...) permettra d'offrir un large panel de possibilités d'interaction afin de faciliter le contrôle du fauteuil, d'alerter et de prévenir les situations dangereuses et de s'adapter de la meilleure manière possible aux capacités d'interaction de la personne polyhandicapée. En particulier, une interface tactile sur smartphone pour le pilotage du fauteuil a été mise en œuvre. Des collaborations avec la fondation Poidatz, l’AFM-Téléthon ainsi que le centre de rééducation fonctionnelle « Le Brasset » ont été mises en place en vue de l’évaluation auprès des utilisateurs cible de cette interface.

Plus de détails sont accessibles sur la page du projet FREMA.

Accès spatialisé et multimodal à l'information pour les non-voyants

matriceCe projet vise à explorer une nouvelle méthode pour l'accès aux documents par les non-voyants permettant de préserver la structure spatiale des informations. Cette méthode repose sur la définition de trois niveaux d’accès à l’information : 1- le niveau spatial qui permet à l'utilisateur de percevoir la structure spatiale globale des informations sans être gêné par les détails ; 2- le niveau typologique qui permet d'avoir accès au type d'information explorée par le doigt (image, tableau, menu, ...) ; 3- le niveau substantiel qui permet d'obtenir le contenu détaillé de l’élément exploré. Différentes modalités (affichage graphique tactile dynamique, braille, synthèse vocale) et dispositifs (matrice tactile, souris braille, terminal braille, ...) permettant l'accès à ces trois niveaux seront explorées et comparées. Une première étude visant à déterminer le rendu des formes géométriques à utiliser pour le niveau spatial a été menée auprès de 40 utilisateurs voyants (yeux bandés) et a permis de montrer que l'utilisation de rectangles creux pour mettre en évidence les différentes zones clés d'un document était la meilleure solution.

M. Gouiffès, V. Belissen, H. Bull, H. Chaaban, E. Frenoux, F. Vernier

L’image est vue ici à la fois comme une source d’information à interpréter (image en entrée) et comme un médium de visualisation d’informations (image en sortie).

  • Extraction d’informations visuelles dans les images et les vidéos
  • Reconnaissance et analyse d’images et de vidéos 
  • Visualisation d’information
  • Vision par ordinateur pour les systèmes caméra-projecteur

Extraction d’informations visuelles dans les images et les vidéos 

image1

  • Estimation du flot optique, définition de primitives et de descripteurs d’image et de vidéos (flot de trajectoires), saillance visuelle basée couleur et mouvement, évaluation de la pertinence des attributs visuels.
  • Détection de structures géométriques à partir de capteurs profondeur-couleur en mouvement et/ou à partir du flot optique.

Méthodes : points d’intérêt, estimation du flot optique, logique floue, fusion de données, descripteurs de région par covariance, lignes de niveaux, clustering, méthodes par vote (UV-vélocité)

Reconnaissance et analyse d’images et de vidéos

image2

 Reconnaissance :

  • de mouvement, d’activités humaines, de signes et de structures linguistiques dans les vidéos de Langue des Signes
  • de lieux (pour la localisation de robots)
  • de cristaux ou de combinaisons de cristaux (pour le médical)

Méthodes : machine learning, deep learning (réseaux récurrents LSTM), clustering

Visualisation d’information

image3

La Visualisation d’information est un domaine mûr et établi depuis de nombreuses années. Le thème Image contribue à :

  • inventer de nouvelles visualisations
  • à appliquer des techniques de visualisation à des jeux de données réalistes 
  • à confronter les techniques d’interaction aux besoins réels d’utilisateur en situation de travail

Ces travaux sont appliqués aux données géolinguistiques (langues régionales), à la finance, à la météo, à l’économie, au transport, au sport.
Méthodes : GapCharts, Stratum Graphs, Braided Graphs, Heatmaps, contours de Voronoi, Horizon maps, scatterplots.

Vision par ordinateur pour les systèmes caméra-projecteur 

image4 

  • Réalité augmentée projetée : comment projeter des images sur des surfaces colorées ou texturées (voire dynamiques et non planaires) tout en percevant les mêmes images que celles projetées sur un écran idéal (blanc et plan) ?
  • Approches par lumière structurée : caractérisation et reconstruction en temps réel de surfaces

Méthodes : calibration géométrique et photométrique, profilométrie par transformée de Fourier, déroulement de phase.

 

Articles dans des revues

  1. Joseph-Jean Mariani, Gil Francopoulo, Patrick Paroubek and Frédéric Vernier.
    The NLP4NLP Corpus (II): 50 Years of Research in Speech and Language Processing. Frontiers in Research Metrics and Analytics, 2019.

  2. Yoren Gaffary, Jean-Claude Martin and Mehdi Ammi.
    Haptic Expression and Perception of Spontaneous Stress. IEEE Transactions on Affective Computing, 2018.
    URL

  3. Hamdi Amroun and Mehdi Ammi.
    Who used my smart object? A flexible approach for the recognition of users. IEEE Access, 2018.

  4. Mohamed Yacine Tsalamlal, William Rizer, Jean-Claude Martin, Mehdi Ammi and Mounia Ziat.
    Affective Communication through Air Jet Stimulation: Evidence from Events-Related Potentials. International Journal of Human-Computer Interaction, 2018.
    URL

  5. Adrien Arnaud, Michèle Gouiffès and Mehdi Ammi.
    On the Fly Plane Detection and Time Consistency for Indoor Building Wall Recognition Using a Tablet Equipped With a Depth Sensor. IEEE Access, 2018.

  6. Maxence Bobin, Margarita Anastassova, Mehdi Boukallel and Mehdi Ammi.
    Design and study of a smart cup for monitoring the arm and hand activity of stroke patients. IEEE Journal of Translational Engineering in Health and Medicine, 2018.

  7. Jean-Baptiste Corrégé, Céline Clavel, Julien Christophe and Mehdi Ammi.
    Social norms from a goal-system point of view: Contributions of activity analysis. Basic and Applied Social Psychology, 2018.
    URL

  8. Jules Françoise and Frédéric Bevilacqua.
    Motion-Sound Mapping through Interaction: An Approach to User-Centered Design of Auditory Feedback Using Machine Learning. ACM Transactions on Interactive Intelligent Systems (TiiS), 2018.

  9. Paul Issartel, Florimond Gueniat, Tobias Isenberg and Mehdi Ammi.
    Analysis of Locally Coupled 3D Manipulation Mappings Based on Mobile Device Motion. Presence: Teleoperators and Virtual Environments, 2017.

  10. Lonni Besançon, Paul Issartel, Mehdi Ammi and Tobias Isenberg.
    Hybrid Tactile/Tangible Interaction for 3D Data Exploration. IEEE Transactions on Visualization and Computer Graphics, 2017.

  11. Jean-Baptiste Corrégé, Céline Clavel, Julien Christophe and Mehdi Ammi.
    Using social injunctive norms to nudge users to build green houses. Psyecology, 2017.
    URL

  12. Michèle Gouiffès, Andres Romero Mier y Téran and Lionel Lacassagne.
    Color enhanced local binary patterns in covariance matrices descriptors (ELBCM). Journal of Visual Communication and Image Representation, 2017.
    URL

  13. Mohamed Yacine Tsalamlal, Michel-Ange Amorim, Jean-Claude Martin and Mehdi Ammi.
    Combining facial expression and touch for perceiving emotional valence. IEEE Transactions on Affective Computing, 2017.

  14. Panagiotis-Alexandros Bokaris, Michèle Gouiffès, Véronique Caye, Jean-Marc Chomaz and Christian Jacquemin.
    Gardien du Temple: concealment and revelation. An interactive installation involving poetry, performance and spatial augmented reality. Leonardo Journal, 2017.

  15. Aleksandr Setkov, Michèle Gouiffès and Christian Jacquemin.
    Evaluation of color descriptors for projector-camera systems. Journal of Visual Communication and Image Representation, 2016.
    URL

  16. Ahmed Chamseddine Ben Abdallah, Michèle Gouiffès and Lionel Lacassagne.
    A modular system for global and local abnormal event detection and categorization in videos. Machine Vision and Applications, 2016.
    URL

  17. Charles Perin, Jeremy Boy and Frédéric Vernier.
    Using Gap Charts to Visualize the Temporal Evolution of Ranks and Scores. IEEE Computer Graphics and Applications, 2016.

  18. Dominique Béroule and Pascale Gisquet-Verrier.
    A Functional Model of Action-Selection Selection Guided by Emotional Stimuli. International Journal of Swarm Intelligence and Evolutionary Computation, 2016.

  19. Clément Favey, José Villanueva, Aziz Zogaghi, Liam Jordan, Eric Dessailly, Yacine Bellik and René Farcy.
    Guiding Wheelchairs by Active Optical Profilometry, for Persons with Multiple Disabilities. Modelling, Measurement and Control, 2016.
    URL

  20. Jean Simard, Mehdi Ammi and Anaïs Mayeur.
    Comparative study of the bimanual and collaborative modes for closely coupled manipulations. International Journal of Human-Computer Studies, 2014.

Communications internationales

  1. Philippe Boula de Mareuïl, Gilles Adda, Lori Lamel, Albert Rilliard and Frédéric Vernier.
    A Speaking Atlas of Minority Languages of France: Collection and Analyses of Dialectical Data. In International Congress of Phonetic Sciences. 2019.

  2. Maxence Bobin, Hamdi Amroun, Margarita Anastassova, Mehdi Boukallel and Mehdi Ammi.
    Smart Cup for Festival Alcohol Consumption Awareness. In IEEE World Forum on Internet of Things. 2018.

  3. Hamdi Amroun, Yacine Benziani and Mehdi Ammi.
    A framework based on Dempster-Shafer Theory of evidence algorithm for the analysis of the TV-viewers’ behaviors. In International Conference on Artificial Intelligence and Cognitive Science. 2018.

  4. Hamdi Amroun, Yacine Benziani and Mehdi Ammi.
    Modeling nicotine consumption using an e-cigarette and IOT devices. In International Conference on Artificial Intelligence and Cognitive Science. 2018.

  5. Philippe Boula De Mareüil, Frédéric Vernier and Albert Rilliard.
    A Speaking Atlas of the Regional Languages of France. In International Conference on Language Resources and Evaluation. 2018.
    URL

  6. Maxence Bobin and Mehdi Ammi.
    Smart Cup to Monitor Stroke Patients Activities during Everyday Life. In IEEE International Conference on Internet of Things. 2018.

  7. Maxence Bobin and Mehdi Ammi.
    Smart Objects Ecosystem for Post-Stroke Upper Limbs' Motor Functions Monitoring. In ACM Digital Tools and Uses Congress. 2018.

  8. Youssef Guedira, Franck Bimbard, Jules Françoise, René Farcy and Yacine Bellik.
    Tactile Interface to Steer Power Wheelchairs: A Preliminary Evaluation with Wheelchair Users. In International Conference on Computers Helping People with Special Needs. 2018.
    URL

  9. Pierre-Henri Orefice, Mehdi Ammi, Moustapha Hafez and Adriana Tapus.
    Pressure Variation Study in Human-Human and Human-Robot Handshakes: Impact of the Mood. In IEEE International Symposium on Robot and Human Interactive Communication. 2018.

  10. Tan Khoa Mai, Michèle Gouiffès and Samia Bouchafa.
    Exploiting optical flow field properties for 3D structure identification. In International Conference on Informatics in Control, Automation and Robotics. 2017.
    URL

  11. Tan Khao Mai, Michèle Gouiffès and Samia Bouchafa.
    Optical Flow Refinement using Reliable Flow Propagation. In International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications. 2017.
    URL

  12. Maxence Bobin, Hamdi Amroun, Sabine Coquillart, Franck Bimbard and Mehdi Ammi.
    DNN based Approach for the Assessment of Elbow Flexion with Smart Textile Sensor. In IEEE International Conference on Systems, Man, and Cybernetics. 2017.

  13. Hamdi Amroun, M'hamed Hamy Temkit and Mehdi Ammi.
    Best Feature for CNN Classification of Human Activity Using IOT Network. In IEEE Int. Conf. iThings/GreenCom/CPSCom/SmartData. 2017.

  14. Hamdi Amroun, Mhamed Temkit and Mehdi Ammi.
    DNN-based approach for identification of viewers' TV-watching attention using IoT network. In International Conference of Internet of People. 2017.

  15. Hamdi Amroun, Mhamed Temkit and Mehdi Ammi.
    Impact of the Positions Transition of a Smartphone on Human Activity Recognition. In IEEE International Conference on Internet of Things. 2017.

  16. Hamdi Amroun, Mhamed Temkit and Mehdi Ammi.
    Recognition of Human Activity Using Paired Connected Objects. In IEEE International Conference on Internet of Things. 2017.

  17. Hamdi Amroun, Mhamed Temkit and Mehdi Ammi.
    Study of the viewers' TV-watching behaviors before, during and after watching a TV program using iot network. In IEEE International Conference on Systems, Man, and Cybernetics. 2017.

  18. Hamdi Amroun, Mhamed Temkit and Mehdi Ammi.
    DNN-Based Approach for Recognition of Human Activity Raw Data in Non-Controlled Environment. In IEEE International Conference on AI & Mobile Services. 2017.

  19. Pierre Henri Orefice, Mehdi Ammi, Moustapha Hafez and Adriana Tapus.
    Design of an Emotion Elicitation Tool using VR for Human-Avatar Interaction Studies. In International Conference on Intelligent Virtual Agents. 2017.

  20. Yoren Gaffary, Jean-Claude Martin and Mehdi Ammi.
    Perception of Congruent Facial and Kinesthetic Expressions of Emotions. In International Conference on Affective Computing and Intelligent Interaction. 2015.
    URL

Thèses

  1. Paul Issartel.
    Nouvelles approches pour la portabilité, la non-intrusivité et l'accessibilité des interfaces de manipulation 3D. 2017.

  2. Lonni Besançon.
    An Interaction Continuum for 3D Dataset Visualization. 2017.

  3. Mohamed Yacine Tsalamlal.
    Communication affective médiée via une interface tactile. 2016.

  4. Panagiotis-Alexandros Bokaris.
    Réalité augmentée vidéoprojetée: Compensation photométrique pour l'effacement statique et dynamique. 2016.

  5. Yoren Gaffary.
    Communication kinesthésique des émotions dans un contexte d’interaction homme-machine. 2015.

  6. Aleksandr Setkov.
    IVORA (Image and Computer Vision for Augmented Reality): color invariance and correspondences for the definition of a camera/video-projector system. 2015.

  7. Adrien Girard.
    Interactions visio-haptiques pour la coordination et la conscience situationnelle partagée en environnement virtuel collaboratif. 2014.

  8. Andres Romero Mier y Teran.
    Real-time multi-target tracking : a study on color-texture covariance matrices and descriptor/operator switching. 2013.

  9. Florence Laguzet.
    Etude et optimisation d'algorithmes pour le suivi d'objets couleur. 2013.

  10. Hui Ding.
    Level of detail for granular audio-graphic rendering : representation, implementation, and user-based evaluation. 2013.

Début
Fin

Nom

Sujet Type
2016 2019 FREMA Fauteuil Roulant Electrique Multimodal et Augmenté IDI
2015 2018 Heroes Haptic Emotional RObot Experiments with Sensitive body Digiteo
2015 2018 iRON Internet of Things for post-stroke rehabilitation at home Institut Société Numérique
2014 2015   Affordance des interactions spatialisées dans l'ambiant AI CNRS
2014 2015   Fusion multi-sources pour la localisation d’objets dans l'ambiant AI CNRS
2014 2018 3D RENO Interactive interface for building renovation Industrial Collaboration
2014 2015 PINO Printing of Interactive Objects PREMATURATION IDEX Paris-Saclay
2014 2015 CollabReview Review of collaborative visualisation platforms Industrial Collaboration
2013 2014 Touch Study of air jet tactile stimulation IEEE TCH funding
2012 2015 HumanTouch Non-contact haptic communication of emotions Digiteo
2012 2013 HAIR Non-contact Haptic stimulation ASP CNRS
2011 2014 Fresco Frames of reference in spatial cognition ANR
2010 2013 Fluctus Interactive detection and identification of Lagrangian structures Digiteo DIM LSC
2010 2013 SUSTAINS Constraint-based Prototyping of Urban Environments FUI
2010 2011 Canal Haptique Haptic telepresence OSEO
2009 2010 UBISENSE Localisation d'objets dans l'ambiant AI-ASP CNRS
2008 2011 ATRACO Adapted and TRusted Ambient eCOlogies Projet Européen

Projet FREMA : Fauteuil Roulant Electrique Multimodal et Augmenté

Les activités de recherche du groupe AMI traitent des trois thèmes suivants :

  • Thème « Image »
    • L’image est vue ici à la fois comme une source d’information à interpréter (image en entrée) et comme un médium de visualisation d’informations (image en sortie) : extraction d’informations visuelles dans les images et les vidéos, reconnaissance et analyse d’images et de vidéos, visualisation d’information, vision par ordinateur pour les systèmes caméra-projecteur

  • Thème « Mouvement »
    • Le thème « Mouvement » concerne l’étude du mouvement dans le cadre d’interactions humain-machine. Il s’agit d’une part de capturer, modéliser, reconnaitre et caractériser les mouvements du corps entier dans des situations d’interaction et des usages variés (langue des signes française, pratiques artistiques, technologies assistives, thérapie …) ; d’autre part de concevoir et d’étudier l’influence de retours sensoriels continus sur le mouvement (visuel, auditif, tactile, …) sur l’expérience des personnes, par exemple concernant leur conscience corporelle ou leur capacité d’apprentissage de mouvements.
  • Thème « Handicap »
    • Le thème « Handicap » traite des questions de conception et d'évaluation des aides utilisant les technologies numériques pour les personnes avec besoins particuliers. Des projets sont menés pour différents troubles cognitifs, sensoriels et moteurs.

Sous-catégories

LIMSI
Campus universitaire bât 507
Rue du Belvedère
F - 91405 Orsay cedex
Tél +33 (0) 1 69 15 80 15
Email

RAPPORTS SCIENTIFIQUES

Rapport scientifique

 

Le LIMSI en chiffres

7 équipes de recherche
100 chercheurs et enseignants-chercheurs
40 ingénieurs et techniciens
60 doctorants
70 stagiaires

 

Paris-Saclay nouvelle fenêtre


Logo DataIA

 

© 2017 LIMSI CNRS