« BIBL » : différence entre les versions

De Parcours SIIA
Aller à la navigation Aller à la recherche
 
(53 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 7 : Ligne 7 :
=== Affectations sujets ===
=== Affectations sujets ===


<!--
Here is a shared table that presents the different subjects of study: [https://lite.framacalc.org/9qt3-siia-bibl_sujets_etude_biblio_2021 list of studies].  
{| class="wikitable"
|-
! Etudiant.e !! Sujet  !! encadrant.e.s
|-
| ABGRALL Théo || Modèle pour la génération du comportement d’un groupe d’élèves virtuels en présence d’un enseignant réel || Elisabetta Bevacqua et Pierre de Loor
|-
| ALVES BUENO Matheus || Fédération de modèles pour des approches multi-points de vues || Joël Champeau
|-
| AUGER François || Modèles de soutien à l’autonomie des apprenants (sans stage) || Jean-Marie Gilliot
|-
| BENDOU Nassim || Les différentes plateformes de simulation à base d'agents et les grands nombres d'agents || Jérémy Rivière
|-
|DANIEL Tristan || Les solutions de réalité augmentée sur dispositif Android || Thierry Duval
|-
| DELANOE Mael || Variantes Narratives pour l’Entraînement aux habiletés sociales (sans stage) || Anne Gwenn Bosser et Nathalie Le Bigot
|-
| FAVERO PEREIRA Paulo Henrique || Synthèse vocale à l'aide de réseaux de neurones || Pierre Chevaillier
|-
| KADEM Sonia || Simulateurs de systèmes multi-cellulaires || Pascal ballet
|-
| LATIBI Adel || Anticipation d'activités utilisateur pour les interfaces plastique (couplé avec stage) || Pierre De Loor - Éric Maisel
|-
|MOREIRA FREITAS Helon || Interaction Humain-Système : reconnaissance d'activités humaines en environnement naturel (sans stage) || Alexis Nédélec
|-
| NGADI Hamza || Génération et coarticulation de gestes pour un agent virtuel (couplé avec stage) || Gireg Desmeulles - Elisabetta Bevacqua
|-
| ROYET Mikael || Sujet à définir / stage : Modèles de dialogue pour l'interrogation de bases de données || P. Chevaillier
|-
| SEBBAR Elias || Visualisation immersive et interactions avec les simulations à base d'agents || Jérémy Rivière
|-
| TAZTAZ Ibitssem || Modèles et simulations à base d'agents de butinage chez l'abeille || Jérémy Rivière
|}


-->
Students are invited to indicate their choice(s) in this table.


=== Indications générales ===
=== Indications générales ===
Voici quelques indications pour la rédaction de l'étude bibliographique et sa restitution orale : [https://www.enib.fr/~chevaill/documents/master/siia_bibl/siia-bibl_instructions_etude_biblio_2020.pdf instructions biblio] (révision nov. 2020).
Voici quelques indications pour la rédaction de l'étude bibliographique et sa restitution orale : [[Media:Siia-bibl_instructions_etude_biblio_2020.pdf|instructions biblio]] (révision nov. 2020).


=== Documents à étudier ===
=== Documents à étudier ===
Ligne 57 : Ligne 25 :
*  [https://www.enib.fr/~chevaill/documents/master/siia_bibl/Safety_and_Usability_of_Speech_Interfaces_for_In-V.pdf Safety and Usability of Speech Interfaces for In-Vehicle Tasks while Driving: A Brief Literature Review], Adriana Barón and Paul Green, Tec/. Report, The University of Michigan Transportation Research Institute, 2006.
*  [https://www.enib.fr/~chevaill/documents/master/siia_bibl/Safety_and_Usability_of_Speech_Interfaces_for_In-V.pdf Safety and Usability of Speech Interfaces for In-Vehicle Tasks while Driving: A Brief Literature Review], Adriana Barón and Paul Green, Tec/. Report, The University of Michigan Transportation Research Institute, 2006.


== Sujets d'étude 2020-2021 ==
== Sujets libres (sans lien avec un stage ou lié à un stage non attribué) ==


En cours de construction...
=== How telepresence systems can support collaborative dynamics in large interactive spaces? ===
* Enseignant : [mailto:cedric.fleury@imt-atlantique.fr Cédric Fleury]
* Sujet en lien avec un stage : non.


* B01 :  '''Application de l'anticipation de texte: prise de parole d'un agent virtuel''' (stage)
Videoconferencing and telepresence have long been a way to enhance communication among remote users. They improve turn-taking, mutual understanding, and negotiation of common ground by supporting non-verbal cues such as eye-gaze direction, facial expressions, gestures, and body langue [3, 6, 10]. They are also an effective solution to avoid the "Uncanny Valley" effect [7] that can be encountered when using avatars.
** Encadrants : Pierre Chevaillier et Pierre De Loor
** Etudiant : Pierre Henry


* B02 :  '''Apprentissage par démonstration en robotique : traitement des données et expérimentations''' (stage)
However, such systems are often limited to basic setups in which each user must seat in front of a computer equipped with a camera. Other systems, such as Multiview [9] or MMSpace [8], handle groups, but still only group-to-group conversations are possible. This leads to awkward situations in which colleagues in the same building stay in their office to attend a videoconference meeting instead of attending together, or participants are forced to have side conversations via chat. More recent work investigates dynamic setups that allow users to move into the system and interact with share content. t-Rooms [5] displays remote users on circular screens around a tabletop. CamRay [1] handles video communication between two users interacting on remote wall-sized displays. GazeLens [4] integrates a remote user in a group collaboration around physical artifacts on a table. Nevertheless, such systems do not support different moments in the collaboration, such as tightly coupled and loose collaboration, subgroup collaboration, spontaneous or side discussions. Supporting such dynamics in collaboration is a major challenge for the next telepresence systems.
** Encadrants : Amélie Legeleux, Dominique Duhaut
** Etudiant : Jérémie Donjat


* B03 : '''Implémentation et comparaison des algorithmes d’apprentissage par démonstration''' (stage)
[1]  I. Avellino, C. Fleury, W. Mackay and M. Beaudouin-Lafon. “CamRay: Camera Arrays Support Remote Collaboration on Wall-Sized Displays”. Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’17). 2017.
** Encadrants : Amélie Legeleux, Dominique Duhaut
** Etudiant : Elouan Even


* B04 : '''Créativité computationnelle - application à la génération de textes poétiques''' (stage)
[3]  E. A. Isaacs and J. C. Tang. “What Video Can and Can’t Do for Collaboration: A Case Study.” Proceedings of the ACM International Conference on Multimedia (MULTIMEDIA’93). 1993.
** Encadrants : Anne-Gwenn Bosser et Pierre De Loor
** Etudiant : Kévin Cornut


* B05 : '''Robotique en essaim, SMA, RA, tangible''' (stage)
[4]  K.-D. Le, I. Avellino, C. Fleury, M. Fjeld, A. Kunz. “GazeLens: Guiding Attention to Improve Gaze Interpretation in Hub-Satellite Collaboration”. Proceedings of the Conference on Human- Computer Interaction (INTERACT’19). 2019.
** Encadrants : Jérémy Rivière, Sébastien Kubicki, Vincent Rodin
*** Etudiant : Dorian Leveque


* B06 : '''Utilisation d'interfaces tangibles pour la Réalité Virtuelle''' (stage)
[5]  P. K. Luff, N. Yamashita, H. Kuzuoka, and C. Heath. “Flexible Ecologies And Incongruent Locations.” Proceedings of the Conf. on Human Factors in Computing Systems. (CHI ’15). 1995.
** Encadrants : Thierry Duval, Sébastien Kubicki, Jérémy Rivière, Vincent Rodin
** Etudiant : Aymeric Henard


* B07 : '''Utilisation d'interfaces tangibles pour la navigation temporelle en Réalité Virtuelle''' (stage)
[6] A. F. Monk and C. Gale. “A Look Is Worth a Thousand Words: Full Gaze Awareness in Video- Mediated Conversation.” In: Discourse Processes 33.3, 2002, pp. 257–278.
** Encadrants : Sébastien Kubicki, Ronan Querrec
** Etudiant : Romain Biannic


* B08 : '''Dématérialisation de l'argent liquide''' (stage)
[7]  M. Mori, K. F. MacDorman and N. Kageki, “The Uncanny Valley [From the Field]”, IEEE Robotics & Automation Magazine, vol. 19, no. 2, pp. 98-100, 2012.
** Encadrants : Sébastien Kubicki
** Etudiant :


* B09 : '''Analyse d’activités dans une maison intelligente à l’aide d’un digital twin''' (stage)
[8]  K. Otsuka, “MMSpace: Kinetically-augmented telepresence for small group-to-group conversations”. Proceedings of 2016 IEEE Virtual Reality (VR’16). 2016.
** Encadrants : Christophe Lohr et Sao Mai Nguyen
** Etudiante : Juliette Grosset


* B10 : '''Interactions Humain-Essaim de drones'''
[9] A. Sellen, B. Buxton, and J. Arnott. “Using Spatial Cues to Improve Videoconferencing.” Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI ’92). 1992.
** Enseignant référent : Jérémy Rivière
** Sujet : L'étude des "Robot swarms", ou essaims de robots, porte sur les systèmes comprenant de nombreux robots - ou drones - volants, roulants, etc. qui se coordonnent de façon autonome, à partir de règles de contrôle locales basées sur les perceptions du robot et son état actuel, à la manière d'agents dans les SMA (systèmes multi-agents). L'interaction entre un opérateur humain et un essaim de robots ouvre la porte à de nouveaux moyens de contrôle ou d'influence du comportement de l'essaim. Il est demandé dans ce travail de faire un état de l'art des différentes problématiques que l'interaction soulèvent, et des différents moyens d'interaction mis en place dans les travaux de recherche. On s'intéressera plus particulièrement à 2 grands types d'interaction : interaction à distance, où l'opérateur n'est pas présent dans le même environnement que l'essaim, et interaction directe ou indirecte dans un environnement partagée.
** Références :
*** A. Kolling, P. Walker, N. Chakraborty, K. Sycara and M. Lewis, Human Interaction With Robot Swarms: A Survey, in IEEE Transactions on Human-Machine Systems, vol. 46, no. 1, pp. 9-26, Feb. 2016.
*** Mclurkin, James & Smith, Jennifer & Frankel, James & Sotkowitz, David & Blau, David & Schmidt, Brian. (2006). "Speaking Swarmish: Human-Robot Interface Design for Large Swarms of Autonomous Mobile Robots". AAAI, 72-75.
*** Nagi, Jawad & Giusti, Alessandro & Gambardella, Luca & Di Caro, Gianni. (2014). "Human-Swarm Interaction Using Spatial Gestures". IEEE International Conference on Intelligent Robots and Systems.


* B11 : '''Altruisme et Systèmes Multi-Agents'''
[10]  E. S. Veinott, J. Olson, G. M. Olson, and X. Fu. “Video Helps Remote Work: Speakers Who Need to Negotiate Common Ground Benefit from Seeing Each Other.” Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’99). 1999.
** Enseignant référent : Jérémy Rivière
** étudiant :
** Sujet : L'altruisme a été utilisé dans plusieurs travaux de recherche concernant les SMA, autant en résolution de problèmes qu'en simulation. Ce travail consiste à recenser de la façon la plus exhaustive possible ces travaux, en s'intéressant au comportement des agents altruistes : quels sont les points communs de ces agents ? Peut-on en déduire une (ou plusieurs) définition(s) de l'altruisme ?
**Références :
*** SIMONIN O., FERBER J., « Modélisation des satisfactions personnelle et interactive d'agents situés coopératifs », JFIADSMA'01, Montreal, Canada, 2001, p. 215-226.
*** Lucidarme, Philippe & Simonin, Olivier & Liegeois, A. "Implementation and Evaluation of a Satisfaction/Altruism Based Architecture for Multi-Robot Systems". IEEE International Conference on Robotics and Automation, pp 1007 - 1012 vol.1 (2002)
*** Lounis Adouane, Nadine Le Fort-Piat. "Hybrid Behavioral Control Architecture for the Cooperation of Minimalist Mobile Robots". ICRA’04, International Conference On Robotics And Automation, 2004, New Orleans, United States.
*** Valérie Camps, Marie-Pierre Gleizes. "Réflexions sur l’apprentissage en univers multi-agents". Journée du PRC GDR IA, "Les systèmes multi-agents", Toulouse, Février 1996 et Journées du PRC GDR IA, Grenoble Mars 1997, Editions Hermès.
*** Mitteldorf and Wilson, 2000, "Population Viscosity and the Evolution of Altruism", Journal of Theoretical Biology, v.204, pp.481-496. (aussi un modèle NetLogo :  http://ccl.northwestern.edu/netlogo/models/Altruism)
*** https://www.comses.net/codebases/?query=altruism


* B12 : '''Comment améliorer la présence sociale d’humains virtuels dans des environnements de réalité virtuelle ou en réalité augmentée ?'''
=== How to represent the physical space surrounding users in remote AR collaboration? ===
** Enseignant référent : Pierre Chevaillier
* Enseignants : [mailto:cedric.fleury@imt-atlantique.fr Cédric Fleury] et [mailto:thierry.duval@imt-atlantique.fr Thierry Duval]
** Etudiant :  
* Sujet en lien avec un stage : oui ([[Stages|Hybrid Collaborative across Heterogeneous Devices]])  
** Sujet : En réalité virtuelle la notion de présence sociale renvoie au fait que les utilisateurs ont « le sentiment d’être ensemble » dans l’environnement virtuel. Plus récemment, la présence sociale a également été étudiée dans des dispositifs de réalité augmentée. Quand l’environnement virtuel est peuplé d’humains virtuels (agents autonomes animés et représentés visuellement) la question de la présence sociale se pose aussi dans l’interaction entre les utilisateurs et ces humains virtuels. Plusieurs facteurs peuvent influencer la présence sociale de ces derniers : apparence physique, comportements, mode de rendu… L’objectif de cette étude est d’identifier comment la modélisation (comportementale ou graphique) des humains virtuels peut faciliter leur présence sociale et comment celle-ci peut être évaluée.
* '''stage non attribué'''
** Références
*** Manuel Guimarães, Rui Prada, Pedro A. Santos, João Dias, Arnav Jhala, Samuel Mascarenhas, 2020, The Impact of Virtual Reality in the Social Presence of a Virtual Agent , In IVA ’20: Proceedings of the 20th ACM Interna- tional Conference on Intelligent Virtual Agents (IVA ’20), October 19-23, 2020, Virtual Event, Scotland Uk. ACM, 8 pages. https://doi.org/10.1145/3383652. 3423879
*** Kangsoo Kim, Divine Maloney, Gerd Bruder, Jeremy N. Bailenson, Gregory F. Welch, 2017, The effects of virtual human’s spatial and behavioral coherence with physical objects on social presence in AR, Comput Anim Virtual Worlds. Wiley, e1771. DOI: 10.1002/cav.1771
*** Catherine S. Oh, Jeremy N. Bailenson, Gregory F. Welch, 2018, A Systematic Review of Social Presence: Definition, Antecedents, and Implications Front. Robot. AI 5:114. doi: 10.3389/frobt.2018.00114


* B13 : '''Effet sur la présence sociale de la reconstruction en temps réel du corps des utilisateurs en réalité virtuelle et en réalité mixte'''
Augmented Reality (AR) is becoming a very popular technology to support remote collaboration, as it enables users to share virtual content with distant collaborators. However, sharing the physical spaces surrounding users is still a major challenge. Each user involved in an AR collaborative situation enters the shared environment with a part of its own environment [4, 9]. For example, this space can be shared in several ways for two remote users [3]: (i) in an equitable mode (i.e., half from user 1 and half from user 2) [5], (ii) in a host-guest situation where the host imposes the shape of the augmented environment to the guest [7, 8], or (iii) in a mixed environment specifically designed for the collaborative task [6]. Whatever the configuration, the question of how users perceive and use this shared environment arises [2]
** Enseignant référent : Pierre Chevaillier
** Etudiant :
**Sujet : En réalité virtuelle la notion de présence sociale renvoie au fait que les utilisateurs ont « le sentiment d’être ensemble » dans l’environnement virtuel. Plus récemment, la présence sociale a également été étudiée dans des dispositifs de réalité augmentée. On s’intéresse ici aux dispositifs dits « collaboratifs » dans lesquels plusieurs utilisateurs interagissent simultanément sans pourvoir voir le corps réel des autres. Dans ce cas, il est nécessaire de synthétiser une représentation graphique de leur corps. Celle-ci peut être photoréaliste, simplifiée ou métaphorique. Ces différentes solutions n’ont pas le même effet sur la présence sociale. L’objectif de cette étude est d’identifier, les avancées scientifiques les plus récentes qui ont permis d’identifier les facteurs prépondérant sur la présence sociale de la reconstruction du corps des utilisateurs selon les contextes (RV, RM).  
** Références
*** S. Cho, S. Kim, J. Lee, J. Ahn and J. Han, 2020, Effects of volumetric capture avatars on social presence in immersive virtual environments, IEEE Conference on Virtual Reality and 3D User Interfaces (VR), Atlanta, GA, USA, 2020, pp. 26-34, doi: 10.1109/VR46266.2020.00020.
*** B. Yoon, H. Kim, G. A. Lee, M. Billinghurst and W. Woo, "The Effect of Avatar Appearance on Social Presence in an Augmented Reality Remote Collaboration," 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR), Osaka, Japan, 2019, pp. 547-556, doi: 10.1109/VR.2019.8797719.


* B14 : '''Méthodes récentes de reconstruction en temps réel du corps d’un utilisateur en environnement virtuel'''
[1] H. H. Clark, and S. E. Brennan. "Grounding in communication". In: L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association. 1991.
** Enseignant référent : Pierre Chevaillier
** Etudiant :
** Sujet : La synthèse en temps réel du corps d’un utilisateur (p. ex. un acteur) dans un environnement virtuel est complexe. La synthèse en temps réel du corps d’un utilisateur (p. ex. un acteur) dans un environnement virtuel est complexe. L’objectif est de synthétiser un modèle graphique qui représente l’utilisateur dans l’environnement virtuel (son avatar). Ceci nécessite au préalable de « capturer » lla forme, voire l’apparence, du corps de l’utilisateur. Pour cela plusieurs techniques ont été développées. L’objectif de cette étude est de faire une synthèse des méthodes récentes permettant d’y arriver.
** Références
*** P. Caserman, A. Garcia-Agundez and S. Göbel, "A Survey of Full-Body Motion Reconstruction in Immersive Virtual Reality Applications," in IEEE Transactions on Visualization and Computer Graphics, vol. 26, no. 10, pp. 3089-3108, 1 Oct. 2020, doi: 10.1109/TVCG.2019.2912607.
(https://ieeexplore.ieee.org/abstract/document/8695841)
*** Zeng Huang, Yuanlu Xu, Christoph Lassner, Hao Li, Tony Tung; ARCH: Animatable Reconstruction of Clothed Humans, Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 3093-3102


* B15 : '''Génération de comportements non-verbaux d’humains virtuels pour faciliter les interactions avec des humains virtuels lors de conversations à multipartites.'''
[2] S. R. Fussell, R. E. Kraut, and J. Siegel. “Coordination of communication: effects of shared visual context on collaborative work”. Proceedings of the 2000 ACM conference on Computer supported cooperative work (CSCW '00). 2000.
** Enseignant référent : Pierre Chevaillier
** Etudiant :
** Sujet : Lors de conversations à plusieurs les humains produisent de nombreux comportements dits « non-verbaux » qui facilitent l’interaction. Ces comportements sont de diverses natures. Si l’on souhaite simuler des humains virtuels (agents autonomes animés et représentés visuellement), éventuellement en interaction avec des utilisateurs, il nécessaire de les doter des comportements observés chez les humains. Ces comportements peuvent concerner l’animation du visage, des mouvements d’une partie du corps, des gestes, des postures. L’objectif de cette étude est faire une synthèse des travaux récents sur la génération de comportements communicatifs non verbaux, plus spécifiquement dans le cadre de communications verbales multipartites dans des environnements virtuels.  
** Références
*** Reshmashree Bangalore Kantharaju , Catherine Pélachaud, 2018, Towards Developing a Model to Handle Multiparty Conversations for Healthcare Agents, ICAHGCA@AAMAS 2018: 30-34
*** Ravenet Brian, Pelachaud Catherine, Clavel Chloé, Marsella Stacy, 2018, Automating the Production of Communicative Gestures in Embodied Characters,Frontiers in Psychology, 9:1144, doi :10.3389/fpsyg.2018.01144
*** Oertel C, Castellano G, Chetouani M., Nasir J, Obaid M, Pelachaud C andPeters C, 2020, Engagement in Human-Agent Interaction: An Overview. Front. Robot. AI 7:92. doi: 10.3389/frobt.2020.00092


* B16 : '''Quels sont les facteurs principaux permettant de réduire la cybersickness dans les casques de réalité virtuel ?'''
[3] B. T. Kumaravel, F. Anderson, G. Fitzmaurice, B. Hartmann, and Tovi Grossman. "Loki:Facilitating Remote Instruction of Physical Tasks Using Bi-Directional Mixed-Reality Telepresence". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '19), 2019.
** Enseignant référent : Pierre Chevaillier
** Etudiant :
** Sujet : La cybersickness, appelée aussi parfois le mal des simulateurs, survient très rapidement chez certains utilisateurs et constitue donc un frein à l’utilisation de dispositifs de réalité virtuelle. Ce problème est devenu plus prégnant récemment avec l’augmentation de l’usage des casques de réalité virtuelle. Les concepteurs de dispositifs de réalité virtuelle ont chercher à identifier les facteurs influençant la cybersickness de façon à proposer des méthodes pour la réduire. Il peut s’agir de méthode de rendu visuel ou d’interaction, génériques ou au contraire spécifiques à tel type de tâche. L’objectif de cette étude est de faire une synthèse des connaissances sur les principaux facteurs qui affectent la survenue de la cybersickness et comment la réduire (ou la retarder).
** Références
*** Kemeny A., Chardonnet JR., Colombet F. (2020) Reducing Cybersickness. In: Getting Rid of Cybersickness. Springer, https://doi.org/10.1007/978-3-030-59342-1₄
*** Weech, S., Wall, T. & Barnett-Cowan, M. Reduction of cybersickness during and immediately following noisy galvanic vestibular stimulation. Exp Brain Res 238, 427–437 (2020).
*** Yildirim, C. Don’t make me sick: investigating the incidence of cybersickness in commercial virtual reality headsets. Virtual Reality 24, 231–239 (2020). https://doi.org/10.1007/s10055-019-00401-0
*** Andras Kemeny, Paul George, Frédéric Merienne, Florent Colombet. New VR Navigation Techniquesto Reduce Cybersickness. The Engineering Reality of Virtual Reality, Jan 2017, San Francisco, UnitedStates. pp.48-53, ?10.2352/ISSN.2470-1173.2017.3.ERVR-097?. ?hal-01779593?
*** Pulkit Budhiraja, Mark Roman Miller, Abhishek K Modi, David Forsyth, 2017, Rotation Blurring: Use of Artificial Blurring to Reduce Cybersickness inVirtual Reality First Person Shooters


* B17 : '''AIoT: Enforcing end-to-end privacy and trust for federated learning in the IoT''' (stage)
[4] P. Ladwig and C. Geiger. “A Literature Review on Collaboration in Mixed Reality”. International Conference on Remote Engineering and Virtual Instrumentation (REV). 2018.
** Enseignant référent :  (INSA Lyon)
** étudiant : Yacine Belal


* B18 : '''Couplage sensori-moteur pour l’action conjointe dynamique entre agent virtuel et humain''' (stage)
[5] N. H. Lehment, D. Merget and G. Rigoll. "Creating automatically aligned consensus realities for AR videoconferencing". IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2014.
** Enseignant référent :
** étudiant : Mael Donnard


* B19 : '''Réseaux de neurones pour la recherche de motifs et compression de graphes'''
[6] T. Mahmood, W. Fulmer, N. Mungoli, J. Huang and A. Lu. "Improving Information Sharing and Collaborative Analysis for Remote GeoSpatial Visualization Using Mixed Reality". IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2019.
** Enseignant référent : (LIRIS, Lyon)
** étudiant : Walid Megherbi


* B20 : '''Environnement peuplé d'agents pour l'entraînement aux habiletés sociales en réalité virtuelle'''
[7] O. Oda, C. Elvezio, M. Sukan, S. Feiner, and B. Tversky. "Virtual Replicas for Remote Assistance in Virtual and Augmented Reality". Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15), 2015.
** Enseignante référente : Anne-Gwenn Bosser
** étudiant : Erwann Cadour


* B21 : '''Reconnaissance d’activité humaine à partir de capteurs portés''' (stage)
[8] S. Orts-Escolano, C. Rhemann, S. Fanello, W. Chang, A. Kowdle, Y. Degtyarev, and al. “Holoportation: Virtual 3D Teleportation in Real-time”. Proceedings of the 29th Annual Symposium on User Interface Software and Technology (UIST '16). 2016.
** Enseignant référent : Alexis Nédélec
** étudiant : Pierre Le Dez


* B22 : '''modélisation de l’engagement des apprenants dans les formations'''
[9] M. Sereno, X. Wang, L. Besancon, M. J. Mcguffin and T. Isenberg, "Collaborative Work in Augmented Reality: A Survey". IEEE Transactions on Visualization and Computer Graphics. 2020.
** Enseignant référent : Issam Rebai
** étudiant :
** Sujet : La situation sanitaire depuis l’apparition du COVID-19, impose l’usage de la formation à distance dans l’enseignement supérieur ainsi que dans les lycées et les collèges. Dans cette situation, les enseignants ont du mal à assurer correctement leur mission d’apprentissage car ils ne disposent plus du feedback direct qu’ils avaient dans une salle de classe. Ce feedback informel perçu par le comportement des apprenants leur permet de connaitre leur motivation et leur engagement. Les outils numériques utilisés lors des sessions de formations à distances (LMS, MOOC, etc.) collectent des traces d’activité des apprenants. Ces données sont une mine d’informations qui peut être utilisée pour fournir un retour aux enseignants. Nous cherchons dans le cadre de nos activités de recherche à faire dégager de ses traces des informations sur l’engagement et la motivation des apprenants, deux notions importantes dans la réussite d’une formation. Selon Séverine Parent, "la motivation est la force qui pousse l’apprenant à faire le premier pas vers l’action. L’engagement est celle qui propulse, amène à faire le deuxième pas et les suivants. (...) La motivation serait donc le premier pas qui peut mener à l’engagement." Dans cette étude bibliographique, nous souhaitons réaliser un premier état de l’art sur la notion d’engagement en apprentissage humain tel qu’elle est perçue par la communauté SHS (Science Humaine et Social), les pédagogues ou encore les psychologues. L’objectif de cette étude est de pouvoir par la suite choisir ou définir un modèle de l’engagement pour l’implémenter en informatique.
** Références bibliographiques
*** Carini, R.M., Kuh, G.D. & Klein, S.P. Student Engagement and Student Learning: Testing the Linkages*. Res High Educ 47, 1–32 (2006). https://doi.org/10.1007/s11162-005-8150-9
*** George D. Kuh (2003) What We're Learning About Student Engagement From NSSE: Benchmarks for Effective Educational Practices, Change: The Magazine of Higher Learning, 35:2, 24-32, DOI: 10.1080/00091380309604090
*** Christenson, S.L. and Reschly, A.L. and Wylie, C. Handbook of Research on Student Engagement, Springer Science & Business Media, 2012. isbn 1461420180, 9781461420187


* B23 : '''teleoperation en cobotique''' (stage)
=== Principes et mise en oeuvre des architectures de Machine Learning de type « Transformers » ===
** Enseignant référent : Cédric Buche
* Enseignant :  [mailto:pierre.deloor@enib.fr Pierre De Loor]
** étudiant : Mathis Baubriaud
* Sujet en lien avec un stage : non.
 
[[Media:BIBL-2021_Deloor_SujetBiblioTransformer.pdf| Résumé du sujet]]
 
=== Sujet sur les réseaux adversiaux génératifs (GAN) ===
* Enseignant :  [mailto:pierre.deloor@enib.fr Pierre De Loor]
* Sujet en lien avec un stage : non
 
[[Media:Generative_Adversial_Networks_2022.pdf| Résumé du sujet]]
 
=== Modèle du comportement réactif du regard pour un agent virtuel inoccupé, basé sur signaux visuels et acoustiques ===
* Enseignants : [mailto:elisabetta.bevacqua@enib.fr Elisabetta Bevacqua] et [mailto:desmeulles@enib.fr Gireg Desmeulles]
* Sujet en lien avec un stage : oui ([[Stages]])
* '''stage non attribué'''
 
=== Informatique affective : myographie et réalité virtuelle  ===
* Enseignants : [mailto:augereau@enib.fr Olivier Augereau]
* Sujet en lien avec un stage : oui ([[Stages]])
* '''stage non attribué'''
 
=== Exploitation de données de League of Legends pour l'étude de la complexité dans les décisions humaines ===
* Enseignants : [mailto:augereau@enib.fr Olivier Augereau]
* Sujet en lien avec un stage : oui ([[Stages]])
* '''stage non attribué'''
 
===  Comment simuler de façon efficace et réaliste les essaims de robots ? ===
* Enseignant : [mailto:jeremy.riviere@univ-brest.fr Jérémy Rivière]
* Sujet en lien avec un stage : non.
 
L'étude des "Robot swarms", ou essaims de robots, porte sur les systèmes comprenant de nombreux robots - ou drones - volants, roulants, etc. qui se coordonnent de façon autonome, à partir de règles de contrôle locales basées sur les perceptions du robot et son état actuel. La conception du comportement de ces robots passent le plus souvent par un outil de simulation. Cette étude bibliographique s'intéresse aux plateformes de simulation existantes d'essaims de robots. L'objectif est de proposer le recensement le plus exhaustif possible de ces plateformes, d'en faire une synthèse, et de les catégoriser selon des critères à définir : efficacité, réalisme, langage de programmation, licence, portabilité, etc.
 
[1] Yihan Zhang, Lyon Zhang, Hanlin Wang, Fabián E. Bustamante, and Michael Rubenstein. 2020. SwarmTalk - Towards Benchmark Software Suites for Swarm Robotics Platforms. In Proceedings of the 19th International Conference on Autonomous Agents and MultiAgent Systems (AAMAS '20). International Foundation for Autonomous Agents and Multiagent Systems, Richland, SC, 1638–1646.
 
[2] Schranz, M., Umlauft, M., Sende, M., & Elmenreich, W. (2020). Swarm Robotic Behaviors and Current Applications. Frontiers in robotics and AI, 7, 36. https://doi.org/10.3389/frobt.2020.00036
 
[3] Webots
 
Mots-clés : Multi-robot System, Swarm Robotic, Simulation Platform, Robot Simulator
 
===  Comment simuler de façon efficace et réaliste les systèmes multicellulaires ? ===
* Enseignant : [mailto:pascal.ballet@univ-brest.fr Pascal Ballet]
* Sujet en lien avec un stage : non.
 
Cette étude bibliographique s'intéresse aux plateformes de simulation existantes de cellules vivantes par l'approche multiagent ou assimilées (modèle cellulaire de Potts, automates cellulaire). L'objectif est de proposer le recensement le plus exhaustif possible de ces plateformes, d'en faire une synthèse, et de les catégoriser selon des critères à définir : efficacité, réalisme, langage de programmation, licence, portabilité, etc.
 
[1] Seunghwa Kang, Simon Kahan, Jason McDermott, Nicholas Flann, Ilya Shmulevich, Biocellion : accelerating computer simulation of multicellular biological system models , Bioinformatics, Volume 30, Issue 21, 1 November 2014, Pages 3101–3108, https://doi.org/10.1093/bioinformatics/btu498
 
[2] Starruß, J., De Back, W., Brusch, L., & Deutsch, A. (2014). Morpheus: a user-friendly modeling environment for multiscale and multicellular systems biology. Bioinformatics, 30(9), 1331-1332.
 
[3] Morpheus, https://morpheus.gitlab.io/
 
[4] Swat, M. H., Thomas, G. L., Belmonte, J. M., Shirinifard, A., Hmeljak, D., & Glazier, J. A. (2012). Multi-scale modeling of tissues using CompuCell3D. In Methods in cell biology (Vol. 110, pp. 325-366). Academic Press.
 
[5] Ballet, P. (2018). SimCells, an advanced software for multicellular modeling Application to tumoral and blood vessel co-development.
 
[6] Centillyon, https://centyllion.com/fr/
 
Mots clés : Cellular Potts Model, Multi-agent, Multi-cellular simulator.
 
=== IA pour la traduction automatique de l'humour et des jeux de mots ===
* Enseignant : [mailto:bosser@enib.fr Anne-Gwenn Bosser]
* Sujet en lien avec un stage : non
 
[[Media:JOKER_-_Sujets_bibliographie_2022-23.pdf| Résumé du sujet]]
 
== Sujets inclus dans les stages affectés ==
 
=== Techniques for localized data representation in Augmented Reality ===
* Enseignants : [mailto:etienne.peillard@imt-atlantique.fr Etienne Peillard] et [mailto:Aymeric.Henard@univ-brest.fr Aymeric Henard]
* Sujet en lien avec un stage : oui ([[Stages|Visualisation immersive et localisée de données en Réalité Augmentée]])
* '''stage attribué'''
 
Augmented reality allows for the superimposition of virtual elements in a real-world environment that can be associated with it. It enables, for example, the display of temperature data in a room to visually identify cold spots, or the display of robot speed and trajectory to understand their movement. However, the display possibilities are twofold: the data to be displayed can be of various types (discrete/continuous, 1D/2D/3D/see 4D), and there are numerous ways to display them. Furthermore, due to augmented reality's limitations, some techniques may not be adapted or may cause display issues, particularly when the visualizations become distant or overlapping. This research topic aims to review all of the techniques that allow data to be displayed in AR in a co-localized manner, identifying their benefits and drawbacks as detailed in the scientific literature.
 
[1] Olshannikova, Ekaterina ; Ometov, Aleksandr ; Koucheryavy, Yevgeni ; Olsson, Thomas: Visualizing Big Data with augmented and virtual reality: challenges and research agenda. In: Journal of Big Data Bd. 2, SpringerOpen (2015), Nr. 1, S. 1–27
 
[2] Hedley, Nicholas R. ; Billinghurst, Mark ; Postner, Lori ; May, Richard ; Kato, Hirokazu: Explorations in the use of augmented reality for geographic visualization. In: Presence: Teleoperators and Virtual Environments Bd. 11 (2002), Nr. 2, S. 119–133
 
[3] Olshannikova, Ekaterina ; Ometov, Aleksandr ; Koucheryavy, Yevgeni: Towards big data visualization for augmented reality. In: Proceedings - 16th IEEE Conference on Business Informatics, CBI 2014 Bd. 2, Institute of Electrical and Electronics Engineers Inc. (2014), S. 33–37 — ISBN 9781479957781
 
[4] Miranda, Brunelli P. ; Queiroz, Vinicius F. ; Araújo, Tiago D.O. ; Santos, Carlos G.R. ; Meiguins, Bianchi S.: A low-cost multi-user augmented reality application for data visualization. In: Multimedia Tools and Applications Bd. 81, Springer (2022), Nr. 11, S. 14773–14801
 
[5] Martins, Nuno Cid ; Marques, Bernardo ; Alves, João ; Araújo, Tiago ; Dias, Paulo ; Santos, Beatriz Sousa: Augmented reality situated visualization in decision-making. In: Multimedia Tools and Applications Bd. 81, Springer (2022), Nr. 11, S. 14749–14772
 
=== How collaboration in mixed reality can benefit from the use of heterogeneous devices? ===
 
* Enseignants : [mailto:cedric.fleury@imt-atlantique.fr Cédric Fleury] et [mailto:etienne.peillard@imt-atlantique.fr Etienne Peillard]
* Sujet en lien avec un stage : oui ([[Stages|Perception of Shared Spaces in Collaborative Augmented Reality]])
* '''stage attribué'''
 
The massive development of display technologies brings a wide range of new devices, such as mobile phones, AR/VR headsets and large displays, available to the general public. These devices offer many opportunities for co-located and remote collaboration on physical and digital content. Some can handle groups of co-located users [10, 13], while others enable remote users to connect in various situations [3, 6, 11, 14]. For example, some previous systems allow users to use a mobile device to interact with a co-located partner wearing a VR headset [4, 7]. Other systems enable users in VR to guide a remote collaborator using an AR headset [1, 8, 9, 12].
[1] H. Bai, P. Sasikumar, J. Yang, and M. Billinghurst. "A User Study on Mixed Reality Remote
Collaboration with Eye Gaze and Hand Gesture Sharing". Proceedings of the CHI Conference on
Human Factors in Computing Systems (CHI’20), 2020.
 
[2] H. H. Clark, and S. E. Brennan. "Grounding in communication". In: L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association. 1991.
 
[3] C. Fleury, T. Duval, V. Gouranton, A. Steed. "Evaluation of Remote Collaborative Manipulation for Scientific Data Analysis", ACM Symposium on Virtual Reality Software and Technology (VRST’12), 2012.
 
[4] J. Gugenheimer, E. Stemasov, J. Frommel, and E. Rukzio. "ShareVR: Enabling Co-Located Experiences for Virtual Reality between HMD and Non-HMD Users". Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI '17), 2017.
 
[5] J. Hollan and S. Stornetta. "Beyond being there". In : Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’92), 1992.
 
[6] B. T. Kumaravel, F. Anderson, G. Fitzmaurice, B. Hartmann, and Tovi Grossman. "Loki:Facilitating Remote Instruction of Physical Tasks Using Bi-Directional Mixed-Reality Telepresence". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '19), 2019.
 
[7] B. T. Kumaravel, C. Nguyen, S. DiVerdi, and B. Hartmann. "TransceiVR: Bridging Asymmetrical Communication Between VR Users and External Collaborators". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '20), 2020.
 
[8] M. Le Chénéchal, T. Duval, J. Royan, V. Gouranton, and B. Arnaldi. “Vishnu: Virtual Immersive Support for HelpiNg Users - An Interaction Paradigm for Remote Collaborative Maintenance in Mixed Reality”. Proceedings of 3DCVE 2016 (IEEE VR 2016 International Workshop on 3D Collaborative Virtual Environments). 2016.
 
[9] M. Le Chénéchal, T. Duval, V. Gouranton, J. Royan, and B. Arnaldi. “The Stretchable Arms for Collaborative Remote Guiding”. Proceedings of ICAT-EGVE 2015, Eurographics. 2015.
 
[10] C. Liu, O. Chapuis, M. Beaudouin-Lafon, and E. Lecolinet. “Shared Interaction on a Wall-Sized Display in a Data Manipulation Task.” In: Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. CHI ’16.
 
[11] P. Mohr, S. Mori, T. Langlotz, B. H. Thomas, D. Schmalstieg, and D. Kalkofen. "Mixed Reality Light Fields for Interactive Remote Assistance". Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI’20), 2020.
 
[12] O. Oda, C. Elvezio, M. Sukan, S. Feiner, and B. Tversky. "Virtual Replicas for Remote Assistance in Virtual and Augmented Reality". Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15), 2015.
 
[13] Y. Okuya, O. Gladin, N. Ladévèze, C. Fleury, P. Bourdot. "Investigating Collaborative Exploration of Design Alternatives on a Wall-Sized Display", ACM Conference on Human Factors in Computing Systems (CHI’20), 2020.
 
[14] H. Xia, S. Herscher, K. Perlin, and D. Wigdor. "Spacetime: Enabling Fluid Individual and Collaborative Editing in Virtual Reality". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST ’18), 2018.

Dernière version du 28 novembre 2022 à 09:54


Méthode de travail et objectifs

Affectations sujets

Here is a shared table that presents the different subjects of study: list of studies.

Students are invited to indicate their choice(s) in this table.

Indications générales

Voici quelques indications pour la rédaction de l'étude bibliographique et sa restitution orale : instructions biblio (révision nov. 2020).

Documents à étudier

Comme toute technique d'ingénierie, ou toute démarche scientifique, la réalisation d'une étude bibliographique, appelée aussi revue de littérature (littérature review), doit être réalisée de manière méthodique et apporter des éléments pour en apprécier la justesse et la pertinence. Même si les motivations pour réaliser un tel exercice peuvent être diverses, dans ses grandes lignes, la méthodologie reste la même.

Voici quelques documents à lire avant et pendant la réalisation de votre étude.

Sujets libres (sans lien avec un stage ou lié à un stage non attribué)

How telepresence systems can support collaborative dynamics in large interactive spaces?

Videoconferencing and telepresence have long been a way to enhance communication among remote users. They improve turn-taking, mutual understanding, and negotiation of common ground by supporting non-verbal cues such as eye-gaze direction, facial expressions, gestures, and body langue [3, 6, 10]. They are also an effective solution to avoid the "Uncanny Valley" effect [7] that can be encountered when using avatars.

However, such systems are often limited to basic setups in which each user must seat in front of a computer equipped with a camera. Other systems, such as Multiview [9] or MMSpace [8], handle groups, but still only group-to-group conversations are possible. This leads to awkward situations in which colleagues in the same building stay in their office to attend a videoconference meeting instead of attending together, or participants are forced to have side conversations via chat. More recent work investigates dynamic setups that allow users to move into the system and interact with share content. t-Rooms [5] displays remote users on circular screens around a tabletop. CamRay [1] handles video communication between two users interacting on remote wall-sized displays. GazeLens [4] integrates a remote user in a group collaboration around physical artifacts on a table. Nevertheless, such systems do not support different moments in the collaboration, such as tightly coupled and loose collaboration, subgroup collaboration, spontaneous or side discussions. Supporting such dynamics in collaboration is a major challenge for the next telepresence systems.

[1] I. Avellino, C. Fleury, W. Mackay and M. Beaudouin-Lafon. “CamRay: Camera Arrays Support Remote Collaboration on Wall-Sized Displays”. Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’17). 2017.

[3] E. A. Isaacs and J. C. Tang. “What Video Can and Can’t Do for Collaboration: A Case Study.” Proceedings of the ACM International Conference on Multimedia (MULTIMEDIA’93). 1993.

[4] K.-D. Le, I. Avellino, C. Fleury, M. Fjeld, A. Kunz. “GazeLens: Guiding Attention to Improve Gaze Interpretation in Hub-Satellite Collaboration”. Proceedings of the Conference on Human- Computer Interaction (INTERACT’19). 2019.

[5] P. K. Luff, N. Yamashita, H. Kuzuoka, and C. Heath. “Flexible Ecologies And Incongruent Locations.” Proceedings of the Conf. on Human Factors in Computing Systems. (CHI ’15). 1995.

[6] A. F. Monk and C. Gale. “A Look Is Worth a Thousand Words: Full Gaze Awareness in Video- Mediated Conversation.” In: Discourse Processes 33.3, 2002, pp. 257–278.

[7] M. Mori, K. F. MacDorman and N. Kageki, “The Uncanny Valley [From the Field]”, IEEE Robotics & Automation Magazine, vol. 19, no. 2, pp. 98-100, 2012.

[8] K. Otsuka, “MMSpace: Kinetically-augmented telepresence for small group-to-group conversations”. Proceedings of 2016 IEEE Virtual Reality (VR’16). 2016.

[9] A. Sellen, B. Buxton, and J. Arnott. “Using Spatial Cues to Improve Videoconferencing.” Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI ’92). 1992.

[10] E. S. Veinott, J. Olson, G. M. Olson, and X. Fu. “Video Helps Remote Work: Speakers Who Need to Negotiate Common Ground Benefit from Seeing Each Other.” Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’99). 1999.

How to represent the physical space surrounding users in remote AR collaboration?

Augmented Reality (AR) is becoming a very popular technology to support remote collaboration, as it enables users to share virtual content with distant collaborators. However, sharing the physical spaces surrounding users is still a major challenge. Each user involved in an AR collaborative situation enters the shared environment with a part of its own environment [4, 9]. For example, this space can be shared in several ways for two remote users [3]: (i) in an equitable mode (i.e., half from user 1 and half from user 2) [5], (ii) in a host-guest situation where the host imposes the shape of the augmented environment to the guest [7, 8], or (iii) in a mixed environment specifically designed for the collaborative task [6]. Whatever the configuration, the question of how users perceive and use this shared environment arises [2]

[1] H. H. Clark, and S. E. Brennan. "Grounding in communication". In: L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association. 1991.

[2] S. R. Fussell, R. E. Kraut, and J. Siegel. “Coordination of communication: effects of shared visual context on collaborative work”. Proceedings of the 2000 ACM conference on Computer supported cooperative work (CSCW '00). 2000.

[3] B. T. Kumaravel, F. Anderson, G. Fitzmaurice, B. Hartmann, and Tovi Grossman. "Loki:Facilitating Remote Instruction of Physical Tasks Using Bi-Directional Mixed-Reality Telepresence". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '19), 2019.

[4] P. Ladwig and C. Geiger. “A Literature Review on Collaboration in Mixed Reality”. International Conference on Remote Engineering and Virtual Instrumentation (REV). 2018.

[5] N. H. Lehment, D. Merget and G. Rigoll. "Creating automatically aligned consensus realities for AR videoconferencing". IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2014.

[6] T. Mahmood, W. Fulmer, N. Mungoli, J. Huang and A. Lu. "Improving Information Sharing and Collaborative Analysis for Remote GeoSpatial Visualization Using Mixed Reality". IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2019.

[7] O. Oda, C. Elvezio, M. Sukan, S. Feiner, and B. Tversky. "Virtual Replicas for Remote Assistance in Virtual and Augmented Reality". Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15), 2015.

[8] S. Orts-Escolano, C. Rhemann, S. Fanello, W. Chang, A. Kowdle, Y. Degtyarev, and al. “Holoportation: Virtual 3D Teleportation in Real-time”. Proceedings of the 29th Annual Symposium on User Interface Software and Technology (UIST '16). 2016.

[9] M. Sereno, X. Wang, L. Besancon, M. J. Mcguffin and T. Isenberg, "Collaborative Work in Augmented Reality: A Survey". IEEE Transactions on Visualization and Computer Graphics. 2020.

Principes et mise en oeuvre des architectures de Machine Learning de type « Transformers »

Résumé du sujet

Sujet sur les réseaux adversiaux génératifs (GAN)

Résumé du sujet

Modèle du comportement réactif du regard pour un agent virtuel inoccupé, basé sur signaux visuels et acoustiques

Informatique affective : myographie et réalité virtuelle

Exploitation de données de League of Legends pour l'étude de la complexité dans les décisions humaines

Comment simuler de façon efficace et réaliste les essaims de robots ?

L'étude des "Robot swarms", ou essaims de robots, porte sur les systèmes comprenant de nombreux robots - ou drones - volants, roulants, etc. qui se coordonnent de façon autonome, à partir de règles de contrôle locales basées sur les perceptions du robot et son état actuel. La conception du comportement de ces robots passent le plus souvent par un outil de simulation. Cette étude bibliographique s'intéresse aux plateformes de simulation existantes d'essaims de robots. L'objectif est de proposer le recensement le plus exhaustif possible de ces plateformes, d'en faire une synthèse, et de les catégoriser selon des critères à définir : efficacité, réalisme, langage de programmation, licence, portabilité, etc.

[1] Yihan Zhang, Lyon Zhang, Hanlin Wang, Fabián E. Bustamante, and Michael Rubenstein. 2020. SwarmTalk - Towards Benchmark Software Suites for Swarm Robotics Platforms. In Proceedings of the 19th International Conference on Autonomous Agents and MultiAgent Systems (AAMAS '20). International Foundation for Autonomous Agents and Multiagent Systems, Richland, SC, 1638–1646.

[2] Schranz, M., Umlauft, M., Sende, M., & Elmenreich, W. (2020). Swarm Robotic Behaviors and Current Applications. Frontiers in robotics and AI, 7, 36. https://doi.org/10.3389/frobt.2020.00036

[3] Webots

Mots-clés : Multi-robot System, Swarm Robotic, Simulation Platform, Robot Simulator

Comment simuler de façon efficace et réaliste les systèmes multicellulaires ?

Cette étude bibliographique s'intéresse aux plateformes de simulation existantes de cellules vivantes par l'approche multiagent ou assimilées (modèle cellulaire de Potts, automates cellulaire). L'objectif est de proposer le recensement le plus exhaustif possible de ces plateformes, d'en faire une synthèse, et de les catégoriser selon des critères à définir : efficacité, réalisme, langage de programmation, licence, portabilité, etc.

[1] Seunghwa Kang, Simon Kahan, Jason McDermott, Nicholas Flann, Ilya Shmulevich, Biocellion : accelerating computer simulation of multicellular biological system models , Bioinformatics, Volume 30, Issue 21, 1 November 2014, Pages 3101–3108, https://doi.org/10.1093/bioinformatics/btu498

[2] Starruß, J., De Back, W., Brusch, L., & Deutsch, A. (2014). Morpheus: a user-friendly modeling environment for multiscale and multicellular systems biology. Bioinformatics, 30(9), 1331-1332.

[3] Morpheus, https://morpheus.gitlab.io/

[4] Swat, M. H., Thomas, G. L., Belmonte, J. M., Shirinifard, A., Hmeljak, D., & Glazier, J. A. (2012). Multi-scale modeling of tissues using CompuCell3D. In Methods in cell biology (Vol. 110, pp. 325-366). Academic Press.

[5] Ballet, P. (2018). SimCells, an advanced software for multicellular modeling Application to tumoral and blood vessel co-development.

[6] Centillyon, https://centyllion.com/fr/

Mots clés : Cellular Potts Model, Multi-agent, Multi-cellular simulator.

IA pour la traduction automatique de l'humour et des jeux de mots

Résumé du sujet

Sujets inclus dans les stages affectés

Techniques for localized data representation in Augmented Reality

Augmented reality allows for the superimposition of virtual elements in a real-world environment that can be associated with it. It enables, for example, the display of temperature data in a room to visually identify cold spots, or the display of robot speed and trajectory to understand their movement. However, the display possibilities are twofold: the data to be displayed can be of various types (discrete/continuous, 1D/2D/3D/see 4D), and there are numerous ways to display them. Furthermore, due to augmented reality's limitations, some techniques may not be adapted or may cause display issues, particularly when the visualizations become distant or overlapping. This research topic aims to review all of the techniques that allow data to be displayed in AR in a co-localized manner, identifying their benefits and drawbacks as detailed in the scientific literature.

[1] Olshannikova, Ekaterina ; Ometov, Aleksandr ; Koucheryavy, Yevgeni ; Olsson, Thomas: Visualizing Big Data with augmented and virtual reality: challenges and research agenda. In: Journal of Big Data Bd. 2, SpringerOpen (2015), Nr. 1, S. 1–27

[2] Hedley, Nicholas R. ; Billinghurst, Mark ; Postner, Lori ; May, Richard ; Kato, Hirokazu: Explorations in the use of augmented reality for geographic visualization. In: Presence: Teleoperators and Virtual Environments Bd. 11 (2002), Nr. 2, S. 119–133

[3] Olshannikova, Ekaterina ; Ometov, Aleksandr ; Koucheryavy, Yevgeni: Towards big data visualization for augmented reality. In: Proceedings - 16th IEEE Conference on Business Informatics, CBI 2014 Bd. 2, Institute of Electrical and Electronics Engineers Inc. (2014), S. 33–37 — ISBN 9781479957781

[4] Miranda, Brunelli P. ; Queiroz, Vinicius F. ; Araújo, Tiago D.O. ; Santos, Carlos G.R. ; Meiguins, Bianchi S.: A low-cost multi-user augmented reality application for data visualization. In: Multimedia Tools and Applications Bd. 81, Springer (2022), Nr. 11, S. 14773–14801

[5] Martins, Nuno Cid ; Marques, Bernardo ; Alves, João ; Araújo, Tiago ; Dias, Paulo ; Santos, Beatriz Sousa: Augmented reality situated visualization in decision-making. In: Multimedia Tools and Applications Bd. 81, Springer (2022), Nr. 11, S. 14749–14772

How collaboration in mixed reality can benefit from the use of heterogeneous devices?

The massive development of display technologies brings a wide range of new devices, such as mobile phones, AR/VR headsets and large displays, available to the general public. These devices offer many opportunities for co-located and remote collaboration on physical and digital content. Some can handle groups of co-located users [10, 13], while others enable remote users to connect in various situations [3, 6, 11, 14]. For example, some previous systems allow users to use a mobile device to interact with a co-located partner wearing a VR headset [4, 7]. Other systems enable users in VR to guide a remote collaborator using an AR headset [1, 8, 9, 12]. [1] H. Bai, P. Sasikumar, J. Yang, and M. Billinghurst. "A User Study on Mixed Reality Remote Collaboration with Eye Gaze and Hand Gesture Sharing". Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI’20), 2020.

[2] H. H. Clark, and S. E. Brennan. "Grounding in communication". In: L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association. 1991.

[3] C. Fleury, T. Duval, V. Gouranton, A. Steed. "Evaluation of Remote Collaborative Manipulation for Scientific Data Analysis", ACM Symposium on Virtual Reality Software and Technology (VRST’12), 2012.

[4] J. Gugenheimer, E. Stemasov, J. Frommel, and E. Rukzio. "ShareVR: Enabling Co-Located Experiences for Virtual Reality between HMD and Non-HMD Users". Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI '17), 2017.

[5] J. Hollan and S. Stornetta. "Beyond being there". In : Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’92), 1992.

[6] B. T. Kumaravel, F. Anderson, G. Fitzmaurice, B. Hartmann, and Tovi Grossman. "Loki:Facilitating Remote Instruction of Physical Tasks Using Bi-Directional Mixed-Reality Telepresence". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '19), 2019.

[7] B. T. Kumaravel, C. Nguyen, S. DiVerdi, and B. Hartmann. "TransceiVR: Bridging Asymmetrical Communication Between VR Users and External Collaborators". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '20), 2020.

[8] M. Le Chénéchal, T. Duval, J. Royan, V. Gouranton, and B. Arnaldi. “Vishnu: Virtual Immersive Support for HelpiNg Users - An Interaction Paradigm for Remote Collaborative Maintenance in Mixed Reality”. Proceedings of 3DCVE 2016 (IEEE VR 2016 International Workshop on 3D Collaborative Virtual Environments). 2016.

[9] M. Le Chénéchal, T. Duval, V. Gouranton, J. Royan, and B. Arnaldi. “The Stretchable Arms for Collaborative Remote Guiding”. Proceedings of ICAT-EGVE 2015, Eurographics. 2015.

[10] C. Liu, O. Chapuis, M. Beaudouin-Lafon, and E. Lecolinet. “Shared Interaction on a Wall-Sized Display in a Data Manipulation Task.” In: Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. CHI ’16.

[11] P. Mohr, S. Mori, T. Langlotz, B. H. Thomas, D. Schmalstieg, and D. Kalkofen. "Mixed Reality Light Fields for Interactive Remote Assistance". Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI’20), 2020.

[12] O. Oda, C. Elvezio, M. Sukan, S. Feiner, and B. Tversky. "Virtual Replicas for Remote Assistance in Virtual and Augmented Reality". Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15), 2015.

[13] Y. Okuya, O. Gladin, N. Ladévèze, C. Fleury, P. Bourdot. "Investigating Collaborative Exploration of Design Alternatives on a Wall-Sized Display", ACM Conference on Human Factors in Computing Systems (CHI’20), 2020.

[14] H. Xia, S. Herscher, K. Perlin, and D. Wigdor. "Spacetime: Enabling Fluid Individual and Collaborative Editing in Virtual Reality". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST ’18), 2018.