« BIBL » : différence entre les versions

De Parcours SIIA
Aller à la navigation Aller à la recherche
 
(75 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 7 : Ligne 7 :
=== Affectations sujets ===
=== Affectations sujets ===


<!--
Here is a shared table that presents the different subjects of study: [https://lite.framacalc.org/9qt3-siia-bibl_sujets_etude_biblio_2021 list of studies].  
{| class="wikitable"
|-
! Etudiant.e !! Sujet  !! encadrant.e.s
|-
| ABGRALL Théo || Modèle pour la génération du comportement d’un groupe d’élèves virtuels en présence d’un enseignant réel || Elisabetta Bevacqua et Pierre de Loor
|-
| ALVES BUENO Matheus || Fédération de modèles pour des approches multi-points de vues || Joël Champeau
|-
| AUGER François || Modèles de soutien à l’autonomie des apprenants (sans stage) || Jean-Marie Gilliot
|-
| BENDOU Nassim || Les différentes plateformes de simulation à base d'agents et les grands nombres d'agents || Jérémy Rivière
|-
|DANIEL Tristan || Les solutions de réalité augmentée sur dispositif Android || Thierry Duval
|-
| DELANOE Mael || Variantes Narratives pour l’Entraînement aux habiletés sociales (sans stage) || Anne Gwenn Bosser et Nathalie Le Bigot
|-
| FAVERO PEREIRA Paulo Henrique || Synthèse vocale à l'aide de réseaux de neurones || Pierre Chevaillier
|-
| KADEM Sonia || Simulateurs de systèmes multi-cellulaires || Pascal ballet
|-
| LATIBI Adel || Anticipation d'activités utilisateur pour les interfaces plastique (couplé avec stage) || Pierre De Loor - Éric Maisel
|-
|MOREIRA FREITAS Helon || Interaction Humain-Système : reconnaissance d'activités humaines en environnement naturel (sans stage) || Alexis Nédélec
|-
| NGADI Hamza || Génération et coarticulation de gestes pour un agent virtuel (couplé avec stage) || Gireg Desmeulles - Elisabetta Bevacqua
|-
| ROYET Mikael || Sujet à définir / stage : Modèles de dialogue pour l'interrogation de bases de données || P. Chevaillier
|-
| SEBBAR Elias || Visualisation immersive et interactions avec les simulations à base d'agents || Jérémy Rivière
|-
| TAZTAZ Ibitssem || Modèles et simulations à base d'agents de butinage chez l'abeille || Jérémy Rivière
|}


-->
Students are invited to indicate their choice(s) in this table.


=== Indications générales ===
=== Indications générales ===
Voici quelques indications pour la rédaction de l'étude bibliographique et sa restitution orale : [https://www.enib.fr/~chevaill/documents/master/siia_bibl/instructions_etude_biblio_2018.pdf instructions biblio].
Voici quelques indications pour la rédaction de l'étude bibliographique et sa restitution orale : [[Media:Siia-bibl_instructions_etude_biblio_2020.pdf|instructions biblio]] (révision nov. 2020).


=== Documents à étudier ===
=== Documents à étudier ===
Ligne 57 : Ligne 25 :
*  [https://www.enib.fr/~chevaill/documents/master/siia_bibl/Safety_and_Usability_of_Speech_Interfaces_for_In-V.pdf Safety and Usability of Speech Interfaces for In-Vehicle Tasks while Driving: A Brief Literature Review], Adriana Barón and Paul Green, Tec/. Report, The University of Michigan Transportation Research Institute, 2006.
*  [https://www.enib.fr/~chevaill/documents/master/siia_bibl/Safety_and_Usability_of_Speech_Interfaces_for_In-V.pdf Safety and Usability of Speech Interfaces for In-Vehicle Tasks while Driving: A Brief Literature Review], Adriana Barón and Paul Green, Tec/. Report, The University of Michigan Transportation Research Institute, 2006.


== Sujets d'étude 2019-2020 ==
== Sujets libres (sans lien avec un stage ou lié à un stage non attribué) ==


=== B19-01 : Apports de la réalité virtuelle et augmentée aux jumeaux numériques  ===
=== How telepresence systems can support collaborative dynamics in large interactive spaces? ===
* Enseignant : [mailto:cedric.fleury@imt-atlantique.fr Cédric Fleury]
* Sujet en lien avec un stage : non.


Enseignant référent : Pierre Chevaillier
Videoconferencing and telepresence have long been a way to enhance communication among remote users. They improve turn-taking, mutual understanding, and negotiation of common ground by supporting non-verbal cues such as eye-gaze direction, facial expressions, gestures, and body langue [3, 6, 10]. They are also an effective solution to avoid the "Uncanny Valley" effect [7] that can be encountered when using avatars.


Sujet : Après avoir défini le concept de jumeau numérique (digital twin), il s'agit d'identifier ce que la réalité virtuelle (RV) ou la réalité augmentée (RA) peut apporter dans le cadre des jumeaux numériques (DT : digital twins) de systèmes de production. L'étude devra aussi identifier quelles sont les applications pratiques de ce couplage entre RV-RA et DT.  
However, such systems are often limited to basic setups in which each user must seat in front of a computer equipped with a camera. Other systems, such as Multiview [9] or MMSpace [8], handle groups, but still only group-to-group conversations are possible. This leads to awkward situations in which colleagues in the same building stay in their office to attend a videoconference meeting instead of attending together, or participants are forced to have side conversations via chat. More recent work investigates dynamic setups that allow users to move into the system and interact with share content. t-Rooms [5] displays remote users on circular screens around a tabletop. CamRay [1] handles video communication between two users interacting on remote wall-sized displays. GazeLens [4] integrates a remote user in a group collaboration around physical artifacts on a table. Nevertheless, such systems do not support different moments in the collaboration, such as tightly coupled and loose collaboration, subgroup collaboration, spontaneous or side discussions. Supporting such dynamics in collaboration is a major challenge for the next telepresence systems.


Références :
[1]  I. Avellino, C. Fleury, W. Mackay and M. Beaudouin-Lafon. “CamRay: Camera Arrays Support Remote Collaboration on Wall-Sized Displays”. Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’17). 2017.


* Havard, V., Jeanne, B., Lacomblez, M. & Baudry, D. (2019) Digital twin and virtual reality: a co-simulation environment for design and assessment of industrial workstations, Production & Manufacturing Research, 7(1): 472-489
[3] E. A. Isaacs and J. C. Tang. “What Video Can and Can’t Do for Collaboration: A Case Study.” Proceedings of the ACM International Conference on Multimedia (MULTIMEDIA’93). 1993.


* Rabah, S., Assila, A., Khouri, E., Ababsa, F., Bourny, V., Maier, P., Mérienne, F. (2018) Towards improving the future of manufacturing through digital twin and augmented reality technologies, Procedia Manufacturing, 17: 460-467.
[4]  K.-D. Le, I. Avellino, C. Fleury, M. Fjeld, A. Kunz. “GazeLens: Guiding Attention to Improve Gaze Interpretation in Hub-Satellite Collaboration”. Proceedings of the Conference on Human- Computer Interaction (INTERACT’19). 2019.


* Kuts. V., Otto, T., Tähemaa, T. & Bondarenko, Y. (2019) Digital Twin based synchronised control and simulation of the industrial robotic cell using Virtual Reality, Journal of Machine Engineering, 19(1): 128-145.
[5]  P. K. Luff, N. Yamashita, H. Kuzuoka, and C. Heath. “Flexible Ecologies And Incongruent Locations.” Proceedings of the Conf. on Human Factors in Computing Systems. (CHI ’15). 1995.


=== B19-02 : Résolution du problème de l'emploi du temps par systèmes multi-agents  ===
[6]  A. F. Monk and C. Gale. “A Look Is Worth a Thousand Words: Full Gaze Awareness in Video- Mediated Conversation.” In: Discourse Processes 33.3, 2002, pp. 257–278.


Enseignant référent : Pierre Chevaillier
[7]  M. Mori, K. F. MacDorman and N. Kageki, “The Uncanny Valley [From the Field]”, IEEE Robotics & Automation Magazine, vol. 19, no. 2, pp. 98-100, 2012.


Sujet : La réalisation d'un emploi du temps (timetable scheduling) pour une université ou une école d'ingénieurs est un problème complexe. En effet, il faut satisfaire de nombreuses contraintes de natures différentes. Par certains aspects le problème se prête bien à une résolution distribuée des contraintes (Distributed Constraints Problems). Certains ont proposé des solutions basées sur des systèmes multi-agents pour traiter ce problème. Qu'est-ce qui justifie une telle approche ? Comment le problème est-il posé ? Quels modèles ont été mis en oeuvre et pour quels résultats ? L'objectif de l'étude est de répondre à ces questions.
[8]  K. Otsuka, “MMSpace: Kinetically-augmented telepresence for small group-to-group conversations”. Proceedings of 2016 IEEE Virtual Reality (VR’16). 2016.


Références :
[9]  A. Sellen, B. Buxton, and J. Arnott. “Using Spatial Cues to Improve Videoconferencing.” Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI ’92). 1992.


* Babaei H. & Hadidi A. (2014), A Review of Distributed Multi-Agent Systems Approach to Solve University Course Timetabling Problem, Advances in Computer Science: an International Journal, 3(11): 19-28
[10]  E. S. Veinott, J. Olson, G. M. Olson, and X. Fu. “Video Helps Remote Work: Speakers Who Need to Negotiate Common Ground Benefit from Seeing Each Other.” Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’99). 1999.
* Fioretto FG., Pontelli E. & Yeah W. (2018) Distributed Constraint Optimization Problems and Applications: A Survey. Journal of Artificial Intelligence Research, 61: 623-698


* Houhamdi A., Athamena B., Abuzaineddin R. & Muhairat M. (2019),A Multi-Agent System for Course Timetable Generation, TEM Journal. 8(1): 211-221
=== How to represent the physical space surrounding users in remote AR collaboration? ===
* Enseignants : [mailto:cedric.fleury@imt-atlantique.fr Cédric Fleury] et [mailto:thierry.duval@imt-atlantique.fr Thierry Duval]
* Sujet en lien avec un stage : oui ([[Stages|Hybrid Collaborative across Heterogeneous Devices]])  
* '''stage non attribué'''


* Oprea M. (2007) MAS_UP-UCT: A Multi-Agent System for University Course Timetable Scheduling, International Journal of Computers, Communications & Control, 2(1): 94-102.
Augmented Reality (AR) is becoming a very popular technology to support remote collaboration, as it enables users to share virtual content with distant collaborators. However, sharing the physical spaces surrounding users is still a major challenge. Each user involved in an AR collaborative situation enters the shared environment with a part of its own environment [4, 9]. For example, this space can be shared in several ways for two remote users [3]: (i) in an equitable mode (i.e., half from user 1 and half from user 2) [5], (ii) in a host-guest situation where the host imposes the shape of the augmented environment to the guest [7, 8], or (iii) in a mixed environment specifically designed for the collaborative task [6]. Whatever the configuration, the question of how users perceive and use this shared environment arises [2]


=== B19-03 : Machine Learning for Speech-driven facial animation  ===
[1] H. H. Clark, and S. E. Brennan. "Grounding in communication". In: L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association. 1991.


Enseignant référent : Pierre Chevaillier
[2] S. R. Fussell, R. E. Kraut, and J. Siegel. “Coordination of communication: effects of shared visual context on collaborative work”. Proceedings of the 2000 ACM conference on Computer supported cooperative work (CSCW '00). 2000.


Sujet : Le contrôle d'un agent conversationnel animé ("tête parlante") nécessite une très bonne synchronisation entre la production verbal de l'agent et les mouvements du visage. Chez un "vrai" humain, l'activité du corps génère la production du son. Chez un humain de synthèse, on définit d'abord ce que l'agent doit dire (et comment : expressivité), puis on anime le visage en conséquence de façon à ce que le résultat soit cohérent. Récemment, différentes méthodes basées données, dont l'utilisation de différents types de réseaux de neurones, ont été proposées pour résoudre ce problème d'animation facial temps réel piloté par la production verbale. L'étude est de faire une synthèse sur les méthodes utilisées récemment : comment le problème est-il abordé ? Quels types de modèle ont été utilisés et pour quelles performances ?
[3] B. T. Kumaravel, F. Anderson, G. Fitzmaurice, B. Hartmann, and Tovi Grossman. "Loki:Facilitating Remote Instruction of Physical Tasks Using Bi-Directional Mixed-Reality Telepresence". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '19), 2019.


Références :
[4] P. Ladwig and C. Geiger. “A Literature Review on Collaboration in Mixed Reality”. International Conference on Remote Engineering and Virtual Instrumentation (REV). 2018.


* Greenwood D., Matthews I. & Laycik S. (2018) Joint Learning of Facial Expression and Head Pose from Speech, Proceedings of Interspeech Conférence, 2484-2488
[5] N. H. Lehment, D. Merget and G. Rigoll. "Creating automatically aligned consensus realities for AR videoconferencing". IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2014.


* Nishimura R., Sakata N., Tominaga T., Hijikata Y., Harada K. & Kiyokawa K. (2019) Speech-Driven Facial Animation by LSTM-RNN for Communication Use, Proceedings of the 12th Asia Pacific Workshop on Mixed and Augmented Reality (APMAR).  
[6] T. Mahmood, W. Fulmer, N. Mungoli, J. Huang and A. Lu. "Improving Information Sharing and Collaborative Analysis for Remote GeoSpatial Visualization Using Mixed Reality". IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2019.


* Vougioukas K., Petridis S. & Pantic M. (2018) End-to-End Speech-Driven Facial Animation with Temporal GANs, arXiv:1805.09313 [eess.AS]
[7] O. Oda, C. Elvezio, M. Sukan, S. Feiner, and B. Tversky. "Virtual Replicas for Remote Assistance in Virtual and Augmented Reality". Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15), 2015.


=== B19-04 : Apprentissage automatique d'arbres de comportement  ===
[8] S. Orts-Escolano, C. Rhemann, S. Fanello, W. Chang, A. Kowdle, Y. Degtyarev, and al. “Holoportation: Virtual 3D Teleportation in Real-time”. Proceedings of the 29th Annual Symposium on User Interface Software and Technology (UIST '16). 2016.


Enseignant référent : Pierre Chevaillier
[9] M. Sereno, X. Wang, L. Besancon, M. J. Mcguffin and T. Isenberg, "Collaborative Work in Augmented Reality: A Survey". IEEE Transactions on Visualization and Computer Graphics. 2020.


Sujet : Utilisation des méthodes d'apprentissage de "behavior trees" (BT) dans les jeux vidéo et en robotique. Différentes approches ont été ptoposées : à base de réseaux de neurones ou d'algorithmes révolutionnaires.  
=== Principes et mise en oeuvre des architectures de Machine Learning de type « Transformers » ===
* Enseignant :  [mailto:pierre.deloor@enib.fr Pierre De Loor]
* Sujet en lien avec un stage : non.


Références :
[[Media:BIBL-2021_Deloor_SujetBiblioTransformer.pdf| Résumé du sujet]]


* Colledanchise M., Ramviyas Parasuraman R., and Petter Ogren P. (2019), Learning of Behavior Trees for Autonomous Agents (short paper) IEEE TRANSACTIONS ON GAMES, 11(2)
=== Sujet sur les réseaux adversiaux génératifs (GAN) ===
* Enseignant :  [mailto:pierre.deloor@enib.fr Pierre De Loor]
* Sujet en lien avec un stage : non


=== B19-05 : Méthodes de réduction de la cyber-sickness dans les dispositifs de réalité virtuelle  ===
[[Media:Generative_Adversial_Networks_2022.pdf| Résumé du sujet]]


Enseignant référent : Pierre Chevaillier
=== Modèle du comportement réactif du regard pour un agent virtuel inoccupé, basé sur signaux visuels et acoustiques ===
* Enseignants : [mailto:elisabetta.bevacqua@enib.fr Elisabetta Bevacqua] et [mailto:desmeulles@enib.fr Gireg Desmeulles]
* Sujet en lien avec un stage : oui ([[Stages]])
* '''stage non attribué'''


Sujet :  
=== Informatique affective : myographie et réalité virtuelle  ===
* Enseignants : [mailto:augereau@enib.fr Olivier Augereau]
* Sujet en lien avec un stage : oui ([[Stages]])
* '''stage non attribué'''


Références :
=== Exploitation de données de League of Legends pour l'étude de la complexité dans les décisions humaines ===
* Enseignants : [mailto:augereau@enib.fr Olivier Augereau]
* Sujet en lien avec un stage : oui ([[Stages]])
* '''stage non attribué'''


=== B19-06 : Intrinsic motivation for leaning applied to Human-Robot Interactions ===
===  Comment simuler de façon efficace et réaliste les essaims de robots ? ===
* Enseignant : [mailto:jeremy.riviere@univ-brest.fr Jérémy Rivière]
* Sujet en lien avec un stage : non.


Enseignant référent : Pierre Chevaillier
L'étude des "Robot swarms", ou essaims de robots, porte sur les systèmes comprenant de nombreux robots - ou drones - volants, roulants, etc. qui se coordonnent de façon autonome, à partir de règles de contrôle locales basées sur les perceptions du robot et son état actuel. La conception du comportement de ces robots passent le plus souvent par un outil de simulation. Cette étude bibliographique s'intéresse aux plateformes de simulation existantes d'essaims de robots. L'objectif est de proposer le recensement le plus exhaustif possible de ces plateformes, d'en faire une synthèse, et de les catégoriser selon des critères à définir : efficacité, réalisme, langage de programmation, licence, portabilité, etc.


Sujet :
[1] Yihan Zhang, Lyon Zhang, Hanlin Wang, Fabián E. Bustamante, and Michael Rubenstein. 2020. SwarmTalk - Towards Benchmark Software Suites for Swarm Robotics Platforms. In Proceedings of the 19th International Conference on Autonomous Agents and MultiAgent Systems (AAMAS '20). International Foundation for Autonomous Agents and Multiagent Systems, Richland, SC, 1638–1646.


Références :
[2] Schranz, M., Umlauft, M., Sende, M., & Elmenreich, W. (2020). Swarm Robotic Behaviors and Current Applications. Frontiers in robotics and AI, 7, 36. https://doi.org/10.3389/frobt.2020.00036


=== B19-07 : Méthodes de détection de fautes dans les réseaux de capteurs  ===
[3] Webots


Enseignant référent : Pierre Chevaillier
Mots-clés : Multi-robot System, Swarm Robotic, Simulation Platform, Robot Simulator


Sujet :  
===  Comment simuler de façon efficace et réaliste les systèmes multicellulaires ? ===
* Enseignant : [mailto:pascal.ballet@univ-brest.fr Pascal Ballet]
* Sujet en lien avec un stage : non.


Références :
Cette étude bibliographique s'intéresse aux plateformes de simulation existantes de cellules vivantes par l'approche multiagent ou assimilées (modèle cellulaire de Potts, automates cellulaire). L'objectif est de proposer le recensement le plus exhaustif possible de ces plateformes, d'en faire une synthèse, et de les catégoriser selon des critères à définir : efficacité, réalisme, langage de programmation, licence, portabilité, etc.


=== B19-08 : Interactions Humain-Essaim de drones  ===
[1] Seunghwa Kang, Simon Kahan, Jason McDermott, Nicholas Flann, Ilya Shmulevich, Biocellion : accelerating computer simulation of multicellular biological system models , Bioinformatics, Volume 30, Issue 21, 1 November 2014, Pages 3101–3108, https://doi.org/10.1093/bioinformatics/btu498


Enseignant référent : Jérémy Rivière
[2] Starruß, J., De Back, W., Brusch, L., & Deutsch, A. (2014). Morpheus: a user-friendly modeling environment for multiscale and multicellular systems biology. Bioinformatics, 30(9), 1331-1332.


Sujet :  
[3] Morpheus, https://morpheus.gitlab.io/
L'étude des "Robot swarms", ou essaims de robots, porte sur les systèmes comprenant de nombreux robots - ou drones - volants, roulants, etc. qui se coordonnent de façon autonome, à partir de règles de contrôle locales basées sur les perceptions du robot et son état actuel, à la manière d'agents dans les SMA (systèmes multi-agents).
L'interaction entre un opérateur humain et un essaim de robots ouvre la porte à de nouveaux moyens de contrôle ou d'influence du comportement de l'essaim. 
Il est demandé dans ce travail de faire un état de l'art des différentes problématiques que l'interaction soulèvent, et des différents moyens d'interaction mis en place dans les travaux de recherche.
On s'intéressera plus particulièrement à 2 grands types d'interaction : interaction à distance, où l'opérateur n'est pas présent dans le même environnement que l'essaim, et interaction directe ou indirecte dans un environnement partagée.


Références :
[4] Swat, M. H., Thomas, G. L., Belmonte, J. M., Shirinifard, A., Hmeljak, D., & Glazier, J. A. (2012). Multi-scale modeling of tissues using CompuCell3D. In Methods in cell biology (Vol. 110, pp. 325-366). Academic Press.


* A. Kolling, P. Walker, N. Chakraborty, K. Sycara and M. Lewis, Human Interaction With Robot Swarms: A Survey, in IEEE Transactions on Human-Machine Systems, vol. 46, no. 1, pp. 9-26, Feb. 2016.
[5] Ballet, P. (2018). SimCells, an advanced software for multicellular modeling Application to tumoral and blood vessel co-development.


* Mclurkin, James & Smith, Jennifer & Frankel, James & Sotkowitz, David & Blau, David & Schmidt, Brian. (2006). "Speaking Swarmish: Human-Robot Interface Design for Large Swarms of Autonomous Mobile Robots". AAAI, 72-75.  
[6] Centillyon, https://centyllion.com/fr/


* Nagi, Jawad & Giusti, Alessandro & Gambardella, Luca & Di Caro, Gianni. (2014). "Human-Swarm Interaction Using Spatial Gestures". IEEE International Conference on Intelligent Robots and Systems.
Mots clés : Cellular Potts Model, Multi-agent, Multi-cellular simulator.


=== B019-09 : Altruisme et Systèmes Multi-Agents ===
=== IA pour la traduction automatique de l'humour et des jeux de mots ===
* Enseignant :  [mailto:bosser@enib.fr Anne-Gwenn Bosser]
* Sujet en lien avec un stage : non


Enseignant référent : Jérémy Rivière
[[Media:JOKER_-_Sujets_bibliographie_2022-23.pdf| Résumé du sujet]]


Sujet :
== Sujets inclus dans les stages affectés ==
L'altruisme a été utilisé dans plusieurs travaux de recherche concernant les SMA, autant en résolution de problèmes qu'en simulation. Ce travail consiste à recenser de la façon la plus exhaustive possible ces travaux, en s'intéressant au comportement des agents altruistes : quels sont les points communs de ces agents ? Peut-on en déduire une (ou plusieurs) définition(s) de l'altruisme ?


Références :
=== Techniques for localized data representation in Augmented Reality ===
* SIMONIN O., FERBER J., « Modélisation des satisfactions personnelle et interactive d'agents situés coopératifs », JFIADSMA'01, Montreal, Canada, 2001, p. 215-226.
* Enseignants : [mailto:etienne.peillard@imt-atlantique.fr Etienne Peillard] et [mailto:Aymeric.Henard@univ-brest.fr Aymeric Henard]
* Sujet en lien avec un stage : oui ([[Stages|Visualisation immersive et localisée de données en Réalité Augmentée]])
* '''stage attribué'''


* Lucidarme, Philippe & Simonin, Olivier & Liegeois, A. "Implementation and Evaluation of a Satisfaction/Altruism Based Architecture for Multi-Robot Systems". IEEE International Conference on Robotics and Automation, pp 1007 - 1012 vol.1 (2002)
Augmented reality allows for the superimposition of virtual elements in a real-world environment that can be associated with it. It enables, for example, the display of temperature data in a room to visually identify cold spots, or the display of robot speed and trajectory to understand their movement. However, the display possibilities are twofold: the data to be displayed can be of various types (discrete/continuous, 1D/2D/3D/see 4D), and there are numerous ways to display them. Furthermore, due to augmented reality's limitations, some techniques may not be adapted or may cause display issues, particularly when the visualizations become distant or overlapping. This research topic aims to review all of the techniques that allow data to be displayed in AR in a co-localized manner, identifying their benefits and drawbacks as detailed in the scientific literature.


* Lounis Adouane, Nadine Le Fort-Piat. "Hybrid Behavioral Control Architecture for the Cooperation of Minimalist Mobile Robots". ICRA’04, International Conference On Robotics And Automation, 2004, New Orleans, United States.
[1] Olshannikova, Ekaterina ; Ometov, Aleksandr ; Koucheryavy, Yevgeni ; Olsson, Thomas: Visualizing Big Data with augmented and virtual reality: challenges and research agenda. In: Journal of Big Data Bd. 2, SpringerOpen (2015), Nr. 1, S. 1–27


* Valérie  Camps, Marie-Pierre  Gleizes. "Réflexions  sur  l’apprentissage  en  univers  multi-agents". Journée du  PRC GDR IA, "Les  systèmes  multi-agents", Toulouse, Février 1996 et Journées  du PRC GDR IA, Grenoble Mars 1997, Editions Hermès.
[2] Hedley, Nicholas R. ; Billinghurst, Mark ; Postner, Lori ; May, Richard ; Kato, Hirokazu: Explorations in the use of augmented reality for geographic visualization. In: Presence: Teleoperators and Virtual Environments Bd. 11 (2002), Nr. 2, S. 119–133


* Mitteldorf and Wilson, 2000, "Population Viscosity and the Evolution of Altruism", Journal of Theoretical Biology, v.204, pp.481-496. (aussi un modèle NetLogo : http://ccl.northwestern.edu/netlogo/models/Altruism)
[3] Olshannikova, Ekaterina ; Ometov, Aleksandr ; Koucheryavy, Yevgeni: Towards big data visualization for augmented reality. In: Proceedings - 16th IEEE Conference on Business Informatics, CBI 2014 Bd. 2, Institute of Electrical and Electronics Engineers Inc. (2014), S. 33–37 — ISBN 9781479957781


* https://www.comses.net/codebases/?query=altruism
[4] Miranda, Brunelli P. ; Queiroz, Vinicius F. ; Araújo, Tiago D.O. ; Santos, Carlos G.R. ; Meiguins, Bianchi S.: A low-cost multi-user augmented reality application for data visualization. In: Multimedia Tools and Applications Bd. 81, Springer (2022), Nr. 11, S. 14773–14801


=== B019-10 : Interactions naturelles en réalité virtuelle avec un système complexe. ===
[5] Martins, Nuno Cid ; Marques, Bernardo ; Alves, João ; Araújo, Tiago ; Dias, Paulo ; Santos, Beatriz Sousa: Augmented reality situated visualization in decision-making. In: Multimedia Tools and Applications Bd. 81, Springer (2022), Nr. 11, S. 14749–14772


Enseignant référent : Thomas Alves
=== How collaboration in mixed reality can benefit from the use of heterogeneous devices? ===


Sujet :  
* Enseignants : [mailto:cedric.fleury@imt-atlantique.fr Cédric Fleury] et [mailto:etienne.peillard@imt-atlantique.fr Etienne Peillard]
Les interactions naturelles, définies comme étant des alternatives plus intuitives aux interfaces classiques (clavier souris, manettes etc..), permettent une utilisation plus fluide et instinctive d'applications. Par exemple, utiliser le mouvements du corps, comme le kinect ou des mains avec le Leap Motion, ou avec des interacteurs tangibles, comme des objets à placer sur des supports etc.
* Sujet en lien avec un stage : oui ([[Stages|Perception of Shared Spaces in Collaborative Augmented Reality]])
Nous nous intéressons donc ici à une comparaison des différentes interactions naturelles énoncées dans la littérature, leurs avantages et inconvénients, comme les implications autant au niveau logiciel qu'au niveau matériel, la précision, les possibilités etc.
* '''stage attribué'''
Nous nous intéresserons particulièrement aux exemples de telles interactions utilisées pour la manipulation du temps.


Références :
The massive development of display technologies brings a wide range of new devices, such as mobile phones, AR/VR headsets and large displays, available to the general public. These devices offer many opportunities for co-located and remote collaboration on physical and digital content. Some can handle groups of co-located users [10, 13], while others enable remote users to connect in various situations [3, 6, 11, 14]. For example, some previous systems allow users to use a mobile device to interact with a co-located partner wearing a VR headset [4, 7]. Other systems enable users in VR to guide a remote collaborator using an AR headset [1, 8, 9, 12].
[1] H. Bai, P. Sasikumar, J. Yang, and M. Billinghurst. "A User Study on Mixed Reality Remote
Collaboration with Eye Gaze and Hand Gesture Sharing". Proceedings of the CHI Conference on
Human Factors in Computing Systems (CHI’20), 2020.


* Ishii, H., & Ullmer, B. A. (1997). Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms. In Proceedings of the 1997 CHI Conference on Human Factors in Computing Systems - CHI ’97 (pp. 234–241). Atlanta, USA: ACM.
[2] H. H. Clark, and S. E. Brennan. "Grounding in communication". In: L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association. 1991.


* Marin, Giulio, Fabio Dominio, and Pietro Zanuttigh. “Hand Gesture Recognition with Leap Motion and Kinect Devices.” In 2014 IEEE International Conference on Image Processing (ICIP), 1565–69. Paris, France: IEEE, 2014. https://doi.org/10.1109/ICIP.2014.7025313.
[3] C. Fleury, T. Duval, V. Gouranton, A. Steed. "Evaluation of Remote Collaborative Manipulation for Scientific Data Analysis", ACM Symposium on Virtual Reality Software and Technology (VRST’12), 2012.


* Wen, Hongyi, Julian Ramos Rojas, and Anind K. Dey. “Serendipity: Finger Gesture Recognition Using an Off-the-Shelf Smartwatch.” In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems - CHI ’16, 3847–51. Santa Clara, California, USA: ACM Press, 2016. https://doi.org/10.1145/2858036.2858466.
[4] J. Gugenheimer, E. Stemasov, J. Frommel, and E. Rukzio. "ShareVR: Enabling Co-Located Experiences for Virtual Reality between HMD and Non-HMD Users". Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI '17), 2017.


* Ullmer, B. A. (2002). Tangible interfaces for manipulating aggregates of digital information. Massachusetts Institute of Technology.
[5] J. Hollan and S. Stornetta. "Beyond being there". In : Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’92), 1992.


* Fitzmaurice, G. W., Ishii, H., & Buxton, W. (1995). Bricks: Laying the Foundations for Graspable User Interfaces. In Proceedings of the 1995 CHI Conference on Human Factors in Computing Systems - CHI ’95 (pp. 442–449). Denver, USA: ACM.
[6] B. T. Kumaravel, F. Anderson, G. Fitzmaurice, B. Hartmann, and Tovi Grossman. "Loki:Facilitating Remote Instruction of Physical Tasks Using Bi-Directional Mixed-Reality Telepresence". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '19), 2019.


* Hornecker, E. (2012). Beyond Affordance: Tangibles’ Hybrid Nature. In Proceedings of the Sixth International Conference on Tangible, Embedded and Embodied Interaction (pp. 175–182). New York, NY, USA: ACM. https://doi.org/10.1145/2148131.2148168
[7] B. T. Kumaravel, C. Nguyen, S. DiVerdi, and B. Hartmann. "TransceiVR: Bridging Asymmetrical Communication Between VR Users and External Collaborators". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '20), 2020.


* Kim, H., Coutrix, C., & Roudaut, A. (2019). KnobSlider: Design of a Shape-Changing Parameter Control UI and Study of User Preferences on Its Speed and Tangibility. Frontiers in Robotics and AI, 6, 79. https://doi.org/10.3389/frobt.2019.00079
[8] M. Le Chénéchal, T. Duval, J. Royan, V. Gouranton, and B. Arnaldi. “Vishnu: Virtual Immersive Support for HelpiNg Users - An Interaction Paradigm for Remote Collaborative Maintenance in Mixed Reality”. Proceedings of 3DCVE 2016 (IEEE VR 2016 International Workshop on 3D Collaborative Virtual Environments). 2016.


* Zuckerman, O., & Gal-Oz, A. (2013). To TUI or not to TUI: Evaluating performance and preference in tangible vs. graphical user interfaces. International Journal of Human-Computer Studies, 71(7), 803–820. https://doi.org/https://doi.org/10.1016/j.ijhcs.2013.04.003
[9] M. Le Chénéchal, T. Duval, V. Gouranton, J. Royan, and B. Arnaldi. “The Stretchable Arms for Collaborative Remote Guiding”. Proceedings of ICAT-EGVE 2015, Eurographics. 2015.


=== B19-11 : Teamwork: how can it be characterized?  ===
[10] C. Liu, O. Chapuis, M. Beaudouin-Lafon, and E. Lecolinet. “Shared Interaction on a Wall-Sized Display in a Data Manipulation Task.” In: Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. CHI ’16.


Enseignant référent : Maria Teresa Segarra
[11] P. Mohr, S. Mori, T. Langlotz, B. H. Thomas, D. Schmalstieg, and D. Kalkofen. "Mixed Reality Light Fields for Interactive Remote Assistance". Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI’20), 2020.


Sujet :
[12] O. Oda, C. Elvezio, M. Sukan, S. Feiner, and B. Tversky. "Virtual Replicas for Remote Assistance in Virtual and Augmented Reality". Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15), 2015.
There is an important trend in education to make students work (and learn) in groups. Research has analyzed the effectiveness of cooperative learning with respect to academic performance. There is a lot of empirical support in favor of cooperative learning as an important contributor for higher academic achievement [1][2][3].
On one hand, several works are interested on how the dynamics of the group (equitable, group dominated by one individual...) may impact academic achievements of its members [4]. On the other hand, the attitude of a student may highly impact the dynamics of the group and so academic performance. Therefore, for a teacher that makes students work in groups, it can be interesting to track their dynamics and students attitude so that she/he may better understand their academic performance and make decisions.
Moreover, effective teamwork skills are seen by organizations as one of the most important professional competencies for students to acquire [5]. Teachers should not only assess academic performance of each student but also her/his contribution to the dynamics of the group. However, few works propose tools to help teachers keep track of these dynamics. Such a tool should allow teachers to track events that characterize one or several aspects of teamwork and, depending on them, decide about effective teamwork of the group.
The goal of this wok is to do a literature review of existing rubrics characterizing teamwork. The goal of the review is to give foundation for a tool-based rubric used by teachers to keep track of teamwork on their class. The starting point will be two existing teamwork rubrics: TeamUp’ [7] and Q-Team [8].


Références :
[13] Y. Okuya, O. Gladin, N. Ladévèze, C. Fleury, P. Bourdot. "Investigating Collaborative Exploration of Design Alternatives on a Wall-Sized Display", ACM Conference on Human Factors in Computing Systems (CHI’20), 2020.


[1] Vaughan W., Effects of cooperative learning on achievement and attitude among students. Journal of Educational Research, 95(6), 2002.
[14] H. Xia, S. Herscher, K. Perlin, and D. Wigdor. "Spacetime: Enabling Fluid Individual and Collaborative Editing in Virtual Reality". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST ’18), 2018.
 
[2] Kooloos J.G., Klaassen T., Vereijken M., Van Kuppeveld S., Bolhuis S., Vorstenbosch M., Collaborative group work: Effects of group size and assignment structure on learning gain, student satisfaction and perceived participation. Med Teach, 33(12), 2011.
 
[3] Cooperative Learning: Best Practices, Center for Research on Learning and Teaching University of Michigan, 2006. http://www.crlt.umich.edu/publinks/clgt_bestpractices Last visited 19/10/2019.
 
[4] Theobald E.J., Eddy S.L., Grunspan D.Z., Wiggins B.L., Crowe A.J., Student perception of group dynamics predicts individual performance: Comfort and equity matter. PloS ONE, 12(7), 2017.
 
[5] Miller D., The Stages of Group Development: A Retrospective Study of Dynamic Team Processes. Canadian Journal of Administrative Sciences / Revue Canadienne des Sciences de l'Administration. 20. 121 - 134. 10.1111/j.1936-4490.2003.tb00698.x.
 
[6] Casper W.C., Teaching beyond the topic teaching teamwork skills in higher education. Journal of Higher Education Theory and Practice, 17, 53-63, 2017.
 
[7] Hastie C.R., TeamUP': An approach to developing teamwork skills in undergraduate midwifery students. Midwifery, 58:93-95, 2018.
 
[8] Emily B., Natalie S., Andrew L., Jenn S., Assessing teamwork in undergraduate education: a measurement tool to evaluate individual teamwork skills. Assessment & Evaluation in Higher Education, 42:3, 378-397, 2017.
 
<!--
== Sujets d'étude 2018-2019 ==
 
=== B18-01 : Les différentes plateformes de simulation à base d'agents et les grands nombres d'agents ===
 
Enseignant référent : Jérémy Rivière
 
Il s'agit de recenser les principales plateformes / logiciels permettant de faire de la simulation à base d'agents, en les comparant notamment selon le langage de programmation utilisé et leur capacité à simuler un grand nombre d'agents.
 
Références :
* Alban Rousset, Bénédicte Herrmann, Christophe Lang. Étude comparative des plateformes parallèles pour systèmes multi-agents. Pascal Felber and Laurent Philippe and Etienne Riviere and Arnaud Tisserand. ComPAS 2014: conférence en parallélisme, architecture et systèmes, Neuchâtel, Suisse. 2014.
 
* Nikolai, C.; G. Madey (2008). "Tools of the Trade: A Survey of Various Agent Based Modeling Platforms", Journal of Artificial Societies and Social Simulation, 12 (2). Au.
 
* R.J. Allan (2009) Survey of Agent Based Modelling and Simulation Tools
 
=== B18-02 : Modèles et simulations à base d'agents de butinage chez l'abeille ===
 
Enseignant référent : Jérémy Rivière
 
De nombreux modèles à base d'agents se sont concentré sur l'activité de butinage chez l'abeille. Il vous est demandé dans ce travail d'identifier ces travaux et leurs points communs / différences, notamment sur le contenu des modèles et leurs objectifs, en présentant également leurs avantages et leurs inconvénients.
 
Références :
* Jérémy Rivière, Cédric Alaux, Yves Le Conte, Yves Layec, André Lozac'H, Vincent Rodin, Frank Singhoff. Toward a Complete Agent-Based Model of a Honeybee Colony. Highlights of Practical Applications of Agents,
Multi-Agent Systems, and Complexity: The PAAMS Collection, Jun 2018, Toledo, Spain.
 
* Dornhaus, A., Klügl, F., Oechslein, C., Puppe, F., Chittka, L.: Benefits of recruitment in honey bees: effects of ecology and colony size in an individual-based model. Behav. Ecol. 17(3), 336–344 (2006)
 
* Seeley, T.D., Camazine, S., Sneyd, J.: Collective decision-making in honey bees: how colonies choose among nectar sources. Behav. Ecol. Sociobiol. 28(4), 277–290 (1991)
 
* de Vries, H., Biesmeijer, J.C.: Modelling collective foraging by means of individual behaviour rules in honey-bees. Behav. Ecol. Sociobiol. 44(2), 109–124 (1998)
 
* Becher, M.A., Grimm, V., et al.: BEEHAVE: a systems model of honeybee colony dynamics and foraging to explore multifactorial causes of colony failure. J. Appl. Ecol. 51(2), 470–482 (2014)
 
=== B18-03 Visualisation immersive et interactions avec les simulations à base d'agents ===
 
Enseignant référent : Jérémy Rivière
 
La réalité virtuelle offre de nombreux moyens de visualisation et d'interactions avec les mondes virtuels, simulés par exemple grâce à des systèmes multi-agents. Ce travail demande de
recenser les différents moyens et outils utilisés dans le domaine spécifique des simulations à base d'agents.
 
Références :
 
* Arnaud Grignard, Alexis Drogoul - Agent-Based Visualization: A Real-Time Visualization Tool Applied Both to Data and Simulation Outputs - The AAAI-17 Workshop on Human-Machine Collaborative Learning - 2017
 
* A. Louloudi and F. Klügl, "A new framework for coupling agent-based simulation and immersive visualisation," in Proceedings of the 26th European Conference on Modelling and Simulation (ECMS), 2012.
 
* G. Desmeulles, G. Querrec, P. Redou, S. Kerdélo, L. Misery, V. Rodin and J. Tisseau. The virtual reality applied to the biology understanding: the in virtuo experimentation. Expert Systems with Applications, Elsevier, 30(1):82-92, January 2006.
 
* Fanini, Bruno; Calori, Luigi. 3D interactive visualization of crowd simulations at urban scale. A: International Conference Virtual City and Territory. "9° Congresso Città e Territorio Virtuale, Roma, 2, 3 e 4 ottobre 2013". Roma: Università degli Studi Roma Tre, 2014, p. 276-284.
 
=== B18-04 : Les solutions de réalité augmentée sur dispositif Android ===
 
Enseignant référent : Thierry Duval
 
Il s'agit de réaliser un état de l'art sur les outils logiciels permettant de faire de la Réalité Augmentée sur dispositif Android (type téléphone ou tablette).  L'étude consiste à un tableau comparatif décrivant les avantages et inconvénients des différentes solutions existantes, les environnements de développement associés, les langages de programmation qu'il faut utiliser pour manipuler ces API.
Idéalement il faudrait également avoir testé chacun de ces produits (pour les produits payants, seulement si il y a une licence gratuite...) et évalué la difficulté de déploiement.
 
Références :
* https://www.wikitude.com/store/
 
* https://deepar.ai/augmented-reality-sdk/
 
* https://www.easyar.com/
 
* http://www.artoolkitx.org/
 
* https://developer.vuforia.com/
 
* https://nyatla.jp/nyartoolkit/wp/
 
=== B18-05 : Synthèse vocale à l'aide de réseaux de neurones ===
 
Enseignant référent : Pierre Chevaillier
 
L'objectif est d'étudier les avancées récentes dans le domaine de la synthèse vocale par l'utilisation de réseaux de neurones de type deep-learning. Ces solutions visent à améliorer la prosodie des phrases énoncées par de telles systèmes de façon à la rendre plus naturelle. Il s'agit de comparer les méthodes utilisées  dans les systèmes récents.
 
Références :
 
* Fan, Y., Qian, Y., Xie, F.-L., & Soong, F. K. (2014.). TTS Synthesis with Bidirectional LSTM Based Recurrent Neural Networks, In Proceedings of Interspeech'14, pp. 1964-1968
 
* Okamoto, T., Tachibana, K., Toda, T., Shiga, Y., & Kawai, H. (2018). Deep neural network-based power spectrum reconstruction to improve quality of vocoded speech with limited acoustic parameters. Acoustical Science and Technology, 39(2), 163–166.
 
* Wan, V., Agiomyrgiannakis, Y., Silen, H., & Vít, J. (2017). Google’s Next-Generation Real-Time Unit-Selection Synthesizer Using Sequence-to-Sequence LSTM-Based Autoencoders. In Proceedings of Interspeech 2017, pp. 1143–1147.
 
* Wu, Z., Watts, O., & King, S. (2016). Merlin: An Open Source Neural Network Speech Synthesis System. 9th ISCA Speech Synthesis Workshop,  202–207.
 
* Zen, H., & Sak, H. (2015). Unidirectional long short-term memory recurrent neural network with recurrent output layer for low-latency speech synthesis. In 2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). South Brisbane, Queensland, Australia, pp. 4470–4474.
 
=== B18-06 : Simulateurs de systèmes multi-cellulaires ===
 
Enseignant référent : Pascal Ballet
 
* PhysiCell : https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1005991
 
* BioCellion : https://academic.oup.com/bioinformatics/article/30/21/3101/2422245
 
* CompuCell 3D : http://www.compucell3d.org/
 
* SimCells : http://virtulab.univ-brest.fr/simcells.html
 
=== B18-07 : Interaction Humain-Système : reconnaissance d'activités humaines en environnement naturel ===
 
Enseignant référent : Alexis Nédélec
 
Le sujet proposé consiste à faire une étude bibliographique sur les algorithmes d'apprentissage machine dédiés à la reconnaissance de gestes et d'activités humaines par un système informatique pour établir une interaction entre un humain et un humanoïde de synthèse dans un environnement naturel.
Cette étude portera plus spécifiquement sur la détection et la reconnaissance d'activités humaines à partir de squelette 3D [2, 4] dans des flux vidéos [1,3,5].
 
* [1] Dushyant et. al. "VNECT: Real-time 3d human pose estimation with a single RGB camera". ACM Transactions on Graphics (SIGGRAPH 2017), Los Angeles, USA, 2017.
 
* [2] Ke et. al. "a new representation of skeleton sequences for 3d action recognition". Computer Vision and Pattern Recognition 2017, 2017.
 
* [3] Wang et. al. "rgb-d-based human motion recognition with deep learning : A survey". Elsevier Computer Vision and Image Understanding (CVIU), 2018.
 
* [4] Tae Soo Kim and Austin Reiter. "interpretable 3d human action analysis with temporal convolutional networks". Computer Vision and Pattern Recognition 2017, 2017.
 
* [5] Wu, Sharma, and Blumenstein. "recent advances in video-based human action recognition using deep learning : A review". International Joint Conference on Neural Networks (IJCNN), 2017.
 
=== B18-08 : Fédération de modèles pour des approches multi-points de vues ===
 
Enseignant référent : Joël Champeau
 
=== B18-09 : Dialogue models for natural language question answering on restricted-Domain  ===
 
Enseignant référent : Pierre Chevaillier
 
Cette étude vise à définir les modèles de dialogue utilisable pour un réaliser un Chatbot permettant de formuler une requête sur un système d'information dans un domaine particulier. On s'intéresse plus particulièrement à deux questions : quels types de modèles pour quels types de question ? Quels modèles de représentation des connaissances sont adaptés à ce problème ?
 
Références :
* A., S., & John, D. (2015). Survey on Chatbot Design Techniques in Speech Conversation Systems. International Journal of Advanced Computer Science and Applications, 6(7).
 
* Denecke, M., & Yasuda, N. (2008). Does this answer your Question? Towards Dialogue Management for Restricted Domain Question Answering Systems. In Recent Trends in Discourse and Dialogue (Vol. 39, pp. 219–246). Springer.
 
* Mollá, D., & Vicedo, J. L. (2007). Question Answering in Restricted Domains: An Overview. Computational Linguistics, 33(1), 41–61.
 
* Quarteroni, S., & Manandhar, S. (2007). A Chatbot-based Interactive Question Answering System. In Proceedings of the 11th Workshop on the Semantics and Pragmatics of Dialogue (pp. 83–90). Trento, Italy.
 
-->

Dernière version du 28 novembre 2022 à 09:54


Méthode de travail et objectifs

Affectations sujets

Here is a shared table that presents the different subjects of study: list of studies.

Students are invited to indicate their choice(s) in this table.

Indications générales

Voici quelques indications pour la rédaction de l'étude bibliographique et sa restitution orale : instructions biblio (révision nov. 2020).

Documents à étudier

Comme toute technique d'ingénierie, ou toute démarche scientifique, la réalisation d'une étude bibliographique, appelée aussi revue de littérature (littérature review), doit être réalisée de manière méthodique et apporter des éléments pour en apprécier la justesse et la pertinence. Même si les motivations pour réaliser un tel exercice peuvent être diverses, dans ses grandes lignes, la méthodologie reste la même.

Voici quelques documents à lire avant et pendant la réalisation de votre étude.

Sujets libres (sans lien avec un stage ou lié à un stage non attribué)

How telepresence systems can support collaborative dynamics in large interactive spaces?

Videoconferencing and telepresence have long been a way to enhance communication among remote users. They improve turn-taking, mutual understanding, and negotiation of common ground by supporting non-verbal cues such as eye-gaze direction, facial expressions, gestures, and body langue [3, 6, 10]. They are also an effective solution to avoid the "Uncanny Valley" effect [7] that can be encountered when using avatars.

However, such systems are often limited to basic setups in which each user must seat in front of a computer equipped with a camera. Other systems, such as Multiview [9] or MMSpace [8], handle groups, but still only group-to-group conversations are possible. This leads to awkward situations in which colleagues in the same building stay in their office to attend a videoconference meeting instead of attending together, or participants are forced to have side conversations via chat. More recent work investigates dynamic setups that allow users to move into the system and interact with share content. t-Rooms [5] displays remote users on circular screens around a tabletop. CamRay [1] handles video communication between two users interacting on remote wall-sized displays. GazeLens [4] integrates a remote user in a group collaboration around physical artifacts on a table. Nevertheless, such systems do not support different moments in the collaboration, such as tightly coupled and loose collaboration, subgroup collaboration, spontaneous or side discussions. Supporting such dynamics in collaboration is a major challenge for the next telepresence systems.

[1] I. Avellino, C. Fleury, W. Mackay and M. Beaudouin-Lafon. “CamRay: Camera Arrays Support Remote Collaboration on Wall-Sized Displays”. Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’17). 2017.

[3] E. A. Isaacs and J. C. Tang. “What Video Can and Can’t Do for Collaboration: A Case Study.” Proceedings of the ACM International Conference on Multimedia (MULTIMEDIA’93). 1993.

[4] K.-D. Le, I. Avellino, C. Fleury, M. Fjeld, A. Kunz. “GazeLens: Guiding Attention to Improve Gaze Interpretation in Hub-Satellite Collaboration”. Proceedings of the Conference on Human- Computer Interaction (INTERACT’19). 2019.

[5] P. K. Luff, N. Yamashita, H. Kuzuoka, and C. Heath. “Flexible Ecologies And Incongruent Locations.” Proceedings of the Conf. on Human Factors in Computing Systems. (CHI ’15). 1995.

[6] A. F. Monk and C. Gale. “A Look Is Worth a Thousand Words: Full Gaze Awareness in Video- Mediated Conversation.” In: Discourse Processes 33.3, 2002, pp. 257–278.

[7] M. Mori, K. F. MacDorman and N. Kageki, “The Uncanny Valley [From the Field]”, IEEE Robotics & Automation Magazine, vol. 19, no. 2, pp. 98-100, 2012.

[8] K. Otsuka, “MMSpace: Kinetically-augmented telepresence for small group-to-group conversations”. Proceedings of 2016 IEEE Virtual Reality (VR’16). 2016.

[9] A. Sellen, B. Buxton, and J. Arnott. “Using Spatial Cues to Improve Videoconferencing.” Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI ’92). 1992.

[10] E. S. Veinott, J. Olson, G. M. Olson, and X. Fu. “Video Helps Remote Work: Speakers Who Need to Negotiate Common Ground Benefit from Seeing Each Other.” Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI ’99). 1999.

How to represent the physical space surrounding users in remote AR collaboration?

Augmented Reality (AR) is becoming a very popular technology to support remote collaboration, as it enables users to share virtual content with distant collaborators. However, sharing the physical spaces surrounding users is still a major challenge. Each user involved in an AR collaborative situation enters the shared environment with a part of its own environment [4, 9]. For example, this space can be shared in several ways for two remote users [3]: (i) in an equitable mode (i.e., half from user 1 and half from user 2) [5], (ii) in a host-guest situation where the host imposes the shape of the augmented environment to the guest [7, 8], or (iii) in a mixed environment specifically designed for the collaborative task [6]. Whatever the configuration, the question of how users perceive and use this shared environment arises [2]

[1] H. H. Clark, and S. E. Brennan. "Grounding in communication". In: L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association. 1991.

[2] S. R. Fussell, R. E. Kraut, and J. Siegel. “Coordination of communication: effects of shared visual context on collaborative work”. Proceedings of the 2000 ACM conference on Computer supported cooperative work (CSCW '00). 2000.

[3] B. T. Kumaravel, F. Anderson, G. Fitzmaurice, B. Hartmann, and Tovi Grossman. "Loki:Facilitating Remote Instruction of Physical Tasks Using Bi-Directional Mixed-Reality Telepresence". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '19), 2019.

[4] P. Ladwig and C. Geiger. “A Literature Review on Collaboration in Mixed Reality”. International Conference on Remote Engineering and Virtual Instrumentation (REV). 2018.

[5] N. H. Lehment, D. Merget and G. Rigoll. "Creating automatically aligned consensus realities for AR videoconferencing". IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2014.

[6] T. Mahmood, W. Fulmer, N. Mungoli, J. Huang and A. Lu. "Improving Information Sharing and Collaborative Analysis for Remote GeoSpatial Visualization Using Mixed Reality". IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 2019.

[7] O. Oda, C. Elvezio, M. Sukan, S. Feiner, and B. Tversky. "Virtual Replicas for Remote Assistance in Virtual and Augmented Reality". Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15), 2015.

[8] S. Orts-Escolano, C. Rhemann, S. Fanello, W. Chang, A. Kowdle, Y. Degtyarev, and al. “Holoportation: Virtual 3D Teleportation in Real-time”. Proceedings of the 29th Annual Symposium on User Interface Software and Technology (UIST '16). 2016.

[9] M. Sereno, X. Wang, L. Besancon, M. J. Mcguffin and T. Isenberg, "Collaborative Work in Augmented Reality: A Survey". IEEE Transactions on Visualization and Computer Graphics. 2020.

Principes et mise en oeuvre des architectures de Machine Learning de type « Transformers »

Résumé du sujet

Sujet sur les réseaux adversiaux génératifs (GAN)

Résumé du sujet

Modèle du comportement réactif du regard pour un agent virtuel inoccupé, basé sur signaux visuels et acoustiques

Informatique affective : myographie et réalité virtuelle

Exploitation de données de League of Legends pour l'étude de la complexité dans les décisions humaines

Comment simuler de façon efficace et réaliste les essaims de robots ?

L'étude des "Robot swarms", ou essaims de robots, porte sur les systèmes comprenant de nombreux robots - ou drones - volants, roulants, etc. qui se coordonnent de façon autonome, à partir de règles de contrôle locales basées sur les perceptions du robot et son état actuel. La conception du comportement de ces robots passent le plus souvent par un outil de simulation. Cette étude bibliographique s'intéresse aux plateformes de simulation existantes d'essaims de robots. L'objectif est de proposer le recensement le plus exhaustif possible de ces plateformes, d'en faire une synthèse, et de les catégoriser selon des critères à définir : efficacité, réalisme, langage de programmation, licence, portabilité, etc.

[1] Yihan Zhang, Lyon Zhang, Hanlin Wang, Fabián E. Bustamante, and Michael Rubenstein. 2020. SwarmTalk - Towards Benchmark Software Suites for Swarm Robotics Platforms. In Proceedings of the 19th International Conference on Autonomous Agents and MultiAgent Systems (AAMAS '20). International Foundation for Autonomous Agents and Multiagent Systems, Richland, SC, 1638–1646.

[2] Schranz, M., Umlauft, M., Sende, M., & Elmenreich, W. (2020). Swarm Robotic Behaviors and Current Applications. Frontiers in robotics and AI, 7, 36. https://doi.org/10.3389/frobt.2020.00036

[3] Webots

Mots-clés : Multi-robot System, Swarm Robotic, Simulation Platform, Robot Simulator

Comment simuler de façon efficace et réaliste les systèmes multicellulaires ?

Cette étude bibliographique s'intéresse aux plateformes de simulation existantes de cellules vivantes par l'approche multiagent ou assimilées (modèle cellulaire de Potts, automates cellulaire). L'objectif est de proposer le recensement le plus exhaustif possible de ces plateformes, d'en faire une synthèse, et de les catégoriser selon des critères à définir : efficacité, réalisme, langage de programmation, licence, portabilité, etc.

[1] Seunghwa Kang, Simon Kahan, Jason McDermott, Nicholas Flann, Ilya Shmulevich, Biocellion : accelerating computer simulation of multicellular biological system models , Bioinformatics, Volume 30, Issue 21, 1 November 2014, Pages 3101–3108, https://doi.org/10.1093/bioinformatics/btu498

[2] Starruß, J., De Back, W., Brusch, L., & Deutsch, A. (2014). Morpheus: a user-friendly modeling environment for multiscale and multicellular systems biology. Bioinformatics, 30(9), 1331-1332.

[3] Morpheus, https://morpheus.gitlab.io/

[4] Swat, M. H., Thomas, G. L., Belmonte, J. M., Shirinifard, A., Hmeljak, D., & Glazier, J. A. (2012). Multi-scale modeling of tissues using CompuCell3D. In Methods in cell biology (Vol. 110, pp. 325-366). Academic Press.

[5] Ballet, P. (2018). SimCells, an advanced software for multicellular modeling Application to tumoral and blood vessel co-development.

[6] Centillyon, https://centyllion.com/fr/

Mots clés : Cellular Potts Model, Multi-agent, Multi-cellular simulator.

IA pour la traduction automatique de l'humour et des jeux de mots

Résumé du sujet

Sujets inclus dans les stages affectés

Techniques for localized data representation in Augmented Reality

Augmented reality allows for the superimposition of virtual elements in a real-world environment that can be associated with it. It enables, for example, the display of temperature data in a room to visually identify cold spots, or the display of robot speed and trajectory to understand their movement. However, the display possibilities are twofold: the data to be displayed can be of various types (discrete/continuous, 1D/2D/3D/see 4D), and there are numerous ways to display them. Furthermore, due to augmented reality's limitations, some techniques may not be adapted or may cause display issues, particularly when the visualizations become distant or overlapping. This research topic aims to review all of the techniques that allow data to be displayed in AR in a co-localized manner, identifying their benefits and drawbacks as detailed in the scientific literature.

[1] Olshannikova, Ekaterina ; Ometov, Aleksandr ; Koucheryavy, Yevgeni ; Olsson, Thomas: Visualizing Big Data with augmented and virtual reality: challenges and research agenda. In: Journal of Big Data Bd. 2, SpringerOpen (2015), Nr. 1, S. 1–27

[2] Hedley, Nicholas R. ; Billinghurst, Mark ; Postner, Lori ; May, Richard ; Kato, Hirokazu: Explorations in the use of augmented reality for geographic visualization. In: Presence: Teleoperators and Virtual Environments Bd. 11 (2002), Nr. 2, S. 119–133

[3] Olshannikova, Ekaterina ; Ometov, Aleksandr ; Koucheryavy, Yevgeni: Towards big data visualization for augmented reality. In: Proceedings - 16th IEEE Conference on Business Informatics, CBI 2014 Bd. 2, Institute of Electrical and Electronics Engineers Inc. (2014), S. 33–37 — ISBN 9781479957781

[4] Miranda, Brunelli P. ; Queiroz, Vinicius F. ; Araújo, Tiago D.O. ; Santos, Carlos G.R. ; Meiguins, Bianchi S.: A low-cost multi-user augmented reality application for data visualization. In: Multimedia Tools and Applications Bd. 81, Springer (2022), Nr. 11, S. 14773–14801

[5] Martins, Nuno Cid ; Marques, Bernardo ; Alves, João ; Araújo, Tiago ; Dias, Paulo ; Santos, Beatriz Sousa: Augmented reality situated visualization in decision-making. In: Multimedia Tools and Applications Bd. 81, Springer (2022), Nr. 11, S. 14749–14772

How collaboration in mixed reality can benefit from the use of heterogeneous devices?

The massive development of display technologies brings a wide range of new devices, such as mobile phones, AR/VR headsets and large displays, available to the general public. These devices offer many opportunities for co-located and remote collaboration on physical and digital content. Some can handle groups of co-located users [10, 13], while others enable remote users to connect in various situations [3, 6, 11, 14]. For example, some previous systems allow users to use a mobile device to interact with a co-located partner wearing a VR headset [4, 7]. Other systems enable users in VR to guide a remote collaborator using an AR headset [1, 8, 9, 12]. [1] H. Bai, P. Sasikumar, J. Yang, and M. Billinghurst. "A User Study on Mixed Reality Remote Collaboration with Eye Gaze and Hand Gesture Sharing". Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI’20), 2020.

[2] H. H. Clark, and S. E. Brennan. "Grounding in communication". In: L. B. Resnick, J. M. Levine, & S. D. Teasley (Eds.), Perspectives on socially shared cognition (pp. 127–149). American Psychological Association. 1991.

[3] C. Fleury, T. Duval, V. Gouranton, A. Steed. "Evaluation of Remote Collaborative Manipulation for Scientific Data Analysis", ACM Symposium on Virtual Reality Software and Technology (VRST’12), 2012.

[4] J. Gugenheimer, E. Stemasov, J. Frommel, and E. Rukzio. "ShareVR: Enabling Co-Located Experiences for Virtual Reality between HMD and Non-HMD Users". Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI '17), 2017.

[5] J. Hollan and S. Stornetta. "Beyond being there". In : Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI’92), 1992.

[6] B. T. Kumaravel, F. Anderson, G. Fitzmaurice, B. Hartmann, and Tovi Grossman. "Loki:Facilitating Remote Instruction of Physical Tasks Using Bi-Directional Mixed-Reality Telepresence". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '19), 2019.

[7] B. T. Kumaravel, C. Nguyen, S. DiVerdi, and B. Hartmann. "TransceiVR: Bridging Asymmetrical Communication Between VR Users and External Collaborators". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST '20), 2020.

[8] M. Le Chénéchal, T. Duval, J. Royan, V. Gouranton, and B. Arnaldi. “Vishnu: Virtual Immersive Support for HelpiNg Users - An Interaction Paradigm for Remote Collaborative Maintenance in Mixed Reality”. Proceedings of 3DCVE 2016 (IEEE VR 2016 International Workshop on 3D Collaborative Virtual Environments). 2016.

[9] M. Le Chénéchal, T. Duval, V. Gouranton, J. Royan, and B. Arnaldi. “The Stretchable Arms for Collaborative Remote Guiding”. Proceedings of ICAT-EGVE 2015, Eurographics. 2015.

[10] C. Liu, O. Chapuis, M. Beaudouin-Lafon, and E. Lecolinet. “Shared Interaction on a Wall-Sized Display in a Data Manipulation Task.” In: Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems. CHI ’16.

[11] P. Mohr, S. Mori, T. Langlotz, B. H. Thomas, D. Schmalstieg, and D. Kalkofen. "Mixed Reality Light Fields for Interactive Remote Assistance". Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI’20), 2020.

[12] O. Oda, C. Elvezio, M. Sukan, S. Feiner, and B. Tversky. "Virtual Replicas for Remote Assistance in Virtual and Augmented Reality". Proceedings of the 28th Annual ACM Symposium on User Interface Software & Technology (UIST '15), 2015.

[13] Y. Okuya, O. Gladin, N. Ladévèze, C. Fleury, P. Bourdot. "Investigating Collaborative Exploration of Design Alternatives on a Wall-Sized Display", ACM Conference on Human Factors in Computing Systems (CHI’20), 2020.

[14] H. Xia, S. Herscher, K. Perlin, and D. Wigdor. "Spacetime: Enabling Fluid Individual and Collaborative Editing in Virtual Reality". Proceedings of the ACM Symposium on User Interface Software and Technology (UIST ’18), 2018.