« BIBL » : différence entre les versions

De Parcours SIIA
Aller à la navigation Aller à la recherche
Aucun résumé des modifications
Ligne 57 : Ligne 57 :
*  [https://www.enib.fr/~chevaill/documents/master/siia_bibl/Safety_and_Usability_of_Speech_Interfaces_for_In-V.pdf Safety and Usability of Speech Interfaces for In-Vehicle Tasks while Driving: A Brief Literature Review], Adriana Barón and Paul Green, Tec/. Report, The University of Michigan Transportation Research Institute, 2006.
*  [https://www.enib.fr/~chevaill/documents/master/siia_bibl/Safety_and_Usability_of_Speech_Interfaces_for_In-V.pdf Safety and Usability of Speech Interfaces for In-Vehicle Tasks while Driving: A Brief Literature Review], Adriana Barón and Paul Green, Tec/. Report, The University of Michigan Transportation Research Institute, 2006.


== Sujets d'étude 2019-2020 ==
== Sujets d'étude 2020-2021 ==
 
=== B19-01 : Apports de la réalité virtuelle et augmentée aux jumeaux numériques  ===
 
Enseignant référent : Pierre Chevaillier
 
Sujet : Après avoir défini le concept de jumeau numérique (digital twin), il s'agit d'identifier ce que la réalité virtuelle (RV) ou la réalité augmentée (RA) peut apporter dans le cadre des jumeaux numériques (DT : digital twins) de systèmes de production. L'étude devra aussi identifier quelles sont les applications pratiques de ce couplage entre RV-RA et DT.
 
Références :
 
*  Havard, V., Jeanne, B., Lacomblez, M.  & Baudry, D. (2019) Digital twin and virtual reality: a co-simulation environment for design and assessment of industrial workstations, Production & Manufacturing Research, 7(1): 472-489
 
* Rabah, S., Assila, A., Khouri, E.,  Ababsa, F., Bourny, V., Maier, P., Mérienne, F. (2018) Towards improving the future of manufacturing through digital twin and augmented reality technologies, Procedia Manufacturing, 17: 460-467.
 
* Kuts. V., Otto, T., Tähemaa, T. & Bondarenko, Y.  (2019) Digital Twin based synchronised control and simulation of the industrial robotic cell using Virtual Reality, Journal of Machine Engineering, 19(1): 128-145.
 
=== B19-02 : Résolution du problème de l'emploi du temps par systèmes multi-agents  ===
 
Enseignant référent : Pierre Chevaillier
 
Sujet : La réalisation d'un emploi du temps (timetable scheduling) pour une université ou une école d'ingénieurs est un problème complexe. En effet, il faut satisfaire de nombreuses contraintes de natures différentes. Par certains aspects le problème se prête bien à une résolution distribuée des contraintes (Distributed Constraints Problems). Certains ont proposé des solutions basées sur des systèmes multi-agents pour traiter ce problème. Qu'est-ce qui justifie une telle approche ? Comment le problème est-il posé ? Quels modèles ont été mis en oeuvre et pour quels résultats ? L'objectif de l'étude est de répondre à ces questions.
 
Références :
 
* Babaei H. & Hadidi A. (2014), A Review of Distributed Multi-Agent Systems Approach to Solve University Course Timetabling Problem, Advances in Computer Science: an International Journal, 3(11): 19-28
* Fioretto FG., Pontelli E. & Yeah W. (2018) Distributed Constraint Optimization Problems and Applications: A Survey. Journal of Artificial Intelligence Research, 61: 623-698
 
* Houhamdi A., Athamena B., Abuzaineddin R. & Muhairat M. (2019),A Multi-Agent System for Course Timetable Generation, TEM Journal.  8(1): 211-221
 
* Oprea M. (2007) MAS_UP-UCT: A Multi-Agent System for University Course Timetable Scheduling, International Journal of Computers, Communications & Control, 2(1): 94-102.
 
=== B19-03 : Machine Learning for Speech-driven facial animation  ===
 
Enseignant référent : Pierre Chevaillier
 
Sujet : Le contrôle d'un agent conversationnel animé ("tête parlante") nécessite une très bonne synchronisation entre la production verbal de l'agent et les mouvements du visage. Chez un "vrai" humain, l'activité du corps génère la production du son. Chez un humain de synthèse, on définit d'abord ce que l'agent doit dire (et comment : expressivité), puis on anime le visage en conséquence de façon à ce que le résultat soit cohérent. Récemment, différentes méthodes basées données, dont l'utilisation de différents types de réseaux de neurones, ont été proposées pour résoudre ce problème d'animation facial temps réel piloté par la production verbale. L'étude est de faire une synthèse sur les méthodes utilisées récemment : comment le problème est-il abordé ? Quels types de modèle ont été utilisés et pour quelles performances ?
 
Références :
 
* Greenwood D., Matthews I. & Laycik S. (2018) Joint Learning of Facial Expression and Head Pose from Speech, Proceedings of Interspeech Conférence, 2484-2488
 
* Nishimura R., Sakata N., Tominaga T., Hijikata Y., Harada K. & Kiyokawa K. (2019) Speech-Driven Facial Animation by LSTM-RNN for Communication Use, Proceedings of the 12th Asia Pacific Workshop on Mixed and Augmented Reality (APMAR).
 
* Vougioukas K., Petridis S. & Pantic M. (2018) End-to-End Speech-Driven Facial Animation with Temporal GANs,  arXiv:1805.09313 [eess.AS]
 
=== B19-04 : Apprentissage automatique d'arbres de comportement  ===
 
Enseignant référent : Pierre Chevaillier
 
Sujet : Utilisation des méthodes d'apprentissage de "behavior trees" (BT) dans les jeux vidéo et en robotique. Les BT sont des modèles très utilisés dans pour le contrôle des Personnages non joueurs (PNJs) dans les jeux vidéos. Différentes approches ont été proposées pour l'optimisation de ces modèles : à base de réseaux de neurones ou d'algorithmes révolutionnaires, avec différents paradigmes d'apprentissage. L'objectifs de cette étude est de recenser les solutions existantes en identifiant bien quel(s) problème(s) elles tentent de résoudre.
 
Références :
 
* Colledanchise M., Ramviyas Parasuraman R., and Petter Ogren P. (2019), Learning of Behavior Trees for Autonomous Agents (short paper), Proceedings  IEEE TRANSACTIONS ON GAMES, 11(2)
 
* Sagredo-Olivenza I., Gomez-Martin, P. P., Gomez-Martin M. O. & Gonzales-Caero P. A. (2010) Trained Behavior Trees: Programming by Demonstration to Support AI Game Designers Proceedings  IEEE TRANSACTIONS ON GAMES, 11(2)
 
* C. Iliffe Sprague, P. Ogren (2018) Adding neural network controllers to behavior trees without destroying performance guarantees, Adding  Neural  Network  Controllers  to  Behavior  Trees without  Destroying  Performance  Guarantees, arXiv:1809.10283, 2018
 
=== B19-05 : Méthodes de réduction de la cyber-sickness dans les dispositifs de réalité virtuelle  ===
 
Enseignant référent : Pierre Chevaillier
 
Sujet : Les expériences immersives en réalité virtuelle, surtout avec un casque, génèrent chez certains utilisateur un malaise, voire des nausées qui sont fortement préjudiciable à la qualité de l'expérience utilisateur. On désigne ce ph"noumène par "cyber sickness". De nombreux travaux ont pour objectif de caractériser les facteurs favorisant son apparition et les moyens de la limiter. L'objectif de l'étude est de faire une revue de littérature sur ce sujet.
 
Références :
 
* Garcia-Agundez A., Westmeier A., Caserman P., Konrad R., Göbel S. (2017) An Evaluation of Extrapolation and Filtering Techniques in Head Tracking for Virtual Environments to Reduce Cybersickness. In: Alcañiz M., Göbel S., Ma M., Fradinho Oliveira M., Baalsrud Hauge J., Marsh T. (eds) Serious Games. JCSG 2017. Lecture Notes in Computer Science, vol 10622. Springer, Cham
 
* Pulkit Budhiraj, Mark Roman Miller, Abhishek K Modi & David Forsyth (2017) Rotation blurring: use of artificial blurring to reduce cybersickness in virtual reality first person shooters,  arXiv:1710.02599 [cs.HC]
 
*  Kemeny, Andras; George, Paul; Mérienne, Frédéric; Colombet, Florent, New VR Navigation Techniques to Reduce Cybersickness (2017) S&T International Symposium on Electronic Imaging. 48-53
 
* Maryam Mousavi, Yap Hwa Jen and Siti Nurmaya Binti Musa (2013) A Review on Cybersickness and Usability in Virtual Environments, Advanced Engineering Forum, 10:34-39
 
* Wang G. & Suh A. (2019), USER ADAPTATION TO CYBERSICKNESSIN VIRTUAL REALITY: A QUALITATIVESTUDY, ECIS 2019 Proceedings.
 
=== B19-06 : Intrinsic motivation for learning applied to Human-Robot Interactions  ===
 
Enseignant référent : Pierre Chevaillier
 
Sujet :
Un des verrous de l'Intelligence artificielle Générale est la pro-activité totale d'un agent qui suppose sa capacité à choisir ses propres buts. Ceci suppose que certaines activités soient réalisées pour la seule satisfaction de les réaliser (et non pour atteindre un autre but). Est-on capable de doter une entité artificielle d'une telle motivation intrinsèque ? Peut-elle s'appliquer à l'apprentissage de comportement ? Certains ont tenté d'appliquer ces principes pour l'apprentissage de comportement de robots en interaction avec des humains. L'objectif de cette étude est de faire le point sur ces travaux.
 
Références :
 
* Hester T. & Stone P. (2017) Intrinsically motivated model learning for developing curious robots, Artificial Intelligence, 247: 170-186
 
* Oudeyer P.-Y., Kaplan F. (2008) How can we define intrinsic motivation? Proceedings of the 8th international conference on epigenetic robotics: Modeling cognitive development in robotic systems
 
*  A. H. Qureshi, Y. Nakamura, Y. Yoshikawa H. Ishiguro (2018) Intrinsically motivated reinforcement learning for human–robot interaction in the real-world. Neural Networks (107): 23-33
 
* Huang et al. (2019) Learning Gentle Object Manipulation with Curiosity-Driven Deep Reinforcement Learning. arXiv:1903.08542 [cs.RO]
 
=== B19-07 : Méthodes de détection d'anomalies dans les séries de données  ===
 
Enseignant référent : Pierre Chevaillier
 
Sujet : De nombreux systèmes ont besoin d'un suivi en continu de leur activité en vue de détecter toute activité anormale. Il peut s'agir de détecter des pannes dans des réseaux de capteur, des intrusions ou activité suspicieuse dans une système d'information... Une idée serait de disposer de méthodes permettant de détecter en ligne de telles anomalies et éventuellement d'en identifier la cause. Il est possible d'utiliser certaines classes de réseaux de neurones pour le faire.  Le problème peut se poser de manière différentes selon que l'on ne dispose que de séries "normales", que l'on cherche des événements anormaux ou des séquences, qu'il s'agisse de données discrètes ou continues...  L'objet de cette étude est de faire la synthèse des travaux récents dans ce domaine en identifiant les techniques utilisées selon les classes de problèmes.
 
Références :
 
* V. Chandola, A.  Banerjee and V. Kumar (2012) Anomaly Detection for Discrete Sequences: A Survey, IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING,  VOL. 24,  NO. 5: 823-839
 
* P. Malhotra, L. Vig, G. Shroff & P. Agarwal (2015) Long Short Term Memory Networks forAnomaly Detection in Time Series, Proceedings, European Symposium on Artificial Neural Networks, Computational  Intelligence and Machine Learning, 89-94
 
* A. Nanduri &  L. Sherry  (2016) Anomaly detection in aircraft data using Recurrent Neural Networks, Proceedings of Integrated Communications Navigation and Surveillance (ICNS) Conference, paper 5C2.
 
=== B19-08 :  Interactions Humain-Essaim de drones  ===
 
Enseignant référent : Jérémy Rivière
 
Sujet :
L'étude des "Robot swarms", ou essaims de robots, porte sur les systèmes comprenant de nombreux robots - ou drones - volants, roulants, etc. qui se coordonnent de façon autonome, à partir de règles de contrôle locales basées sur les perceptions du robot et son état actuel, à la manière d'agents dans les SMA (systèmes multi-agents).
L'interaction entre un opérateur humain et un essaim de robots ouvre la porte à de nouveaux moyens de contrôle ou d'influence du comportement de l'essaim. 
Il est demandé dans ce travail de faire un état de l'art des différentes problématiques que l'interaction soulèvent, et des différents moyens d'interaction mis en place dans les travaux de recherche.
On s'intéressera plus particulièrement à 2 grands types d'interaction : interaction à distance, où l'opérateur n'est pas présent dans le même environnement que l'essaim, et interaction directe ou indirecte dans un environnement partagée.
 
Références :
 
* A. Kolling, P. Walker, N. Chakraborty, K. Sycara and M. Lewis, Human Interaction With Robot Swarms: A Survey, in IEEE Transactions on Human-Machine Systems, vol. 46, no. 1, pp. 9-26, Feb. 2016.
 
* Mclurkin, James & Smith, Jennifer & Frankel, James & Sotkowitz, David & Blau, David & Schmidt, Brian. (2006). "Speaking Swarmish: Human-Robot Interface Design for Large Swarms of Autonomous Mobile Robots". AAAI, 72-75.
 
* Nagi, Jawad & Giusti, Alessandro & Gambardella, Luca & Di Caro, Gianni. (2014). "Human-Swarm Interaction Using Spatial Gestures". IEEE International Conference on Intelligent Robots and Systems.
 
=== B19-09 : Altruisme et Systèmes Multi-Agents ===
 
Enseignant référent : Jérémy Rivière
 
Sujet :
L'altruisme a été utilisé dans plusieurs travaux de recherche concernant les SMA, autant en résolution de problèmes qu'en simulation. Ce travail consiste à recenser de la façon la plus exhaustive possible ces travaux, en s'intéressant au comportement des agents altruistes : quels sont les points communs de ces agents ? Peut-on en déduire une (ou plusieurs) définition(s) de l'altruisme ?
 
Références :
*  SIMONIN O., FERBER J., « Modélisation des satisfactions personnelle et interactive d'agents situés coopératifs », JFIADSMA'01, Montreal, Canada, 2001, p. 215-226.
 
* Lucidarme, Philippe & Simonin, Olivier & Liegeois, A. "Implementation and Evaluation of a Satisfaction/Altruism Based Architecture for Multi-Robot Systems". IEEE International Conference on Robotics and Automation, pp 1007 - 1012 vol.1 (2002)
 
* Lounis Adouane, Nadine Le Fort-Piat. "Hybrid Behavioral Control Architecture for the Cooperation of Minimalist Mobile Robots". ICRA’04, International Conference On Robotics And Automation, 2004, New Orleans, United States.
 
* Valérie  Camps,  Marie-Pierre  Gleizes. "Réflexions  sur  l’apprentissage  en  univers  multi-agents". Journée du  PRC GDR IA, "Les  systèmes  multi-agents", Toulouse, Février 1996 et Journées  du PRC GDR IA, Grenoble Mars 1997, Editions Hermès.
 
* Mitteldorf and Wilson, 2000, "Population Viscosity and the Evolution of Altruism", Journal of Theoretical Biology, v.204, pp.481-496. (aussi un modèle NetLogo : http://ccl.northwestern.edu/netlogo/models/Altruism)
 
* https://www.comses.net/codebases/?query=altruism
 
=== B019-10 : Interactions naturelles en réalité virtuelle avec un système complexe. ===
 
Enseignant référent : Thomas Alves
 
Sujet :
Les interactions naturelles, définies comme étant des alternatives plus intuitives aux interfaces classiques (clavier souris, manettes etc..), permettent une utilisation plus fluide et instinctive d'applications. Par exemple, utiliser le mouvements du corps, comme le kinect ou des mains avec le Leap Motion, ou avec des interacteurs tangibles, comme des objets à placer sur des supports etc.
Nous nous intéressons donc ici à une comparaison des différentes interactions naturelles énoncées dans la littérature, leurs avantages et inconvénients, comme les implications autant au niveau logiciel qu'au niveau matériel, la précision, les possibilités etc.
Nous nous intéresserons particulièrement aux exemples de telles interactions utilisées pour la manipulation du temps.
 
Références :
 
* Ishii, H., & Ullmer, B. A. (1997). Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms. In Proceedings of the 1997 CHI Conference on Human Factors in Computing Systems - CHI ’97 (pp. 234–241). Atlanta, USA: ACM.
 
* Marin, Giulio, Fabio Dominio, and Pietro Zanuttigh. “Hand Gesture Recognition with Leap Motion and Kinect Devices.” In 2014 IEEE International Conference on Image Processing (ICIP), 1565–69. Paris, France: IEEE, 2014. https://doi.org/10.1109/ICIP.2014.7025313.
 
* Wen, Hongyi, Julian Ramos Rojas, and Anind K. Dey. “Serendipity: Finger Gesture Recognition Using an Off-the-Shelf Smartwatch.” In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems - CHI ’16, 3847–51. Santa Clara, California, USA: ACM Press, 2016. https://doi.org/10.1145/2858036.2858466.
 
* Ullmer, B. A. (2002). Tangible interfaces for manipulating aggregates of digital information. Massachusetts Institute of Technology.
 
* Fitzmaurice, G. W., Ishii, H., & Buxton, W. (1995). Bricks: Laying the Foundations for Graspable User Interfaces. In Proceedings of the 1995 CHI Conference on Human Factors in Computing Systems - CHI ’95 (pp. 442–449). Denver, USA: ACM.
 
* Hornecker, E. (2012). Beyond Affordance: Tangibles’ Hybrid Nature. In Proceedings of the Sixth International Conference on Tangible, Embedded and Embodied Interaction (pp. 175–182). New York, NY, USA: ACM. https://doi.org/10.1145/2148131.2148168
 
* Kim, H., Coutrix, C., & Roudaut, A. (2019). KnobSlider: Design of a Shape-Changing Parameter Control UI and Study of User Preferences on Its Speed and Tangibility. Frontiers in Robotics and AI, 6, 79. https://doi.org/10.3389/frobt.2019.00079
 
* Zuckerman, O., & Gal-Oz, A. (2013). To TUI or not to TUI: Evaluating performance and preference in tangible vs. graphical user interfaces. International Journal of Human-Computer Studies, 71(7), 803–820. https://doi.org/https://doi.org/10.1016/j.ijhcs.2013.04.003
 
=== B19-11 : Teamwork: how can it be characterized?  ===
 
Enseignant référent : Maria Teresa Segarra
 
Sujet :
There is an important trend in education to make students work (and learn) in groups. Research has analyzed the effectiveness of cooperative learning with respect to academic performance. There is a lot of empirical support in favor of cooperative learning as an important contributor for higher academic achievement [1][2][3].
On one hand, several works are interested on how the dynamics of the group (equitable, group dominated by one individual...) may impact academic achievements of its members [4]. On the other hand, the attitude of a student may highly impact the dynamics of the group and so academic performance. Therefore, for a teacher that makes students work in groups, it can be interesting to track their dynamics and students attitude so that she/he may better understand their academic performance and make decisions.
Moreover, effective teamwork skills are seen by organizations as one of the most important professional competencies for students to acquire [5]. Teachers should not only assess academic performance of each student but also her/his contribution to the dynamics of the group. However, few works propose tools to help teachers keep track of these dynamics. Such a tool should allow teachers to track events that characterize one or several aspects of teamwork and, depending on them, decide about effective teamwork of the group.
The goal of this wok is to do a literature review of existing rubrics characterizing teamwork. The goal of the review is to give foundation for a tool-based rubric used by teachers to keep track of teamwork on their class. The starting point will be two existing teamwork rubrics: TeamUp’ [7] and Q-Team [8].
 
Références :
 
[1] Vaughan W., Effects of cooperative learning on achievement and attitude among students. Journal of Educational Research, 95(6), 2002.
 
[2] Kooloos J.G., Klaassen T., Vereijken M., Van Kuppeveld S., Bolhuis S., Vorstenbosch M., Collaborative group work: Effects of group size and assignment structure on learning gain, student satisfaction and perceived participation. Med Teach, 33(12), 2011.
 
[3] Cooperative Learning: Best Practices, Center for Research on Learning and Teaching University of Michigan, 2006. http://www.crlt.umich.edu/publinks/clgt_bestpractices Last visited 19/10/2019.
 
[4] Theobald E.J., Eddy S.L., Grunspan D.Z., Wiggins B.L., Crowe A.J., Student perception of group dynamics predicts individual performance: Comfort and equity matter. PloS ONE, 12(7), 2017.
 
[5] Miller D., The Stages of Group Development: A Retrospective Study of Dynamic Team Processes. Canadian Journal of Administrative Sciences / Revue Canadienne des Sciences de l'Administration. 20. 121 - 134. 10.1111/j.1936-4490.2003.tb00698.x.
 
[6] Casper W.C., Teaching beyond the topic teaching teamwork skills in higher education. Journal of Higher Education Theory and Practice, 17, 53-63, 2017.
 
[7] Hastie C.R., TeamUP': An approach to developing teamwork skills in undergraduate midwifery students. Midwifery, 58:93-95, 2018.
 
[8] Emily B., Natalie S., Andrew L., Jenn S., Assessing teamwork in undergraduate education: a measurement tool to evaluate individual teamwork skills. Assessment & Evaluation in Higher Education, 42:3, 378-397, 2017.
 
<!--
== Sujets d'étude 2018-2019 ==
 
=== B18-01 : Les différentes plateformes de simulation à base d'agents et les grands nombres d'agents ===
 
Enseignant référent : Jérémy Rivière
 
Il s'agit de recenser les principales plateformes / logiciels permettant de faire de la simulation à base d'agents, en les comparant notamment selon le langage de programmation utilisé et leur capacité à simuler un grand nombre d'agents.
 
Références :
* Alban Rousset, Bénédicte Herrmann, Christophe Lang. Étude comparative des plateformes parallèles pour systèmes multi-agents. Pascal Felber and Laurent Philippe and Etienne Riviere and Arnaud Tisserand. ComPAS 2014: conférence en parallélisme, architecture et systèmes, Neuchâtel, Suisse. 2014.
 
* Nikolai, C.; G. Madey (2008). "Tools of the Trade: A Survey of Various Agent Based Modeling Platforms", Journal of Artificial Societies and Social Simulation, 12 (2). Au.
 
* R.J. Allan (2009) Survey of Agent Based Modelling and Simulation Tools
 
=== B18-02 : Modèles et simulations à base d'agents de butinage chez l'abeille ===
 
Enseignant référent : Jérémy Rivière
 
De nombreux modèles à base d'agents se sont concentré sur l'activité de butinage chez l'abeille. Il vous est demandé dans ce travail d'identifier ces travaux et leurs points communs / différences, notamment sur le contenu des modèles et leurs objectifs, en présentant également leurs avantages et leurs inconvénients.
 
Références :
* Jérémy Rivière, Cédric Alaux, Yves Le Conte, Yves Layec, André Lozac'H, Vincent Rodin, Frank Singhoff. Toward a Complete Agent-Based Model of a Honeybee Colony. Highlights of Practical Applications of Agents,
Multi-Agent Systems, and Complexity: The PAAMS Collection, Jun 2018, Toledo, Spain.
 
* Dornhaus, A., Klügl, F., Oechslein, C., Puppe, F., Chittka, L.: Benefits of recruitment in honey bees: effects of ecology and colony size in an individual-based model. Behav. Ecol. 17(3), 336–344 (2006)
 
* Seeley, T.D., Camazine, S., Sneyd, J.: Collective decision-making in honey bees: how colonies choose among nectar sources. Behav. Ecol. Sociobiol. 28(4), 277–290 (1991)
 
* de Vries, H., Biesmeijer, J.C.: Modelling collective foraging by means of individual behaviour rules in honey-bees. Behav. Ecol. Sociobiol. 44(2), 109–124 (1998)
 
* Becher, M.A., Grimm, V., et al.: BEEHAVE: a systems model of honeybee colony dynamics and foraging to explore multifactorial causes of colony failure. J. Appl. Ecol. 51(2), 470–482 (2014)
 
=== B18-03 Visualisation immersive et interactions avec les simulations à base d'agents ===
 
Enseignant référent : Jérémy Rivière
 
La réalité virtuelle offre de nombreux moyens de visualisation et d'interactions avec les mondes virtuels, simulés par exemple grâce à des systèmes multi-agents. Ce travail demande de
recenser les différents moyens et outils utilisés dans le domaine spécifique des simulations à base d'agents.
 
Références :
 
* Arnaud Grignard, Alexis Drogoul - Agent-Based Visualization: A Real-Time Visualization Tool Applied Both to Data and Simulation Outputs - The AAAI-17 Workshop on Human-Machine Collaborative Learning - 2017
 
* A. Louloudi and F. Klügl, "A new framework for coupling agent-based simulation and immersive visualisation," in Proceedings of the 26th European Conference on Modelling and Simulation (ECMS), 2012.
 
* G. Desmeulles, G. Querrec, P. Redou, S. Kerdélo, L. Misery, V. Rodin and J. Tisseau. The virtual reality applied to the biology understanding: the in virtuo experimentation. Expert Systems with Applications, Elsevier, 30(1):82-92, January 2006.
 
* Fanini, Bruno; Calori, Luigi. 3D interactive visualization of crowd simulations at urban scale. A: International Conference Virtual City and Territory. "9° Congresso Città e Territorio Virtuale, Roma, 2, 3 e 4 ottobre 2013". Roma: Università degli Studi Roma Tre, 2014, p. 276-284.
 
=== B18-04 : Les solutions de réalité augmentée sur dispositif Android ===
 
Enseignant référent : Thierry Duval
 
Il s'agit de réaliser un état de l'art sur les outils logiciels permettant de faire de la Réalité Augmentée sur dispositif Android (type téléphone ou tablette).  L'étude consiste à un tableau comparatif décrivant les avantages et inconvénients des différentes solutions existantes, les environnements de développement associés, les langages de programmation qu'il faut utiliser pour manipuler ces API.
Idéalement il faudrait également avoir testé chacun de ces produits (pour les produits payants, seulement si il y a une licence gratuite...) et évalué la difficulté de déploiement.
 
Références :
* https://www.wikitude.com/store/
 
* https://deepar.ai/augmented-reality-sdk/
 
* https://www.easyar.com/
 
* http://www.artoolkitx.org/
 
* https://developer.vuforia.com/
 
* https://nyatla.jp/nyartoolkit/wp/
 
=== B18-05 : Synthèse vocale à l'aide de réseaux de neurones ===
 
Enseignant référent : Pierre Chevaillier
 
L'objectif est d'étudier les avancées récentes dans le domaine de la synthèse vocale par l'utilisation de réseaux de neurones de type deep-learning. Ces solutions visent à améliorer la prosodie des phrases énoncées par de telles systèmes de façon à la rendre plus naturelle. Il s'agit de comparer les méthodes utilisées  dans les systèmes récents.
 
Références :
 
* Fan, Y., Qian, Y., Xie, F.-L., & Soong, F. K. (2014.). TTS Synthesis with Bidirectional LSTM Based Recurrent Neural Networks, In Proceedings of Interspeech'14, pp. 1964-1968
 
* Okamoto, T., Tachibana, K., Toda, T., Shiga, Y., & Kawai, H. (2018). Deep neural network-based power spectrum reconstruction to improve quality of vocoded speech with limited acoustic parameters. Acoustical Science and Technology, 39(2), 163–166.
 
* Wan, V., Agiomyrgiannakis, Y., Silen, H., & Vít, J. (2017). Google’s Next-Generation Real-Time Unit-Selection Synthesizer Using Sequence-to-Sequence LSTM-Based Autoencoders. In Proceedings of Interspeech 2017, pp. 1143–1147.
 
* Wu, Z., Watts, O., & King, S. (2016). Merlin: An Open Source Neural Network Speech Synthesis System. 9th ISCA Speech Synthesis Workshop,  202–207.
 
* Zen, H., & Sak, H. (2015). Unidirectional long short-term memory recurrent neural network with recurrent output layer for low-latency speech synthesis. In 2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). South Brisbane, Queensland, Australia, pp. 4470–4474.
 
=== B18-06 : Simulateurs de systèmes multi-cellulaires ===
 
Enseignant référent : Pascal Ballet
 
* PhysiCell : https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1005991
 
* BioCellion : https://academic.oup.com/bioinformatics/article/30/21/3101/2422245
 
* CompuCell 3D : http://www.compucell3d.org/
 
* SimCells : http://virtulab.univ-brest.fr/simcells.html
 
=== B18-07 : Interaction Humain-Système : reconnaissance d'activités humaines en environnement naturel ===
 
Enseignant référent : Alexis Nédélec
 
Le sujet proposé consiste à faire une étude bibliographique sur les algorithmes d'apprentissage machine dédiés à la reconnaissance de gestes et d'activités humaines par un système informatique pour établir une interaction entre un humain et un humanoïde de synthèse dans un environnement naturel.
Cette étude portera plus spécifiquement sur la détection et la reconnaissance d'activités humaines à partir de squelette 3D [2, 4] dans des flux vidéos [1,3,5].
 
* [1] Dushyant et. al. "VNECT: Real-time 3d human pose estimation with a single RGB camera". ACM Transactions on Graphics (SIGGRAPH 2017), Los Angeles, USA, 2017.
 
* [2] Ke et. al. "a new representation of skeleton sequences for 3d action recognition". Computer Vision and Pattern Recognition 2017, 2017.
 
* [3] Wang et. al. "rgb-d-based human motion recognition with deep learning : A survey". Elsevier Computer Vision and Image Understanding (CVIU), 2018.
 
* [4] Tae Soo Kim and Austin Reiter. "interpretable 3d human action analysis with temporal convolutional networks". Computer Vision and Pattern Recognition 2017, 2017.
 
* [5] Wu, Sharma, and Blumenstein. "recent advances in video-based human action recognition using deep learning : A review". International Joint Conference on Neural Networks (IJCNN), 2017.
 
=== B18-08 : Fédération de modèles pour des approches multi-points de vues ===
 
Enseignant référent : Joël Champeau
 
=== B18-09 : Dialogue models for natural language question answering on restricted-Domain  ===
 
Enseignant référent : Pierre Chevaillier
 
Cette étude vise à définir les modèles de dialogue utilisable pour un réaliser un Chatbot permettant de formuler une requête sur un système d'information dans un domaine particulier. On s'intéresse plus particulièrement à deux questions : quels types de modèles pour quels types de question ? Quels modèles de représentation des connaissances sont adaptés à ce problème ?
 
Références :
* A., S., & John, D. (2015). Survey on Chatbot Design Techniques in Speech Conversation Systems. International Journal of Advanced Computer Science and Applications, 6(7).
 
* Denecke, M., & Yasuda, N. (2008). Does this answer your Question? Towards Dialogue Management for Restricted Domain Question Answering Systems. In Recent Trends in Discourse and Dialogue (Vol. 39, pp. 219–246). Springer.
 
* Mollá, D., & Vicedo, J. L. (2007). Question Answering in Restricted Domains: An Overview. Computational Linguistics, 33(1), 41–61.
 
* Quarteroni, S., & Manandhar, S. (2007). A Chatbot-based Interactive Question Answering System. In Proceedings of the 11th Workshop on the Semantics and Pragmatics of Dialogue (pp. 83–90). Trento, Italy.
 
-->

Version du 17 juillet 2020 à 08:41


Méthode de travail et objectifs

Affectations sujets

Indications générales

Voici quelques indications pour la rédaction de l'étude bibliographique et sa restitution orale : instructions biblio (révision nov. 2019).

Documents à étudier

Comme toute technique d'ingénierie, ou toute démarche scientifique, la réalisation d'une étude bibliographique, appelée aussi revue de littérature (littérature review), doit être réalisée de manière méthodique et apporter des éléments pour en apprécier la justesse et la pertinence. Même si les motivations pour réaliser un tel exercice peuvent être diverses, dans ses grandes lignes, la méthodologie reste la même.

Voici quelques documents à lire avant et pendant la réalisation de votre étude.

Sujets d'étude 2020-2021