Theses

The human-computer interaction group offers various theses and projects. All topics include conceptional work, implementation, and evaluation in the area of human computer interaction and will be presented at the HCI colloquium.  The phd students work on research projects linked to the following topics. If you want to do a project or thesis with us, please contact Sarah Faltaous with the topics you are interested in, the type of work you want to do, and some information on already done projects and experiences.

Jonas Auda: Virtual Reality, Interacting with Drones, Brain Computer Interfaces.

Sarah Faltaous: Interacting with the Internet of Things, Activity Motivating Application, Health Monitoring Systems.

Jonathan Liebers: Novel Authentication and Identification Schemes using Machine Learning & Deep Learning, Biometric Authentication in Virtual and Mixed Reality, Wearable and Embedded Tools for User Identification.

Alia Saad: Usable Security and Privacy, Behavioral Biometrics in Mixed Reality and on Mobile Devices, Spoofing Authentication.

Henrik Detjen: Interacting with Autonomous Vehicles, Communicating Intends of Autonomous Vehicles, Trust and User Acceptance of Novel Transportation Method. 

Max Pascher: Human-Robot Collaboration, Intervention Strategies/ Interfaces, Multimodal Input & Feedback Technologies, Augemented/Mixed/Virtual Reality, Assistive Technologies.

Carina Liebers: Interaction with Virtual Reality, Human-Robot Interaction, Robot Training using Machine Learning & Deep Learning

Filter:
  • Multimodal Interaction Design to control combined Degrees of Freedom of a Cooperative Robot (Original Title: Multimodales Interaktionsdesign zur Steuerung kombinierter Freiheitsgrade eines kooperativen Roboters) Details

    Motivation

    An assistive robotic arm is a valuable support for people with severely limited arm and hand mobility. However, its use is strenuous and time-consuming because the seven movement options (degrees of freedom, DoF) of a robotic arm are matched by only two of a typical input device (e.g., joystick). Therefore, it is very often necessary to manually switch between motion possibilities.

    Goals and procedure

    In the project, the use of assistive robotic arms will be facilitated by using deep neural networks. The AI-based control system or a simulation for testing will be provided. In a user-centered design process for human-robot communication, possibilities for the representation of feedback will be explored using an augmented/virtual reality headset. In particular, this involves multimodal selection of neural network suggestions and control of the relevant DoF combination.

    Hardware: HoloLens, Oculus Go, Oculus Quest or Varjo XR-1, depending on the concept.
    Development environment: Unity or Unreal


    Motivation

    Ein assistiver Roboterarm ist eine wertvolle Unterstützung für Menschen mit stark eingeschränkter Mobilität von Arm und Hand. Die Nutzung ist jedoch anstrengend und zeitraubend, weil den sieben Bewegungsmöglichkeiten (Freiheitsgraden, DoF) eines Roboterarms nur zwei eines typischen Eingabegerätes (z. B. Joystick) gegenüberstehen. Deshalb muss sehr oft manuell zwischen Bewegungsmöglichkeiten umgeschaltet werden.

    Ziele und Vorgehen

    Im Vorhaben soll die Nutzung assistiver Roboterarme durch Einsatz tiefer neuronaler Netze erleichtert werden. Das KI-basierte Steuerungssystem bzw. eine Simulation zum Testen wird zur Verfügung gestellt. In einem benutzerzentrierten Designprozess für die Mensch-Roboter-Kommunikation werden unter Verwendung eines Augmented/Virtual Reality Headsets Möglichkeiten der Darstellung von Feedback erforscht. Hier geht es insbesondere um die multimodale Auswahl der Vorschläge des neuronalen Netzes und die Steuerung der betreffenden DoF-Kombination.

    Hardware: HoloLens, Oculus Go, Oculus Quest oder Varjo XR-1, je nach Konzept
    Entwicklungsumgebung: Unity oder Unreal


    Bachelor Thesis, Master Thesis, Computer Science, Tutor: Max Pascher, M.Sc.
  • Visual Intent and Perception Feedback of a Cooperative Robot with Combined Degrees of Freedom. (Original Title: Visuelles Intentitons- und Perzeptions-Feedback eines kooperativen Roboters mit kombinierter Freiheitsgraden) Details

    Motivation

    An assistive robotic arm is a valuable support for people with severely limited arm and hand mobility. However, its use is strenuous and time-consuming because the seven movement options (degrees of freedom, DoF) of a robotic arm are matched by only two of a typical input device (e.g., joystick). Therefore, it is very often necessary to manually switch between motion possibilities.

    Goals and procedure

    In the project, the use of assistive robotic arms will be facilitated by using deep neural networks. The AI-based control system or a simulation for testing will be provided. In a user-centered design process for human-robot communication, possibilities for the representation of feedback will be explored using an augmented/virtual reality headset. In particular, this involves communication of intention and perception feedback from the robot using compact data glasses.

    Hardware: Google Glass 2


    Motivation

    Ein assistiver Roboterarm ist eine wertvolle Unterstützung für Menschen mit stark eingeschränkter Mobilität von Arm und Hand. Die Nutzung ist jedoch anstrengend und zeitraubend, weil den sieben Bewegungsmöglichkeiten (Freiheitsgraden, DoF) eines Roboterarms nur zwei eines typischen Eingabegerätes (z. B. Joystick) gegenüberstehen. Deshalb muss sehr oft manuell zwischen Bewegungsmöglichkeiten umgeschaltet werden.

    Ziele und Vorgehen

    Im Vorhaben soll die Nutzung assistiver Roboterarme durch Einsatz tiefer neuronaler Netze erleichtert werden. Das KI-basierte Steuerungssystem bzw. eine Simulation zum Testen wird zur Verfügung gestellt. In einem benutzerzentrierten Designprozess für die Mensch-Roboter-Kommunikation werden unter Verwendung eines Augmented/Virtual Reality Headsets Möglichkeiten der Darstellung von Feedback erforscht. Hier geht es insbesondere um Kommunikation von Intentions- und Perzeptions-Feedback des Roboters mit Hilfe von kompakten Datenbrillen.

    Hardware: Google Glass 2


    Bachelor Thesis, Master Thesis, Computer Science, Tutor: Max Pascher, M.Sc.