Abschlussarbeiten

Die Arbeitsgruppe Mensch-Computer Interaktion bietet verschiedene Abschlussarbeiten (z.B. Bachelor- oder Masterarbeiten) und Abschlussprojekte (z.B. Bachelorprojekte) an. Alle Themen beinhalten die konzeptionelle Entwicklung, Implementierung und Evaluierung einer Fragestellung aus der Mensch-Computer Interaktion und werden im HCI Kolloquium vorgestellt. Falls Sie ein Projekt oder eine Abschlussarbeit bei uns schreiben wollen, kontaktieren Sie bitte Sarah Faltaous und nennen Sie die Themen, die Sie interessieren, die Art der Arbeit und geben Sie einen kurzen Überblick über bereits durchgeführter Projekte und Erfahrungen. 

Jonas Auda: Virtual Reality, Interacting with Drones, Brain Computer Interfaces.

Sarah Faltaous: Interacting with the Internet of Things, Activity Motivating Application, Health Monitoring Systems.

Jonathan Liebers: Novel Authentication and Identification Schemes using Machine Learning & Deep Learning, Biometric Authentication in Virtual and Mixed Reality, Wearable and Embedded Tools for User Identification.

Alia Saad: Usable Security and Privacy, Behavioral Biometrics in Mixed Reality and on Mobile Devices, Spoofing Authentication.

Jonas Keppel: Interactive Health Applications, Activity Motivating Application, Explainable AI

Henrik Detjen: Interacting with Autonomous Vehicles, Communicating Intends of Autonomous Vehicles, Trust and User Acceptance of Novel Transportation Method. 

Max Pascher: Human-Robot Collaboration, Intervention Strategies/ Interfaces, Multimodal Input & Feedback Technologies, Augemented/Mixed/Virtual Reality, Assistive Technologies.

Carina Liebers: Interaction with Virtual Reality, Human-Robot Interaction, Robot Training using Machine Learning & Deep Learning

Nick Wittig: Augmented Reality Technologies, Interaction with Augmented Reality, Learning and Education

Bitte klicken Sie auf die Symbole an den Einträgen der Abschlussarbeiten um weitere Informationen zu erhalten:

Filter:
  • Multimodales Interaktionsdesign zur Steuerung kombinierter Freiheitsgrade eines kooperativen Roboters (Englischer Titel: Multimodal Interaction Design to control combined Degrees of Freedom of a Cooperative Robot) Details

    Motivation

    Ein assistiver Roboterarm ist eine wertvolle Unterstützung für Menschen mit stark eingeschränkter Mobilität von Arm und Hand. Die Nutzung ist jedoch anstrengend und zeitraubend, weil den sieben Bewegungsmöglichkeiten (Freiheitsgraden, DoF) eines Roboterarms nur zwei eines typischen Eingabegerätes (z. B. Joystick) gegenüberstehen. Deshalb muss sehr oft manuell zwischen Bewegungsmöglichkeiten umgeschaltet werden.

    Ziele und Vorgehen

    Im Vorhaben soll die Nutzung assistiver Roboterarme durch Einsatz tiefer neuronaler Netze erleichtert werden. Das KI-basierte Steuerungssystem bzw. eine Simulation zum Testen wird zur Verfügung gestellt. In einem benutzerzentrierten Designprozess für die Mensch-Roboter-Kommunikation werden unter Verwendung eines Augmented/Virtual Reality Headsets Möglichkeiten der Darstellung von Feedback erforscht. Hier geht es insbesondere um die multimodale Auswahl der Vorschläge des neuronalen Netzes und die Steuerung der betreffenden DoF-Kombination.

    Hardware: HoloLens, Oculus Go, Oculus Quest oder Varjo XR-1, je nach Konzept
    Entwicklungsumgebung: Unity oder Unreal


    Motivation

    An assistive robotic arm is a valuable support for people with severely limited arm and hand mobility. However, its use is strenuous and time-consuming because the seven movement options (degrees of freedom, DoF) of a robotic arm are matched by only two of a typical input device (e.g., joystick). Therefore, it is very often necessary to manually switch between motion possibilities.

    Goals and procedure

    In the project, the use of assistive robotic arms will be facilitated by using deep neural networks. The AI-based control system or a simulation for testing will be provided. In a user-centered design process for human-robot communication, possibilities for the representation of feedback will be explored using an augmented/virtual reality headset. In particular, this involves multimodal selection of neural network suggestions and control of the relevant DoF combination.

    Hardware: HoloLens, Oculus Go, Oculus Quest or Varjo XR-1, depending on the concept.
    Development environment: Unity or Unreal


    Bachelorarbeit, Masterarbeit, Informatik, Ansprechpartner: Max Pascher, M.Sc.
  • Visuelles Intentitons- und Perzeptions-Feedback eines kooperativen Roboters mit kombinierter Freiheitsgraden (Englischer Titel: Visual Intent and Perception Feedback of a Cooperative Robot with Combined Degrees of Freedom.) Details

    Motivation

    Ein assistiver Roboterarm ist eine wertvolle Unterstützung für Menschen mit stark eingeschränkter Mobilität von Arm und Hand. Die Nutzung ist jedoch anstrengend und zeitraubend, weil den sieben Bewegungsmöglichkeiten (Freiheitsgraden, DoF) eines Roboterarms nur zwei eines typischen Eingabegerätes (z. B. Joystick) gegenüberstehen. Deshalb muss sehr oft manuell zwischen Bewegungsmöglichkeiten umgeschaltet werden.

    Ziele und Vorgehen

    Im Vorhaben soll die Nutzung assistiver Roboterarme durch Einsatz tiefer neuronaler Netze erleichtert werden. Das KI-basierte Steuerungssystem bzw. eine Simulation zum Testen wird zur Verfügung gestellt. In einem benutzerzentrierten Designprozess für die Mensch-Roboter-Kommunikation werden unter Verwendung eines Augmented/Virtual Reality Headsets Möglichkeiten der Darstellung von Feedback erforscht. Hier geht es insbesondere um Kommunikation von Intentions- und Perzeptions-Feedback des Roboters mit Hilfe von kompakten Datenbrillen.

    Hardware: Google Glass 2


    Motivation

    An assistive robotic arm is a valuable support for people with severely limited arm and hand mobility. However, its use is strenuous and time-consuming because the seven movement options (degrees of freedom, DoF) of a robotic arm are matched by only two of a typical input device (e.g., joystick). Therefore, it is very often necessary to manually switch between motion possibilities.

    Goals and procedure

    In the project, the use of assistive robotic arms will be facilitated by using deep neural networks. The AI-based control system or a simulation for testing will be provided. In a user-centered design process for human-robot communication, possibilities for the representation of feedback will be explored using an augmented/virtual reality headset. In particular, this involves communication of intention and perception feedback from the robot using compact data glasses.

    Hardware: Google Glass 2


    Bachelorarbeit, Masterarbeit, Informatik, Ansprechpartner: Max Pascher, M.Sc.