Forschung

Die Arbeitsgruppe Mensch-Computer Interaktion erforscht neuartige Wege die Interaktion zwischen Menschen und Computern zu vereinfachen. Hierbei fokussieren wir uns auf mobile, tragbare und ubiquitäre Computersysteme. Momentan forschen wir insbesondere an folgenden Themen:

Implizites Feedback

Heutzutage wird Feedback meistens über visuelle und auditive Reize dargestellt. Diese Reize müssen wahrgenommen und verstanden werden und der Benutzer muss angemessen auf diese reagieren. Im Gegensatz bietet implizites Feedback die Möglichkeit dies zu überspringen und bestimmte Aufgaben dem Benutzer automatisch ausführen zu lassen. Eine der Kerntechnologien in dem Bereich ist die elektrische Muskelstimulation, die es erlaubt den Benutzer bestimmte Bewegungen ausführen zu lassen.

Beispielprojekt: Cruise Control for Pedestrians

 

Max Pfeiffer, Tim Dünte, Stefan Schneegass, Florian Alt, and Michael Rohs. 2015. Cruise Control for Pedestrians: Controlling Walking Direction using Electrical Muscle Stimulation. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems (CHI '15). ACM, New York, NY, USA, 2505-2514. DOI: doi.org/10.1145/2702123.2702190

Beispielprojekt: Emotion Actuator

 

Mariam Hassib, Max Pfeiffer, Stefan Schneegass, Michael Rohs, and Florian Alt. 2017. Emotion Actuator: Embodied Emotional Feedback through Electroencephalography and Electrical Muscle Stimulation. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI '17). ACM, New York, NY, USA, 6133-6146. DOI: doi.org/10.1145/3025453.3025953

Bedienbare Sicherheit

Heutige Systeme erhöhen die Sicherheit indem Passwörter oder PINs immer komplexer gestaltet werden. Dies und die fortwährend steigende Anzahl an Passwörtern pro Benutzer führt dazu, dass diese sich Passwörter nicht merken können und daher dieselben Passwörter für verschiedene Systeme nutzen oder Passwörter aufschreiben. Im Bereich der bedienbaren Sicherheit erforschen wir neuartige Identifizierungs- und Authentifizierungsverfahren, die nicht vom Benutzer verlangen ein kompliziertes Passwort zu behalten, sondern beispielsweise Eigenschaften und Verhalten des Benutzers nutzt, um diesen zu erkennen.

Beispielprojekt: SkullConduct - Biometric User Identification on Eyewear Computers

 

Stefan Schneegass, Youssef Oualil, and Andreas Bulling. 2016. SkullConduct: Biometric User Identification on Eyewear Computers Using Bone Conduction Through the Skull. In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems (CHI '16). ACM, New York, NY, USA, 1379-1384. DOI: doi.org/10.1145/2858036.2858152

Beispielprojekt: Stay Cool! Understanding Thermal Attacks on Mobile-based User Authentication

 

Yomna Abdelrahman, Mohamed Khamis, Stefan Schneegass, and Florian Alt. 2017. Stay Cool! Understanding Thermal Attacks on Mobile-based User Authentication. In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI '17). ACM, New York, NY, USA, 3751-3763. DOI: doi.org/10.1145/3025453.3025461

Intelligente Kleidung

Intelligente Kleidung erlaubt allgegenwärtiges messen von physiologischen und physischen Eigenschaften des Nutzers. Im Gegensatz zu anderen Tragbaren Computern erlaubt intelligente Kleidung Sensoren und Aktuatoren auf eine angenehme Art und Weise am Körper des Benutzers anzubringen.

Buch: Smart Textiles: Fundamentals, Design, and Interaction

 

Schneegass, Stefan, Amft, Oliver (Eds.). Smart Textiles: Fundamentals, Design, and Interaction. 2017. Springer International Publishing. DOI: doi.org/10.1007/978-3-319-50124-6

Interaktion in virtuellen und augmentierten Welten

Virtuelle und augmentierte Realitäten bewegen sich immer mehr von einem Nischenprodukt zu einer vielversprechenden Lösung im Entertainment-, Lehr- und Kommunikationsbereich. Die technischen Voraussetzungen entwickeln sich rasant weiter. Jedoch bleiben durch diese schnelle Entwicklung einige wichtige Aspekte unbeantwortet. Die Steuerung der Immersion oder die Integration von haptischen Feedback sind nur zwei Herausforderungen, die sich in diesem Bereich ergeben.   

Ubiquitäre Interaktion

Viele Sensoren können als Eingabe für die Interaktion mit ubiquitären Systemen genutzt werden. Unter anderem untersuchen wir Wärmebildkameras und Brain-Computer Schnittstellen. Beide Technologien erlauben das Messen von Phänomenen, die es ermöglichen bisher ungeahnte Interaktionen mit der Umgebung zu realisieren. 

Beispielprojekt: Exploiting Thermal Reflection for Interactive Systems

 

Alireza Sahami Shirazi, Yomna Abdelrahman, Niels Henze, Stefan Schneegass, Mohammadreza Khalilbeigi, and Albrecht Schmidt. 2014. Exploiting thermal reflection for interactive systems. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI '14). ACM, New York, NY, USA, 3483-3492. DOI=http://dx.doi.org/10.1145/2556288.2557208

Beispielprojekt: Let me catch this!

 

Jonna R. Häkkilä, Maaret Posti, Stefan Schneegass, Florian Alt, Kunter Gultekin, and Albrecht Schmidt. 2014. Let me catch this!: experiencing interactive 3D cinema through collecting content with a mobile phone. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI '14). ACM, New York, NY, USA, 1011-1020. DOI=http://dx.doi.org/10.1145/2556288.2557187