Dr. Benjamin Hatscher
Publications
2025

Schreiter, J; Heinrich, F; Hatscher, B; Schott, D; Hansen, C
Multimodal human–computer interaction in interventional radiology and surgery: a systematic literature review Journal Article
In: International Journal of Computer Assisted Radiology and Surgery, vol. 20, no. 4, pp. 807–816, 2025, ISSN: 1861-6429.
@article{schreiter_multimodal_2025,
title = {Multimodal human–computer interaction in interventional radiology and surgery: a systematic literature review},
author = {J Schreiter and F Heinrich and B Hatscher and D Schott and C Hansen},
url = {https://doi.org/10.1007/s11548-024-03263-3},
doi = {10.1007/s11548-024-03263-3},
issn = {1861-6429},
year = {2025},
date = {2025-04-01},
urldate = {2025-04-01},
journal = {International Journal of Computer Assisted Radiology and Surgery},
volume = {20},
number = {4},
pages = {807–816},
abstract = {As technology advances, more research dedicated to medical interactive systems emphasizes the integration of touchless and multimodal interaction (MMI). Particularly in surgical and interventional settings, this approach is advantageous because it maintains sterility and promotes a natural interaction. Past reviews have focused on investigating MMI in terms of technology and interaction with robots. However, none has put particular emphasis on analyzing these kind of interactions for surgical and interventional scenarios.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
2020

Hatscher, B; Mewes, A; Pannicke, E; Kägebein, U; Wacker, F; Hansen, C; Hensen, B
Touchless scanner control to support MRI-guided interventions Journal Article
In: International Journal of Computer Assisted Radiology and Surgery, vol. 15, no. 3, pp. 545–553, 2020, ISSN: 1861-6429.
@article{hatscher_touchless_2020,
title = {Touchless scanner control to support MRI-guided interventions},
author = {B Hatscher and A Mewes and E Pannicke and U Kägebein and F Wacker and C Hansen and B Hensen},
url = {https://doi.org/10.1007/s11548-019-02058-1},
doi = {10.1007/s11548-019-02058-1},
issn = {1861-6429},
year = {2020},
date = {2020-03-01},
urldate = {2020-03-01},
journal = {International Journal of Computer Assisted Radiology and Surgery},
volume = {15},
number = {3},
pages = {545–553},
abstract = {MRI-guided interventions allow minimally invasive, radiation-free treatment but rely on real-time image data and free slice positioning. Interventional interaction with the data and the MRI scanner is cumbersome due to the diagnostic focus of current systems, confined space and sterile conditions.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}

Schott, D; Hatscher, B; Joeres, F; Gabele, M; Hußlein, S; Hansen, C
Lean-Interaction: passive image manipulation in concurrent multitasking Journal Article
In: 2020.
@article{schott_lean-interaction_2020,
title = {Lean-Interaction: passive image manipulation in concurrent multitasking},
author = {D Schott and B Hatscher and F Joeres and M Gabele and S Hußlein and C Hansen},
year = {2020},
date = {2020-01-01},
urldate = {2020-01-01},
abstract = {Complex bi-manual tasks often benefit from supporting visual information and guidance. Controlling the system that provides this information is a secondary task that forces the user to perform concurrent multitasking, which in turn may affect the main task performance. Interactions based on natural behavior are a promising solution to this challenge. We investigated the performance of these interactions in a hands-free image manipulation task during a primary manual task with an upright stance. Essential tasks were extracted from the example of clinical workflow and turned into an abstract simulation to gain general insights into how different interaction techniques impact the user’s performance and workload. The interaction techniques we compared were full-body movements, facial expression, gesture and speech input. We found that leaning as an interaction technique facilitates significantly faster image manipulation at lower subjective workloads than facial expression. Our results pave the way towards efficient, natural, hands-free interaction in a challenging multitasking environment.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}

Hatscher, B
Touchless, Direct Input Methods for Human-Computer Interaction to Support Image-Guided Interventions PhD Thesis
2020.
@phdthesis{hatscher_touchless_2020-1,
title = {Touchless, Direct Input Methods for Human-Computer Interaction to Support Image-Guided Interventions},
author = {B Hatscher},
url = {https://opendata.uni-halle.de/bitstream/1981185920/35356/1/Hatscher_Benjamin_Dissertation_2020.pdf},
year = {2020},
date = {2020-01-01},
urldate = {2020-01-01},
abstract = {Bei minimal-invasiven Eingriffen werden Katheter oder Nadeln durch Inzisi-
onen in den Körper des Patienten geführt um die Zielstruktur zu erreichen
ohne dabei eine offene chirurgische Operation zu erfordern. Während eines
solchen Eingriffs hat der Operateur weder direkte Sicht auf die Werkzeuge,
noch auf Ziel- oder Risikostrukturen und ist auf bildgebende Verfahren wie
Ultraschall, Röntgenbildgebung oder Magnetresonanztomographie angewiesen.
Eine Anpassung der Echtzeit-Bildgebung, der Zugriff auf Planungsdaten oder
auf bereits aufgenommene Bilder kann während einer Intervention erforderlich
werden. Aufgrund der Gefahr die Sterilität zu verletzen, können herkömm-
liche Eingabegeräte wie Maus und Tastatur nicht ohne weiteres verwendet
werden. Im der klinischen Praxis müssen Touchscreens, Tasten oder Joysticks
mit steriler Folie abgedeckt werden. Alternativ werden Interaktionsaufgaben
verbal oder gestisch an einen Assistenten delegiert.
Beide Ansätze sind nicht optimal: Stellvertreter-Interaktion ist anfällig
für Missverständnisse und abhängig von der Erfahrung des Assistenten. Die
Verwendung von steril abgedeckten, konventionellen Eingabegeräten ist um-
ständlich und nicht möglich wenn beide Hände für die Durchführung der
Intervention benötigt werden. Direkte Interaktion ist jedoch wichtig, um ein
tieferes Verständnis für die medizinischen Bilddaten zu entwickeln.
Die vorgestellte Arbeit untersucht alternative Eingabemethoden für die
direkte Interaktion mit Computersystemen in Situationen, in denen die Hände
steril gehalten werden müssen und nicht jederzeit zur Verfügung stehen. Für
MRT-geführten Nadelinterventionen wird eine berührungslose, einhändige
Gestensteuerung vorgestellt und mit der Delegation an einen Assistenten
verglichen. Für Situationen in denen die Hände nicht verfügbar sind werden
handfreie Eingabemethoden zur grundlegenden Interaktion mit medizinischen
Bilddaten untersucht. Als Eingabekanäle werden die Blickrichtung, die Füße,
Sprachbefehle und Körperbewegungen eingesetzt. Sekundäre, zeitgleich ausge-
führte Aufgaben wie die Interaktion mit Bilddaten beeinflussen möglicherweise
die primäre, medizinische Aufgabe. Daher wird die Eignung und Auswirkung
verschiedener handfreier Eingabemethoden während der Ausführung einer
manuellen Aufgabe untersucht. Zudem werden passive Eingabemethoden für
sekundäre Aufgaben aus natürlichem Nutzerverhalten abgeleitet und auf die
resultierende subjektive Arbeitsbelastung untersucht.},
keywords = {},
pubstate = {published},
tppubtype = {phdthesis}
}
onen in den Körper des Patienten geführt um die Zielstruktur zu erreichen
ohne dabei eine offene chirurgische Operation zu erfordern. Während eines
solchen Eingriffs hat der Operateur weder direkte Sicht auf die Werkzeuge,
noch auf Ziel- oder Risikostrukturen und ist auf bildgebende Verfahren wie
Ultraschall, Röntgenbildgebung oder Magnetresonanztomographie angewiesen.
Eine Anpassung der Echtzeit-Bildgebung, der Zugriff auf Planungsdaten oder
auf bereits aufgenommene Bilder kann während einer Intervention erforderlich
werden. Aufgrund der Gefahr die Sterilität zu verletzen, können herkömm-
liche Eingabegeräte wie Maus und Tastatur nicht ohne weiteres verwendet
werden. Im der klinischen Praxis müssen Touchscreens, Tasten oder Joysticks
mit steriler Folie abgedeckt werden. Alternativ werden Interaktionsaufgaben
verbal oder gestisch an einen Assistenten delegiert.
Beide Ansätze sind nicht optimal: Stellvertreter-Interaktion ist anfällig
für Missverständnisse und abhängig von der Erfahrung des Assistenten. Die
Verwendung von steril abgedeckten, konventionellen Eingabegeräten ist um-
ständlich und nicht möglich wenn beide Hände für die Durchführung der
Intervention benötigt werden. Direkte Interaktion ist jedoch wichtig, um ein
tieferes Verständnis für die medizinischen Bilddaten zu entwickeln.
Die vorgestellte Arbeit untersucht alternative Eingabemethoden für die
direkte Interaktion mit Computersystemen in Situationen, in denen die Hände
steril gehalten werden müssen und nicht jederzeit zur Verfügung stehen. Für
MRT-geführten Nadelinterventionen wird eine berührungslose, einhändige
Gestensteuerung vorgestellt und mit der Delegation an einen Assistenten
verglichen. Für Situationen in denen die Hände nicht verfügbar sind werden
handfreie Eingabemethoden zur grundlegenden Interaktion mit medizinischen
Bilddaten untersucht. Als Eingabekanäle werden die Blickrichtung, die Füße,
Sprachbefehle und Körperbewegungen eingesetzt. Sekundäre, zeitgleich ausge-
führte Aufgaben wie die Interaktion mit Bilddaten beeinflussen möglicherweise
die primäre, medizinische Aufgabe. Daher wird die Eignung und Auswirkung
verschiedener handfreier Eingabemethoden während der Ausführung einer
manuellen Aufgabe untersucht. Zudem werden passive Eingabemethoden für
sekundäre Aufgaben aus natürlichem Nutzerverhalten abgeleitet und auf die
resultierende subjektive Arbeitsbelastung untersucht.
2019

Wehbe, R; Bornemann, K; Hatscher, B; Tu, J; Cormier, L; Hansen, C; Lank, E; Nacke, L
Crushed it! Interactive Floor Demonstration Proceedings Article
In: Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems, pp. 1–4, Association for Computing Machinery, New York, NY, USA, 2019, ISBN: 978-1-4503-5971-9.
@inproceedings{wehbe_crushed_2019,
title = {Crushed it! Interactive Floor Demonstration},
author = {R Wehbe and K Bornemann and B Hatscher and J Tu and L Cormier and C Hansen and E Lank and L Nacke},
url = {https://doi.org/10.1145/3290607.3313279},
doi = {10.1145/3290607.3313279},
isbn = {978-1-4503-5971-9},
year = {2019},
date = {2019-01-01},
urldate = {2019-01-01},
booktitle = {Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems},
pages = {1–4},
publisher = {Association for Computing Machinery},
address = {New York, NY, USA},
series = {CHI EA '19},
abstract = {We introduceCrushed It!, an interactive game on a sensor floor. This floor is combined with a multiple projector system to reduce occlusions from players' interactions with the floor. Individual displays, an HTC Vive to track player position, and smart watches were added to provide an extra layer of interactivity. We created this interactive experience to explore collaboration between people when interacting with large displays. We contribute a novel combination of different technologies for this game system and our studies showed this game is both entertaining and provides players with motivation to stay physically active. We believe presenting at interactivity would be a benefit to both our research and to the attendees of CHI 2019.},
keywords = {},
pubstate = {published},
tppubtype = {inproceedings}
}

Solovjova, A; Hatscher, B; Hansen, C
Influence of augmented reality interaction on a primary task for the medical domain Journal Article
In: 2019, (Publisher: Gesellschaft für Informatik e.V.).
@article{solovjova_influence_2019,
title = {Influence of augmented reality interaction on a primary task for the medical domain},
author = {A Solovjova and B Hatscher and C Hansen},
url = {http://dl.gi.de/handle/20.500.12116/25152},
doi = {10.18420/MUC2019-WS-133-07},
year = {2019},
date = {2019-01-01},
urldate = {2019-01-01},
abstract = {Augmented reality can deliver valuable information right where the user needs it. When used to display complex data, interaction is required to access all the information. For general use-cases, hand gestures are the go-to technique to interact in augmented reality contexts. However, in some usecases, the hands are not always available for interaction. For instance, in the operating room, it is likely that the surgeon needs to perform a primary task with the hands simultaneously. This work investigates the influence of interaction tasks using head & hand, head & foot and head & speech on a primary task and the suitability of these input modalities for two kinds of interaction tasks. Results show that interaction techniques used in a multitasking environment should always be evaluated together with a primary task as it might cause user preferences to shift.},
note = {Publisher: Gesellschaft für Informatik e.V.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
2018

Hatscher, B; Luz, M; Hansen, C
Foot Interaction Concepts to Support Radiological Interventions Journal Article
In: i-com, vol. 17, no. 1, pp. 3–13, 2018, ISSN: 2196-6826, (Publisher: Oldenbourg Wissenschaftsverlag).
@article{hatscher_foot_2018,
title = {Foot Interaction Concepts to Support Radiological Interventions},
author = {B Hatscher and M Luz and C Hansen},
url = {https://www.degruyterbrill.com/document/doi/10.1515/icom-2018-0002/html},
doi = {10.1515/icom-2018-0002},
issn = {2196-6826},
year = {2018},
date = {2018-04-01},
urldate = {2018-04-01},
journal = {i-com},
volume = {17},
number = {1},
pages = {3–13},
abstract = {During neuroradiological interventions, physicians need to interact with medical image data, which cannot be done while the hands are occupied. We propose foot input concepts with one degree of freedom, which matches a common interaction task in the operating room. We conducted a study to compare our concepts in regards to task completion time, subjective workload and user experience. Relative input performed significantly better than absolute or rate-based input. Our findings may enable more effective computer interactions in the operating room and similar domains where the hands are not available.},
note = {Publisher: Oldenbourg Wissenschaftsverlag},
keywords = {},
pubstate = {published},
tppubtype = {article}
}

Hatscher, B; Luz, M; Hansen, C
Foot Interaction Concepts to Support Radiological Interventions Journal Article
In: i-com, vol. 17, no. 1, pp. 3–13, 2018, ISSN: 2196-6826, 1618-162X.
@article{hatscher_foot_2018-1,
title = {Foot Interaction Concepts to Support Radiological Interventions},
author = {B Hatscher and M Luz and C Hansen},
url = {https://www.degruyter.com/document/doi/10.1515/icom-2018-0002/html},
doi = {10.1515/icom-2018-0002},
issn = {2196-6826, 1618-162X},
year = {2018},
date = {2018-04-01},
urldate = {2018-04-01},
journal = {i-com},
volume = {17},
number = {1},
pages = {3–13},
abstract = {During neuroradiological interventions, physicians need to interact with medical image data, which cannot be done while the hands are occupied. We propose foot input concepts with one degree of freedom, which matches a common interaction task in the operating room. We conducted a study to compare our concepts in regards to task completion time, subjective workload and user experience. Relative input performed significantly better than absolute or rate-based input. Our findings may enable more effective computer interactions in the operating room and similar domains where the hands are not available.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}

Hatscher, B; Hansen, C
Hand, Foot or Voice: Alternative Input Modalities for Touchless Interaction in the Medical Domain Proceedings Article
In: Proceedings of the 20th ACM International Conference on Multimodal Interaction, pp. 145–153, Association for Computing Machinery, New York, NY, USA, 2018, ISBN: 978-1-4503-5692-3.
@inproceedings{hatscher_hand_2018,
title = {Hand, Foot or Voice: Alternative Input Modalities for Touchless Interaction in the Medical Domain},
author = {B Hatscher and C Hansen},
url = {https://doi.org/10.1145/3242969.3242971},
doi = {10.1145/3242969.3242971},
isbn = {978-1-4503-5692-3},
year = {2018},
date = {2018-01-01},
urldate = {2018-01-01},
booktitle = {Proceedings of the 20th ACM International Conference on Multimodal Interaction},
pages = {145–153},
publisher = {Association for Computing Machinery},
address = {New York, NY, USA},
series = {ICMI '18},
abstract = {During medical interventions, direct interaction with medical image data is a cumbersome task for physicians due to the sterile environment. Even though touchless input via hand, foot or voice is possible, these modalities are not available for these tasks all the time. Therefore, we investigated touchless input methods as alternatives to each other with focus on two common interaction tasks in sterile settings: activation of a system to avoid unintentional input and manipulation of continuous values. We created a system where activation could be achieved via voice, hand or foot gestures and continuous manipulation via hand and foot gestures. We conducted a comparative user study and found that foot interaction performed best in terms of task completion times and scored highest in the subjectively assessed measures usability and usefulness. Usability and usefulness scores for hand and voice were only slightly worse and all participants were able to perform all tasks in a sufficient short amount of time. This work contributes by proposing methods to interact with computers in sterile, dynamic environments and by providing evaluation results for direct comparison of alternative modalities for common interaction tasks.},
keywords = {},
pubstate = {published},
tppubtype = {inproceedings}
}

Pannicke, E; Hatscher, B; Hensen, B; Mewes, A; Hansen, C; Wacker, F; Vick, R
MR Compatible and Sterile Gesture Interaction for Interventions Journal Article
In: 2018.
@article{pannicke_mr_2018,
title = {MR Compatible and Sterile Gesture Interaction for Interventions},
author = {E Pannicke and B Hatscher and B Hensen and A Mewes and C Hansen and F Wacker and R Vick},
url = {https://cdn.website-editor.net/ed4a3740370b414595b38f3fc1951e45/files/uploaded/TOC_IMRI2018.pdf},
year = {2018},
date = {2018-01-01},
urldate = {2018-01-01},
abstract = {One of the major limitations during IMRI procedures is the lack of interaction with the scanner within the cabin.
Physicians have to use MR-safe control panels, which are often unavailable, unintuitive or provide not enough input
options. Alternatively, interaction tasks are delegated to an assistant outside the scanner cabin verbally or by hand
signs. This workaround requires a well-rehearsed team high level of experience, which is very sensitive to team
changes},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
Physicians have to use MR-safe control panels, which are often unavailable, unintuitive or provide not enough input
options. Alternatively, interaction tasks are delegated to an assistant outside the scanner cabin verbally or by hand
signs. This workaround requires a well-rehearsed team high level of experience, which is very sensitive to team
changes

Solovjova, A; Labsch, D; Hatscher, B; Hansen, C
Plantar pressure-based gestures for medical image manipulation Journal Article
In: 2018, (Publisher: Gesellschaft für Informatik e.V.).
@article{solovjova_plantar_2018,
title = {Plantar pressure-based gestures for medical image manipulation},
author = {A Solovjova and D Labsch and B Hatscher and C Hansen},
url = {http://dl.gi.de/handle/20.500.12116/16649},
doi = {10.18420/MUC2018-MCI-0416},
year = {2018},
date = {2018-01-01},
urldate = {2018-01-01},
abstract = {In this work, we present an interaction concept for manipulating an image viewer only using a pressure sensitive shoe insole. A simple foot gesture set has been created and applied to a prototypical user interface, which enables the changing of slices of medical image data in an image viewer. In a pilot study, the gestures were tested according to the NASA Task Load Index (NASA-TLX). The purpose of this project was to estimate how suitable and user-friendly different foot gestures are in practice. We found that plantar pressure-based gestures are quite intuitive and users quickly become accustomed to using them. However, gestures based on overlapping pressure-sensitive areas might lead to unintended results.},
note = {Publisher: Gesellschaft für Informatik e.V.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
2017

Hatscher, B; Luz, M; Nacke, L; Elkmann, N; Müller, V; Hansen, C
GazeTap: towards hands-free interaction in the operating room Proceedings Article
In: Proceedings of the 19th ACM International Conference on Multimodal Interaction, pp. 243–251, ACM, Glasgow UK, 2017, ISBN: 978-1-4503-5543-8.
@inproceedings{hatscher_gazetap_2017,
title = {GazeTap: towards hands-free interaction in the operating room},
author = {B Hatscher and M Luz and L Nacke and N Elkmann and V Müller and C Hansen},
url = {https://dl.acm.org/doi/10.1145/3136755.3136759},
doi = {10.1145/3136755.3136759},
isbn = {978-1-4503-5543-8},
year = {2017},
date = {2017-11-01},
urldate = {2017-11-01},
booktitle = {Proceedings of the 19th ACM International Conference on Multimodal Interaction},
pages = {243–251},
publisher = {ACM},
address = {Glasgow UK},
abstract = {During minimally-invasive interventions, physicians need to interact with medical image data, which cannot be done while the hands are occupied. To address this challenge, we propose two interaction techniques which use gaze and foot as input modalities for hands-free interaction. To investigate the feasibility of these techniques, we created a setup consisting of a mobile eye-tracking device, a tactile floor, two laptops, and the large screen of an angiography suite. We conducted a user study to evaluate how to navigate medical images without the need for hand interaction. Both multimodal approaches, as well as a foot-only interaction technique, were compared regarding task completion time and subjective workload. The results revealed comparable performance of all methods. Selection is accomplished faster via gaze than with a foot only approach, but gaze and foot easily interfere when used at the same time. This paper contributes to HCI by providing techniques and evaluation results for combined gaze and foot interaction when standing. Our method may enable more effective computer interactions in the operating room, resulting in a more beneficial use of medical information.},
keywords = {},
pubstate = {published},
tppubtype = {inproceedings}
}
Wagner, S; Hatscher, B; Luz, M; Preim, B; Hansen, C
Konzepte mit unterschiedlichen Platzanforderungen zur Navigation in medizinischen Bilddaten mittels eines Sensorfußbodens Journal Article
In: 2017.
@article{wagner_konzepte_2017,
title = {Konzepte mit unterschiedlichen Platzanforderungen zur Navigation in medizinischen Bilddaten mittels eines Sensorfußbodens},
author = {S Wagner and B Hatscher and M Luz and B Preim and C Hansen},
url = {https://www.var.ovgu.de/pub/2017_CURAC_Wagner.pdf},
year = {2017},
date = {2017-01-01},
abstract = {Die Navigation in medizinischen Bilddaten ist ein essentieller Bestandteil vieler chirurgischer Eingriffe. Bei herkömmlichen Methoden gibt es Sterilitätsprobleme, daher werden in dieser Arbeit zwei neue Konzepte zur Interaktion mit medizinischen Bilddaten per Fußinteraktion vorgestellt. Das erste Konzept basiert auf der Navigation über die Betätigung von Buttons per Schrittgesten, wodurch ein hoher Platzbedarf besteht. Das zweite platzsparende Konzept beruht auf Gewichtsverlagerung und Fußrotation. Diese Konzepte wurden innerhalb einer Studie evaluiert. 13 Medizinstudenten wurden gebeten eine Reihe von Aufgaben zur Manipulation von medizinischen Bilddaten auszuführen. Dabei wurden die Bearbeitungszeit, die subjektive Beanspruchung und die Benutzbarkeit untersucht. Die Ergebnisse der Studie zeigen, dass die Interaktion mit dem platzsparenden Konzept funktioniert, jedoch konnten die zu absolvierenden Aufgaben bei der Benutzung des Konzepts mit Hilfe von Buttons in Bezug auf die Bearbeitungszeit signifikant schneller bearbeitet werden.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}
2016
Hatscher, B; Wagner, S; Grimaldi, L; Fritzsche, M; Elkmann, N; Hansen, C
Navigation in medizinischen Bilddaten mittels eines taktilen Fußbodens Journal Article
In: 2016.
@article{hatscher_navigation_2016,
title = {Navigation in medizinischen Bilddaten mittels eines taktilen Fußbodens},
author = {B Hatscher and S Wagner and L Grimaldi and M Fritzsche and N Elkmann and C Hansen},
url = {https://www.var.ovgu.de/pub/2016_CURAC_Hatscher.pdf},
year = {2016},
date = {2016-01-01},
abstract = {In dieser Arbeit wird eine M¨oglichkeit zur Interaktion mit medizinischen Bilddaten w¨ahrend einer Operation ohne Verwendung der H¨ande vorgestellt. Hierf¨ur wird ein taktiler Fußboden zur Interaktion genutzt, der keinerlei ortsgebundene Gegebenheiten, wie z.B. Pedale, ben¨otigt. Im Zuge der Arbeit wurde eine grafische Benutzeroberfl¨ache entwickelt, welche die Manipulation von medizinischen 2D- und 3D-Bilddaten mit Hilfe der F¨uße erm¨oglicht. Die grafische Benutzeroberfl¨ache soll das fehlende haptische Feedback des taktilen Fußbodens und die flexible r¨aumliche wie funktionale Belegung geeignet visualisieren und kommunizieren. Das System wurde im Rahmen einer Nutzerstudie mit 10 Teilnehmern evaluiert. Die Ergebnisse der Studie zeigen die grunds¨atzliche Eignung taktiler Fußb¨oden als Benutzerschnittstelle, eine steile Lernkurve bei der Nutzung des Systems, aber auch Defizite bei der ausschließlichen Verwendung von Taps und Buttons zur Fußinteraktion.},
keywords = {},
pubstate = {published},
tppubtype = {article}
}