Skip to content
Publicly Available Published by Oldenbourg Wissenschaftsverlag September 25, 2009

Berührungslose Gestik-Interaktion im Operationssaal Touchless Gesture-Interaction in the Operating Room

  • Paul Chojecki and Ulrich Leiner
From the journal i-com

Zusammenfassung

Touchscreens mit neuen Bedienmetaphern erweitern die Möglichkeiten der Mensch-Maschine-Kommunikation. Apples iPhone und Microsofts Surface sind prominente Beispiele für diesen Trend. Es gibt jedoch Nutzungsszenarien, bei denen Touchscreens nicht die optimale Eingabeschnittstelle darstellen. Dazu gehören medizinische Aufgaben, wie die Einstellung von Geräten und die Navigation in Patienteninformationssystemen im OP. Hierbei darf die Grenze zwischen sterilem und unsterilem Bereich nicht durch haptischen Kontakt überschritten werden. In diesem Beitrag wird eine neuartige Lösung dieses Problems vorgestellt. Das Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut (Fraunhofer HHI) hat dafür eine berührungslose Gestensteuerung entwickelt. Stereo-Kameras erkennen die Fingerposition, wenn der Nutzer auf das Display zeigt. Das System berechnet dabei die genauen Raumkoordinaten eines oder mehrerer Finger. Diese Koordinaten werden in Echtzeit an die zu bedienende Anwendung weitergegeben. So wird eine nicht-invasive, also berührungs- und markerlose Interaktion durch einfache Handgesten möglich. Mit solchen ”Multipointing“- Eingabedaten kann einerseits die Maus-Bedienung substituiert werden, andererseits eröffnen diese viele neue Optionen für die Mensch-Maschine-Interaktion. Wir beschreiben den Stand unserer Arbeiten im Vergleich zu konkurrierenden Technologien und stellen die Ergebnisse einer Studie vor, bei der zwei berührungslose ”Klickvarianten“ miteinander verglichen werden.

Abstract

Touch-screens with new interaction metaphors expand the possibilities of man-machine communication. Apple′s iPhone and Microsoft′s Surface are popular examples of this trend. However, there are usage scenarios where touch-screens are not the optimal input device. These include medical tasks, such as the adjustment of medical equipment and the navigation in electronic patient information systems in the operating room. In this case the boundary between the sterile and non-sterile area must not be crossed by tactile contact. In this paper, a novel solution to this problem is presented. The Fraunhofer Institute for Telecommunications, Heinrich- Hertz-Institut (Fraunhofer HHI) has developed a contact-free gesture control for this scenario. Stereo cameras detect finger positions of the user pointing at the display. The system calculates very accurate spatial coordinates of one or several fingertips. These data are being forwarded to the connected application in real-time. Thus, a non-invasive, contact-free and markerless interaction through simple hand gestures becomes possible. With such “multipointing” input data the computer mouse can be substituted and beyond that, it enables many new options for the man-machine interaction. We describe the state of our work in comparison to competing technologies, and present results from an experimental comparison between two alternatives of the contact-free (mouse-) click paradigm.

Published Online: 2009-09-25
Published in Print: 2009-02-01

© by Oldenbourg Wissenschaftsverlag, München, Germany

Downloaded on 3.5.2024 from https://www.degruyter.com/document/doi/10.1524/icom.2009.0003/html
Scroll to top button