Das Potential externer Eingabegeräte zur Interaktion in Augmented Reality (AR) Umgebungen wurde bereits früh erkannt. Freihandgesten mögen naheliegend sein, jedoch mangelt es ihnen oft an Präzision und Effizienz. Zusätzliche mobile Geräte wie digitale Tablets erlauben intuitiven und präzisen Touch-Input und können durch 3D Tracking auch in die räumliche Interaktion integriert werden. Letzteres wird jedoch dadurch beeinträchtigt, dass diese Geräte den sich hinter ihnen befindlichen realweltlichen Kontext verdecken. Dies ist im Vergleich zur Nutzung in Virtual Reality (VR) besonders problematisch, da AR Anwendungen den Vorteil mit sich bringen, den realen Umgebungskontext miteinzubeziehen.
Aus diesem Grund haben wir am Interactive Media Lab Dresden den Prototypen eines transparenten Multi-Touch-Gerätes entwickelt, welches im Raum getrackt wird und somit dynamische AR Interaktionen und Touch Eingaben mit freiem Sichtfeld ermöglicht. Die Transparenz des Geräts ermöglicht unter anderem Interaktionen durch ein „Fenster“ hindurch, wobei der reale und virtuelle Hintergrund durch das Gerät hindurch observiert und dadurch manipuliert werden kann. Außerdem erleichtert die durchsichtige taktile Oberfläche dreidimensionale virtuelle Skizzen und Annotationen im Raum, sowie im direkten Bezug zu realen Objekten.
In einer Live-Demo zeigen wir diese und weitere Konzepte anhand eines medizinischen Use Cases, in welchem der/die Nutzer:in einen anatomischen Volumendatensatz mithilfe des Prototypen auf verschiedene Arten explorieren, manipulieren und annotieren kann.
Professur für Multimedia-Technologie