Augmented-/Virtual-Reality Lab
Am Lehrstuhl für Mensch-Maschine Kommunikation befindet sich ein Augmented-/Virtual-Reality Labor. Es besteht hier die Möglichkeit, Augmented Reality mittels herkömmlicher markerbasierter Trackingverfahren zu betreiben, ebenso aber auch durch ein Infrarot-Tracking Verfahren. So ist hier ein 6-Kamera Infrarot-Tracking System integriert, über welches sich reale Objekte im Labor tracken, also deren Position bestimmen, lassen. Diese Daten können dann der Augmented-/Virtual-Reality Applikation zugeführt werden, in welcher sie dann weiterverarbeitet werden können. Der Vorteil des Infrarot-Trackings gegenüber dem markerbasierten Tracking liegt darin, dass kein Marker mehr benötigt wird.
Um die begrenzten Möglichkeiten der Desktop Augmented Reality, bei der die Darstellung über einen Monitor erfolgt, zu erweitern, ist das Labor mit Head-Mounted-Displays ausgestattet, die zur Visualisierung einer Szene verwendet werden. Unterschieden wird hierbei zwischen den Head-Mounted-Displays, welche die Überlagerung von virtuellen und realen Daten mittels eines Videostreams realisieren (Video See Through) und denen, bei denen die reale Umgebung sichtbar bleibt, und nur die virtuellen Daten ins Sichtfeld eingeblendet werden (Optical See Through). Das Augmented-/Virtual-Reality Labor verfügt über beide Arten der Head-Mounted-Displays, wobei das Video-See-Through Head-Mounted-Display eine Besonderheit aufweist. Die Darstellung erfolgt bei diesem Modell in stereo. Durch die Verwendung von 2 getrennten Systemen für jedes Auge (Kamera und Display) lässt sich sowohl die reale Umgebung, als auch die virtuellen Daten in stereo, also dreidimensional wahrnehmen. Dies erhöht den realistischen Eindruck der Szene erheblich.
Da am Lehrstuhl für Mensch-Maschine Kommunikation die Interaktion von Nutzer und System eine wesentliche Rolle spielt, stehen im Augmented-/Virtual-Reality Labor verschiedene Eingabe- und Ausgabemöglichkeiten zur Verfügung. Es kommen hierbei am Lehrstuhl entwickelte Sprach- und Mustererkennungssysteme als Eingabemöglichkeiten zum Einsatz. So lassen sich mittels Sprache und/oder Gestik/Mimik Eingaben in das System vornehmen, auf welche auf verschiedene Arten eine Rückmeldung erfolgen kann. Als Rückmeldung stehen hierbei neben den klassischen visuellen Anzeigemöglichkeiten auch akustische Meldungen in Form von Text-to-Speech Systemen zur Verfügung.
Um auch im Virtual-Reality Bereich die Desktop-Umgebung zu verlassen, wurde eine 4-Seiten-CAVE aufgebaut bestehend aus 3 Wänden und einer Bodenprojektion. Zusammen mit einem ART-Trackingsystem, passiver optischer Kanaltrennung mit Infitec-Filtern und 3DVIA Virtools oder IDO:Explore von IC:IDO kann eine immersive, stereoskopisch dargestellte Umgebung erzeugt werden. Dabei bietet speziell Virtools die Möglichkeit, interaktive Anwendungen effizient grafisch zu programmieren oder eigene Erweiterungen mit C++ zu erstellen.
Virtuelle Google-Bildersuche in der CAVE mit WiiMotes als Interaktionsgeräten
Fahrsimulation mit virtuellem Cockpit. Der Fahrer sitzt auf einem realen Sitz und bedient ein reales Lenkrad.
Im Rahmen weiterer Arbeiten wird das Augmented Reality Labor von der rein visuellen um die akustische Augmentierung erweitert. Ausgehend von virtuellen Objekten, die frei im Raum positioniert sein können, werden diese um die Komponente des von ihnen ausgehenden Schalls erweitert. Virtuelle Objekte werden damit also nicht mehr nur visuell dargestellt, sondern sind auch in der Lage akustisch an der entsprechenden Position wahrgenommen zu werden. Hierzu werden die Trackingdaten des Nutzers herangezogen. Aus diesen Informationen werden die virtuellen Schalle so transformiert, dass ein Richtungshören dieser Schalle ermöglicht wird. Um eine ortsunabhängige akustische Augmentierung zu ermöglichen, erfolgt die Ausgabe über Kopfhörer. Das Hinzufügen der akustischen Komponente ist daher ein weiterer Schritt, die Realitätsnähe von Augmented Reality zu erhöhen.