RE’FLEKT Product Explorer Demo – Virtual Reality zum Greifen nah

Spätes­tens seit der CES 2015 ist es auch in die letzten Ecken der Tech-Welt durch­ge­drungen: Virtual Reality steht vor der Tür. Zahl­reiche Firmen zeigten ihre neuen HMDs (Head-mounted Displays). Oculus selbst – mit deren Rift die  VR-Renaissance begonnen hat, resi­dierte mit ihrem aktu­ellen Proto­typen Crescent Bay gar auf einem riesigen zwei­stö­ckigen Stand.

Und doch, auch wenn VR in den letzten Monaten mit der Crescent Bay und der Gear VR große Sprünge gemacht hat, auf dem Consumer Markt ist sie noch nicht ange­kommen. Das liegt neben der noch fehlenden Consumer-Version der neuen High-end HMDs vor allem an einem Problem: der Inter­ak­tion mit der virtu­ellen Welt. Das Online­ma­gazin The Verge brachte es am Ende eines ausge­zeich­neten Arti­kels auf den Punkt: „If we’re going to get people excited about virtual reality, let’s make sure it’s more than a screen first.”

WIE INTERAGIERT MAN MIT VIRTUELLEN WELTEN?

Auch inner­halb der VR-Community und bei Oculus selbst gilt Inter­ak­tion als noch unge­löstes Problem. Maus und Tastatur fallen weg wenn man einen Bild­schirm auf der Nase hat, Game Pads sind nicht für jeden und jede Anwen­dung sinn­voll und spezia­li­sierte räum­lich getrackte Input­de­vices wie die Razer Hydra konnten sich bisher eben­falls nicht durch­setzen. Gerüch­te­weise arbeitet Oculus aus Unzu­frie­den­heit  mit den verfüg­baren Geräten selbst an einem VR Inter­face – und die kürz­liche Über­nahme des Hand­tracking Start-Ups Nimble VR gibt eine Idee, in welche Rich­tung es dabei gehen könnte.

Auch bei RE’FLEKT haben wir uns Gedanken darüber gemacht, wie Inter­ak­tion mit virtu­ellen Umge­bungen in Zukunft aussehen könnte. Unser Ziel war es, einen Proto­typen zu erstellen, der VR-Erstnutzern die Möglich­keit gibt möglichst direkt – ohne Vorwissen – und mit mini­malem Lern­auf­wand mit dem virtu­ellen 3D-Modell eines Produkts zu interagieren.

HANDS-ON INTERAKTION FÜR VIRTUAL REALITY

Mini­maler Lern­auf­wand? Ohne Vorwissen? Was bietet sich da eher an als ein möglichst natür­li­ches Inter­face – ohne Abstrak­tion durch das Drücken von Knöpfen oder das Herum­fuch­teln mit Control­lern. Einfach ohne Controller, direkt mit unseren Händen. Die Leap Motion verspricht genau das: durch eine Infra­rot­ka­mera und Computer Vision-Algorithmen ist es möglich, die eigenen Hände in Echt­zeit in den virtu­ellen Raum zu bringen.

Gesagt getan: In einer Late Night-Session wurden die ersten Erfah­rungen mit der Kombi­na­tion Leap & Rift DK2 gesam­melt und ein erster roher Prototyp erstellt und über die nächsten Wochen zuneh­mend verfei­nert. Als zu explo­rie­rendes Produkt diente das von CEO Kai Thomas entwor­fene RE’FLEKT Concept Car. Das wurde kurzer­hand auf ein hand­li­ches Maß geschrumpft, um es in Armes­reich­weite zu bringen und in eine halb­trans­pa­rente Kugel gepackt. Diese Kugel sollte Dreh- und Angel­punkt der Inter­ak­tion werden – sprichwörtlich.

Anstatt mit der Ober­fläche des Autos, drehte der Nutzer das Modell indem er über die Ober­fläche der Kugel streicht – wie bei einem Globus. Dies ermög­licht es, direkt am Fahr­zeug auf Details zu zeigen oder weitere Inter­ak­tionen auszu­lösen ohne in eine unkon­trol­lierte Drehung zu verfallen. Weiterhin zeigte sich die allen bekannte Globus-Metapher als komplett ausrei­chend zu Erklä­rung der Interaktion.

Als wich­tiges Detail stellte sich während unserer itera­tiven Entwick­lung ein physi­ka­lisch glaub­haftes Momentum der Kugel heraus. Die Inter­ak­tion wird dadurch deut­lich flüs­siger, schneller und spiel­hafter. Mehr als einmal erwischt sich der ein oder andere Entwickler dabei, verzückt für eine Weile die Kugel und das Modell zu drehen anstatt den Look des gerade ausge­wech­selten Shaders in der Brille zu über­prüfen – ein gutes Zeichen auf dem rich­tigen Weg zu sein. Ebenso wichtig für eine ange­nehme User Expe­ri­ence war das Fein­tu­ning des Feed­backs für die Inter­ak­tion mit der Kugel: Hand und Kugel sind ange­deutet solange sie nicht nah genug für eine Inter­ak­tion sind, um nicht vom eigent­li­chen Produkt abzu­lenken und werden nur dann sichtbar wenn eine Inter­ak­tion möglich ist.

RF_ModelExplorer_FingerFeedback

Um dem Nutzer noch tiefere Einblicke in unser Concept Car zu gewähren, ermög­li­chen wir eben­falls das komplette Auto in seine Einzel­teile zu zerlegen. Einfach beide Hände ins Sicht­feld heben, zupa­cken und die Hände ausein­an­der­ziehen – schon öffnet sich das Auto in alle Rich­tungen und der Blick ist frei auf die innen­lie­gende Technik. Die Akti­vie­rung mittels schließen der Hand zur Faust erwies sich nicht nur als sehr robuste Geste was das Tracking anging, sondern war auch in der Lage dem User das mit dem Zugreifen verbun­dene hapti­sche Feed­back zu liefern.

RF_ModelExplorer_ExplodeFeedback

Weitere Features beinhalten das Umschalten in einen X-Ray-Modus sowie die zusätz­liche Darstel­lung des Concept Cars in Origi­nal­größe neben dem Benutzer. Letz­teres lässt sich synchron mit dem Modell in der Kugel zerlegen. Ein halb­trans­pa­rentes Overlay des Video­streams der Leap Infra­rot­ka­mera sorgt zusätz­lich dafür, dass der Nutzer weiterhin nahe Objekte in seiner Umgeung als weiße Schemen erkennen kann – hilf­reich um sich an den Tisch vor einem zu erin­nern bevor man sich vorn­über beugt, um unters Auto zu schauen.

 RF_ModelExplorer_XRay

DID IT WORK?

Die Leap ist alles andere als perfekt. Die Präzi­sion reicht für wirk­lich feine Inter­ak­tionen nicht aus. In gewissen Posi­tionen neigt das Tracking abzu­reissen und auf unseren weißen Büro­ti­schen werden gerne Geis­ter­hände erkannt, die unge­wollte Inter­ak­tionen auslösen. Aber das ist alles halb so wild. Wer um die Schwä­chen der Leap weiss und sein Design konse­quent auf ihre Stärken auslegt, der kann zusammen mit der Rift einen echten Zugang in den virtu­ellen Raum schaffen. Das haben wir in zahl­rei­chen User-Tests und Demos unseres Proto­typen eindrucks­voll vorge­führt bekommen. Inner­halb von 30 Sekunden drehten VR-Neulinge das vor ihnen schwe­bende Modell mit einer Selbst­ver­ständ­lich­keit, als hätten sie nie etwas anderes getan. Mini­maler Lern­auf­wand: check.

Doch darüber hinaus haben wir noch etwas anderes fest­ge­stellt: die eigenen Hände vor Augen zu haben, mit virtu­ellen Objekten direkt inter­agieren zu können und sich dank Posi­tional Tracking der Rift DK2 durch die vor einem schwe­benden Einzel­teile des zerlegten Autos zu bewegen, gibt den virtu­ellen Objekten eine beein­dru­ckende Präsenz. Es lässt die Grenze zwischen virtu­ellen und realen Objekten zuse­hends verschwimmen und verän­dert die Warneh­mung von virtu­ellen Inhalten dadurch funda­mental – völlig neue Möglich­keiten entstehen. Kunden können mit Proto­typen, Konzepten und Produkten inter­agieren, obwohl diese noch nicht real gebaut wurden. Inter­aktiv und spie­le­risch können komplexe tech­ni­sche Details entdeckt werden. Vor Ort oder im eigenen Wohn­zimmer. Intui­tive, natür­liche Inter­faces spielen hierbei eine abso­lute Schlüs­sel­rolle – nur mit ihnen kann VR ihr volles Poten­zial ausspielen: ein inter­ak­tives, ganz­heit­li­ches und vor allem indi­vi­du­elles und selbst gestal­tetes Erlebnis.

Bild­quellen: Eigene

 

 

 

Leave a Reply

Your email address will not be published. Required fields are marked *