Die EuroShop findet als Leitmesse für den Einzelhandel in Europa nur alle drei Jahre statt. Entsprechend groß sind neben den Besucherzahlen von 113.000 die Innovationssprünge, insbesondere in der Retail Technology. Besuchermagnet an unserem Stand war in diesem Jahr eine Pilot-Anwendung mit der Microsoft HoloLens. Interessenten konnten selbst ausprobieren, was Augmented Reality bedeutet – nämlich das Einblenden virtueller 3D-Objekte in den realen Raum. Dabei genossen zahlreiche Interessenten das durchaus irritierende Gefühl, das sich beim Eintauchen in die halb-virtuelle Welt unwillkürlich einstellt. Unser Showcase war im Fashion-Handel angesiedelt und zeigte ein fotorealistisches Model, das sich in Lebensgröße mitten auf unserer Messefläche bewegte. Per Gestensteuerung konnten verschiedene Kleidungsstücke ausgewählt und das Model so ansprechend ausstaffiert werden.

Microsoft HoloLens als Zuschauermagnet

Viele Besucher haben das ausprobiert und ihre Meinung spontan geäußert. Diese Technik eröffnet faszinierende Perspektiven, allerdings ist das Ganze noch nicht alltagstauglich. Die Microsoft HoloLens ist recht schwer – mit dem Hochleistungs-PC und Akku im Innenleben – und sie drückt mächtig auf die Nase, weil sich das Gewicht im vorderen Drittel des Geräts konzentriert. Das Gesichtsfeld ist eher ein Sehschlitz. Um unser Model komplett zu betrachten, mussten die Besucher entweder betont auf und ab blicken oder sehr weit auf Abstand gehen.

Wenn man über diese kleinen Unbequemlichkeiten jedoch einmal hinwegsieht, setzt allenthalben Staunen ein: Das Model bleibt ganz stabil auf seiner Position, egal wie man den Kopf wendet oder sich selbst im Raum bewegt. Und man kann die Figur umrunden und sie auch von hinten betrachten. Für die Umstehenden ergaben sich erheiternde Szenen, wenn Besucher mit der Brille auf dem Kopf sehr vorsichtig um die (nur für sie sichtbare) Figur herumliefen, stets bemüht, sie dabei nicht zu berühren.

Gestensteuerung für Fortgeschrittene

Die Gestensteuerung war nicht jedermanns Sache. Das Klicken auf ein in den Raum projiziertes Funktionselement musste wirklich genau erklärt werden, denn anders als bei einem normalen Touchscreen, stößt man nicht mit dem Finger auf das jeweilige Element, sondern muss den Zeigefinger unnatürlich senkrecht halten, kurz absenken und wieder in senkrechte Position bringen. Vergaß man letzteres (den Finger wieder senkrecht zu stellen), hatte die Geste eine andere Bedeutung, was zu reichlich Verwirrung führte.

Wer das Model erfolgreich bekleidet hatte, konnte so nah herangehen, dass die Textur der Stoffe und sogar die einzelnen Stiche der Nähte deutlich erkennbar wurden. Wow! Und dann gingen die Diskussionen los: Was wäre, wenn ich nun meinen eigenen Avatar hätte? Was wäre, wenn ich auch noch die Haarfarbe probehalber ändern könnte? Diese vielen Was-wäre-wenn-Fragen machen deutlich: Diese Technik hat Zukunft!

 

 

Hinterlassen Sie einen Kommentar

Nach oben