Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam

In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre

Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam mehr erfahren

Soundscapes | Escape Maze

Escape Maze ist ein minimalistisches, browserbasiertes Virtual Reality Spiel, bei dem es das Ziel ist, einen Schatz in einem Labyrinth zu finden. Um zu überleben, müssen die SpielerInnen sich vollkommen auf ihre Sinne verlassen können, denn es lauern überall gefahren in den düsteren Irrgängen.

Um das Spiel selbst auszuprobieren, muss lediglich der folgende Link im integrierten Browser der Meta Oculus Quest 2 aufgerufen werden:

https://escapemaze.glitch.me

Das Spiel sollte auch mit anderen VR Headsets funktionieren, wurde jedoch nicht getestet.

Konzept

Als Inspiration dienten uns verschiedene Spiele wie Dark Echo, Stifled und Maze Sounds. Besonders wichtig war es uns bei der Konzeptionsphase darauf zu achten, dass wir uns nicht zu viel vornehmen, da einerseits das genutzte A-Frame Framework aufgrund des webbasierten Ansatzes (WebXR) im Gegensatz zu anderen Game Engines recht limitiert ist und wir alle unerfahren mit Javascript waren.

Erste Skizze:

kix.3wxq4c25o4p6.jpegkix.3wxq4c25o4p6.jpeg

Game Loop:

kix.2u5t4o9evug6.pngkix.2u5t4o9evug6.png

Umsetzung

Um die Limitationen von A-Frame zu umgehen und eine gute Performance zu gewährleisten, mussten wir uns teilweise kreative Alternativen einfallen lassen: Auf eine physikalische Kollisionsabfrage wurde verzichtet und stattdessen wird permanent der Abstand zwischen Headset und den einzelnen Objekten gemessen. Durch ein sogenanntes NavMesh wird verhindert, das SpielerInnen durch Wände laufen können. Um Ladezeiten zu minimieren, sind alle Level in der gleichen Szene platziert und lediglich die Spielerposition wird verändert.

Beispiel für ein NavMesh:

kix.34hmt5bxlppv.pngkix.34hmt5bxlppv.png

Anordnung der drei spielbaren Level:

kix.5htc4c8eluj4.pngkix.5htc4c8eluj4.png

Kontext XR und Sound

Die visuelle Wahrnehmung wird weiterhin die mit wertvollste Komponente von XR sein. Doch Sound spielt in VR und AR ebenfalls eine sehr wichtige Rolle. Es macht die Erfahrung immersiver und erlebbarer. Erlebbar auch für Menschen, die Schwierigkeiten beim Sehen haben.

In diesem Kurs wurde sichtbar, dass Sound in XR sehr vielseitig eingesetzt werden kann. Er wurde dreidimensional und orientierungsgebend, aufmerksamkeitslenkend, atmosphärisch, meditativ oder auch interaktiv eingesetzt und machte das Erlebnis somit auf eine neue Weise greifbar. Diese Evidenz erzeugt eine höhere Glaubwürdigkeit der abgebildeten Welt. Doch auch hierbei kann natürlich vom Streben nach Realitätsnähe abgewichen und hin zum Kreieren fantastischer, utopischer Klangwelten oder auch hin zu unlogischen, verwirrenden Sounds gewechselt werden. Schließlich gelten im digitalen Raum andere Gesetze als in der Realität.

Des Weiteren wird die auditive Ebene auch im Hinblick auf Informationsvermittlung weiterhin ein wichtiges Feature bleiben. Sowohl durch gesprochene Texte als auch durch andere Geräuschkulissen, denn eines bleibt sicher: Bildelemente können schnell übersehen werden, Tonelemente allerdings nicht überhört.

Fazit

Hamed:

Das Thema des Kurses (WebXR) fand ich sehr interessant und obwohl ich sehr wenig Erfahrung im Bereich Web und XR Technologie hatte, mochte ich gern meine Kenntnisse in einem Praxiskurs vertiefen.

Selbstverständlich sind ab und zu während der Projekte, die wir im Lauf des Semesters daran gearbeitet haben, Probleme und Bugs aufgetreten, aber Sebastian und Tim haben uns sehr gut unterstützt und die Bugs konnten mit ihrer Hilfe und auch bisschen Recherche im A-frame Doc behoben werden.

Ich würde den Kurs den Studierenden, die Erfahrung in diesem Bereich haben oder auch als Einsteiger sehr gern weiterempfehlen.

Milan:

Ich hatte mich bisher nur mit der Erstellung gerätespezifischer VR-Anwendungen beschäftigt, daher hat mich bei dem Kurs von Tim und Sebastian besonders die Web-Extended-Reality-Technologie (WebXR) Schnittstelle interessiert, die es ermöglicht, immersive Inhalte browserbasiert und „geräteunabhängig“ auf diversen VR-Brillen und AR-tauglichen Geräten darzustellen. Bei unserem Endprojekt und den vorherigen Kursaufgaben musste ich feststellen, das bei der Entwicklung von WebXR Anwendungen aktuell immer mit vielen Einschränkungen gerechnet werden muss. Die angestrebte hohe Kompatibilität mit verschiedensten Geräten und unterschiedlichen Darstellungsleistungen führt immer dazu, dass bei der visuellen Qualität und Komplexität Abstriche gemacht werden müssen. Die wenigen Tools und Frameworks wie beispielsweise A-Frame wirken oft unfertig oder sind schlecht dokumentiert. Etablierte Game Engines wie Unity oder Unreal bieten derzeit leider noch keinen direkten Weg an WebXR Erfahrungen zu erstellen. Ich bin jedoch der Meinung, das WebXR eine der wichtigsten Web-Technologien der nächsten Jahre werden wird, durch die Plattformunabhängigkeit können Nutzern immersive Erfahrungen so zugänglich wie noch nie gemacht werden.

Als Beispiel hier ein melodischer Sequencer der während des Kurses entstanden ist, dieser kann über ein VR-Headset, ein Smartphone oder ein Computer bedient werden: https://aframe-arp.glitch.me

Fachgruppe

Werkstattpraxis

Art des Projekts

Keine Angabe

Betreuung

foto: Tim Ebert foto: Sebastian Wloch

Zugehöriger Workspace

Soundscapes: Making Noise in WebXR!

Entstehungszeitraum

Sommersemester 2022

Keywords