In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre
Dokumentation Wintersemester 2021/2022 Betreut von Sebastian Wloch und Tim Ebert
Parallelraum - Eine fiktionale VR Experience. Im Projektwochenkurs beschäftigten wir uns mit Unity, Virtual Reality und VR Brillen und erstellten so unser virtuelles Erlebnis.
Die ursprüngliche Aufgabenstellen betraf das Interfacelabor, in dem der Kurs stattfand. Anhand von kleinen Faktoren die in einer anderen Realität ander wären sollte der Raum sich verändern. Ob das Texturen, Gegenstände oder das Ambiente betrifft war uns freigestellt. Wichtig war bloß, dass die Maße und Hindernisse im Raum ein virtuellen Äquivalent brauchen, damit man sich gefahrlos mit der VR Brille bewegen konnte.
In einem Brainstorming haben wir zunächst Ideen für Faktoren entwickelt, die als Grundlage für unsere Szenarien stehen sollten. Im nächsten Schritt haben wir im Kurs diese in Szenarien umgewandelt und kurz definiert. Unser Faktor war, das sich die Schwerkraft der Erde umgedreht hat.
Unsere Gruppe bildete sich auf einem Miro-Board durch unser gemeinsames Interesse an dem gewählten Thema. In unserer Gruppe entwickelten unser Szenario weiter, um es möglichst realistisch zu gestalten. Somit haben wir festgelegt, dass bei dem Versuch einen Asteroiden zu zerstören ein schwarzes Loch in der Nähe der Erde gebildet hat, die fortan alles an sich zieht und die Schwerkraft der Erde umkehrt.
Wir haben im Anschluss möglichst viele Aspekte unserer Welt definiert, die wir für unser Szenario als relevant empfunden haben. Wir haben dabei festgelegt, wie die Atmosphäre aussieht, wie Infrastruktur funktioniert und wie der Alltag der Menschen an der Decke aussehen könnte.
Im nächsten Schritt haben wir Moods für unsere Ideen gesammelt, um anschließend in die Umsetzung gehen zu können.
Der Setup in Unity wurde von Sebastian und Tim begleitet. Wir haben ein gemeinsames Projekt erstellt, in dem wir kollaborativ zusammenarbeiten konnten.
Es war zum Teil sehr schwierig mit unterschiedlichen Versionen zu arbeiten. Es gab oft Konflikte mit Plugins, die nötig waren, um den Build auf der Oculus laufen zu lassen. Nach viel Zeit zum debuggen haben wir es jedoch hinbekommen, unser Projekt zum Laufen zu kriegen und konnten fortan gut arbeiten.
Die von Sebastian und Tim angelegten Assets zu importieren war mitunter recht schwierig, wir haben es jedoch schlussendlich geschafft. In Unity und Blender haben wir dann unser Projekt umgesetzt.
Da alle in der Gruppe noch unerfahren mit der Arbeit mit 3D-Programmen waren, stellte dies jedoch eine große Herausforderung dar. Mit viel Unterstützung und Einsatz haben wir es jedoch geschafft eine Version unser angestrebten Welt zu erstellen, mit der wir alle sehr zufrieden waren.
Anhand der Vorlage von Sebastian und Tim haben wir den Raum von Blender in Unity übertragen und dort mit Assets angereichert.
Aufgrund unseres Szenarios haben wir den Raum zunächst umgedreht und eine realistische Ungebung geschaffen. Wir haben die Außenumgebung mit einer leeren Berglandschaft und gefrorenen Bäumen gestaltet, um unsere Vision in die Realität umzusetzen.
Innerhalb des Raumes haben wir uns für ein verlassenes Atomlabor entschieden.
Um unser Szenario zu verdeutlichen haben wir in die Decke, also unseren Boden, ein Loch gerissen, sodass man nach unten in den Weltraum schauen kann. Dieses wurde auch dafür genutzt die Besucher von der Mitte des Raumes fernzuhalten, da in einer anderen Gruppe dort ein Tisch platziert war.
Um eine spannende Interaktion einzubauen haben wir uns überlegt ein Brett über einen Teil des Lochs zu legen. In der echten Welt wurde dieses genau platziert und dann in Blender durch eine Lampe ersetzt, die den echten Dimensionen entspricht. Der entstehende Effekt in VR ist sehr spannend und überzeugend. Es fühlt sich echt an und man bekommt ein Schwindelgefühl, wenn man über das Brett auf die andere Seite des Raumes läuft.
Um noch einen Eintritt in den Raum möglich zu machen, haben wir an der Stelle, wo die Tür ist ein Loch in die Wand modelliert. Dieses Problem haben wir lange versucht zu lösen.
Um noch mehr das Gefühl eines Labors zu vermitteln haben wir die Szene mit externen Assets angereichert. Dabei haben wir kostenlose Assets von Uranfässern und Büroartikeln heruntergeladen und in die Szene geladen. Damit wirkt die Szene noch immersiver. Zusätzliche Effekte wie Dämpfe aus Rohren haben wir mit Partikelsystemen umgesetzt. Die Standardskybox von Unity haben wir durch eine eigene ersetzt, die durch den Sternenhimmel die fehlende Atmosphäre unserer fiktiven Welt abbildet.
Um einen räumlichen Effekt der Außenumgebung zu erstellen, haben wir ein Schwarzes Loch geschaffen, das die Besucher durch das Loch im Boden sehen können. Aufgrund keiner Vorkenntnisse haben wir uns auf YouTube Video-Tutorials zum Erstellen einer Kugel angesehen und nachgemacht. Wir haben versucht, die Farben des Schwarzes Lochs zu gradienen. Dieser Vorgang ist ziemlich kompliziert. Mit Hilfe von Sebastian hat er uns einen einfacheren Weg gezeigt, ein Schwarzes Loch darzustellen und den Effekt von Sternen zu erzeugen, die in Richtung des Schwarzen Lochs gesaugt werden.
Außerdem haben wir Soundeffekte für die Sterne hinzugefügt, um den Besuchern ein klares Gefühl zu geben, wenn sie in das Loch im Boden fallen, werden sie in das Schwarze Loch gesaugt.
Um Aktionen auszuführen, Objekte in Bewegung zu setzen oder Ereignisse bei Interaktion auszulösen kann man in Unity programmieren. Auch ohne Vorkenntnisse kann mit der Script Machine visuell programmiert werden, in dem einzelne Blöcke zusammen geklickt werden.
Am Beginn steht immer die Abfrage wie oft Unity prüfen soll ob ein Ereignis eintritt. Anschließend werden die Parameter definiert was wann passieren soll.
So programmierten wir beispielsweise, dass Backsteine bei Annäherung herunter fallen und dabei einen bröckelnden Sound abgeben. Problematisch war hier vor allem, dass die Box Collider der Blöcke nicht untereinander kollidieren. Außerdem gab es ein Problem in der Übertragung auf die Brille, da teile des OVR Camera Rig dort umbenannt wurden und der Player Collider deshalb nur auf bestimmten Teilen liegen durfte.
Die Programmierung des fallenden Tropfens wurde dann etwas komplexer. Hier war nicht nur das setzen der Gravitation und das Abspielen des Tropfgeräusches beim Aufprall zu beachten, sondern, dass der Tropfen danach wieder an seine ursprüngliche Position zurück kehrt um von dort wieder zu fallen.
Die dritte Raumkomponente die Programmiert wurde war das flackernde Licht der Lampe, das maßgeblich zur dystopischen Stimmung beitrug. Um das blitzen so natürlich wie möglich wirken zu lassen entschied ich mich einen Zufallswert in die Berechnung einfließen zu lassen. So wird alle 0,2 Sekunden abgefragt ob das Licht eingeschaltet sein soll oder nicht.
Während die beiden anderen Teams viel Programmiert, Animiert und 3D Assets gebaut haben lebt unser Raum vor allem von der Stimmung. Gleich beim Betreten des Raumes fallen die düstere Lichtstimmung und das große Loch im Boden auf.
Das liegt auch daran, dass wir mit sehr wenigen Lampen gearbeitet haben. Das meiste bläuliche Licht kommt vom schwarzen Loch. Die Sonne vor dem Fenster wirft die meisten Schatten im Raum. Die flackernde Lampe sorgt für eine dystopische Stimmung. Das Notausgangsschild trägt dazu bei. Damit außerhalb des Fensters noch etwas wahrgenommen werden kann und um die Szenerie etwas fantastischer wirken zu lassen entschieden wir uns für eine farbige Milchstraße als Skybox. So wirkt das Szenario nicht zu dunkel und der Blick aus dem Fenster wird angeregt.
Wichtig für die Oculus war, dass möglichst wenige Lampen einen Schattenwurf erzeugen, wenn dann durfte der nur harte Schatten werfen um nicht zu viel Rechenleistung zu binden.
Die Uran-Elemente sind keine Lampen. Sie bestehen lediglich aus einem emititerenden Material.
Um den Effekt für das Szenario zu erhöhen, haben wir viele verschiedene Arten von Geräuschen verwendet, zum Beispiel: das Geräusch von dem Dämpfe aus Rohren, von der Uran-Tropfen, von dem Kurzschluss usw. Alle diese Sounds werden auf kostenlosen Download-Websites gefunden und ausgewählt.
Insbesondere der Intro-Sound, der die Besucher am Anfang der Entdeckungsreise hören, wurde von uns selbst erstellt. Mit Hilfe von Animaker- und Audiomass-Websites haben wir unser eigenes Intro mit der tiefen Stimme erstellt.
Das Virtual-Reality-Headset der Interfacewerkstatt für das wir unseren Raum gebaut hatten war die Oculus Quest 2. Die Brille wurde von Facebooks Oculus entwickelt und ist seit 2020 verfügbar. Games können direkt auf dem Headset gespeichert werden und so ohne Computerverbindung abgespielt werden. Neben Lautsprechern sind 4 Kameras verbaut die sich im Raum orientieren. Mit den zwei Controllern können Einstellungen vorgenommen und Gesten ausgeführt werden.
Die Oculus Quest 2 hat ein Android Betriebssystem. Den Raum konnten wir durch aktivieren des Entwicklermodus über Facebook direkt von Unity builden.
In der Kommunikation der beiden Softwares gab es aber auch einige Probleme. Zum einen benennt die Oculus Teile des in Unity angelegten CameraRigs um, weswegen Collider nicht dort liegen konnten. Zum anderen muss in den Unity beachtet werden, dass einige Lichteinstellungen, wie die flackernde Lampe, nur bei einem hohen Render Mode auch auf der Brille zu sehen sind.
Die Oculus Quest 2 war für unsere Anwendungen dennoch gut geeignet, auch weil sie handtracking ermöglicht. So konnten unsere Raumtester bei der Werkschau ohne die Controller mit Gegenständen im Raum interagieren.
Um die virtuelle Welt auf die Echte anzupassen, haben wir genau ausgemessen, wo im Raum das Brett platziert wurde. Die Maße haben wir dann in Blender übertragen, sodass diese genau übereinstimmen.
Um den gesamten Raum zu mappen haben wir bewegliche Punkte am Eingang platziert, welche die virtuelle Welt so verformen, dass die echte und virtuelle Welt genau übereinander liegen.
In Vorbereitung auf die Werksschau und die Dokumentation haben wir in der letzten Woche eine fertige Version als Video aufgenommen. Dabei haben wir einen Rundgang durch den ganzen Raum gefilmt und dabei alle Features gezeigt.
Viele Nutzer der Werkschau-Austellung hatten kaum Erfahrung mit VR an sich. Nach einer kurzen Einführung und Kallibrierung der Brillen starteten die Besucher. Wir wussten durch einen kurzen Vorab-Test wo sich die Kugeln zum Raumwechsel befanden und erahnten daher wann unser Raum betreten wurde.
Die erste Reaktion war oft ein kleines Erschrecken oder Erstaunen. Als erstes fiel das Loch im Boden auf, an das sich Besucher nur zögerlich annäherten. Ein weiteres Highlight war die Lampe über die die meisten balanciert sind. Offenbar sehr intuitiv waren auch die Uran-Stäbe, da viele versuchten diese anzuheben. Allerdings regte die Form eher dazu an mit einer Faust bzw. allen Fingern zu greifen, während die Oculus einen Zugriff erkennt wenn Daumen und Zeigefinger zusammen geführt wurden.
Die allermeisten Besucher waren begeistert von der Immersivität und Qualität unserer Räume. Viele waren erstaunt in welchem Zeitrahmen alles entstanden ist. Von Seiten anderer Studierender wurde auch Interesse an einem kompletten VR-Kurs geäußert.
Dieser Projektwochenkurs hat uns allen viel Freude bereitet. Die Erlebnisse, die in VR erzeugt werden können haben uns alle nachwirkend beeindruckt. Es war eine große Freude mit Sebastian und Tim zu arbeiten, da sie die nötige Erfahrung für die Umsetzung eines solchen Projekt mitgebracht haben.
Wir konnten erste Skills in 3D-Modellierung entwickeln und lernten, mit externen Assets einen Raum zum Leben zu erwecken. Die Arbeit mit Unity war oft sehr mühsam, da oft Daten überschrieben wurden oder es Probleme mit Plugins gab. Nur durch die Zusammenarbeit im Team und Einsatz haben wir es geschafft unsere Vision wirklich zu machen.
Auch wenn wir alle noch Einsteiger in VR und 3D waren, haben wir es geschafft einen virtuellen Rundgang zu schaffen, der mit Atmosphäre, Storytelling, Sound und Animation gefüllt ist.