Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam

In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre

Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam mehr erfahren

x r⠀e x h i b i t i o n : prototype_

Dieser Prototyp hat das Ziel herauszufinden, inwiefern die XR-Technologie dazu beitragen kann, Kunst und Kultur für Menschen mit Beeinträchtigungen zugänglicher zu gestalten. Das Foyer der FH Potsdam dient als spezifischer Anwendungsbereich, um den Prototypen in einer realen Umgebung zu testen und weiterzuentwickeln.

••⠀Was ist XR? (Extended Reality)

Erweiterte Realität (XR) ist eine Technologie, die virtuelle Elemente in die reale Welt integriert und so ein immersives und interaktives Erlebnis schafft. Mithilfe von Smartphones, Tablets oder speziellen AR-Brillen können Benutzer*innen diese Technologie nutzen, um virtuelle Objekte und Informationen in ihrer realen Umgebung zu sehen und damit zu interagieren. AR findet oft Anwendung in verschiedenen Bereichen wie Unterhaltung, Bildung, Einzelhandel und industriellen Anwendungen.

••⠀Barierefreiheit in Austellungen

barierefreiheit_in_ausstellungen_yin_boribun_1.jpgbarierefreiheit_in_ausstellungen_yin_boribun_1.jpg
barierefreiheit_in_ausstellungen_yin_boribun_2.jpgbarierefreiheit_in_ausstellungen_yin_boribun_2.jpg

Barrierefreiheit in Ausstellungen bedeutet, dass Menschen mit Sehschwäche eine erlebbare Ausstellung ohne visuelle Wahrnehmung haben sollten. Dazu können audioguides, Braille-Beschriftungen und Erklärungen in leichter Sprache beitragen, um die Ausstellungsstücke verständlich zu machen.

Führungen durch die Ausstellung, die speziell auf die Bedürfnisse sehgeschwächter Menschen abgestimmt sind, sind ebenfalls eine wichtige Maßnahme.

Gut beschriftete und gekennzeichnete Ausstellungsstücke, die angefasst werden dürfen, sind ebenfalls wichtig.

Dieses Projekt untersucht, inwiefern die XR-Technologie dazu beitragen kann, dass sehgeschwächte Menschen die gleiche kulturelle Teilhabe erleben können wie andere Besucher:innen einer Ausstellung.


••⠀Einleitung

Augmented Reality bietet großartige Möglichkeiten für neue Perspektiven. Die Art und Weise, wie wir die Welt erleben, kann mit AR verändert werden, so dass sogar unsere Gedanken in verschiedene Richtungen gelenkt werden. Diese Technologie ist zudem flexibel und umweltfreundlich. Sogar ein einfacher Parkplatz kann zu einem digitalen Schauplatz um/gestaltet werden.

Fragestellung:ㅤ

Wie können wir diese XR-Technologie darüberhinaus nutzen, um nicht nur ästhetisch ansprechende 3D-Objekte im Augmented Reality-Raum zu platzieren, sondern auch im Kontext Barrierefreiheit in Exponate eine nützliche Anwendungsmöglichkeit bereitstellen/entwickeln?

trennbalken_4.pngtrennbalken_4.png

••⠀Was sind Area-Targets?

fhp_foyer_vuforia_area_target_002.pngfhp_foyer_vuforia_area_target_002.png
fhp_foyer_vuforia_area_target_003.pngfhp_foyer_vuforia_area_target_003.png
fhp_foyer_vuforia_area_target_004.pngfhp_foyer_vuforia_area_target_004.png
fhp_foyer_vuforia_area_target_005.pngfhp_foyer_vuforia_area_target_005.png
fhp_foyer_vuforia_area_target_001.pngfhp_foyer_vuforia_area_target_001.png

Area-Targets sind spezielle Marker, die in der Augmented Reality verwendet werden, um einen bestimmten Bereich oder eine bestimmte Fläche zu identifizieren. Wenn ein Gerät mit einer AR-App auf ein Area-Target gerichtet wird, kann die App erkennen, wo sich das Gerät befindet und die entsprechende virtuelle Ergänzung in die Realität einfügen. Es ist eine Technologie, die in der Augmented Reality verwendet wird um die präzise Platzierung der virtuellen Inhalte in der realen Umgebung zu ermöglichen.

Es gibt verschiedene Arten von Markern, die derzeit in der Augmented Reality verwendet werden können, wie zum Beispiel QR-Codes, Barcode-Marker, Bildmarker, 3D-Modelle und GPS-Tracker. Jeder Marker-Typ hat bestimmte Eigenschaften und kann für verschiedene Anwendungen genutzt werden.

Im Rahmen dieses Projekts habe ich mich für das Area-Target entschieden, da diese Art von Marker noch nicht vollständig erforscht ist, aber meiner Meinung nach ein großes Potenzial für XR-Ausstellungskonzepte bietet.


••⠀(tack tack tack) Klicksonar im XR

Was bedeutet das in einer Ausstellung?

Für Menschen mit einer Sehschwäche könnte dies eine nützliche Technologie sein, um ihre Umgebung besser zu erkunden und sich in der Ausstellung zurechtzufinden. Durch das Klicksonar können sie Hindernisse und Gegenstände in ihrer Umgebung besser wahrnehmen und auch Informationen darüber erhalten, wie weit diese entfernt sind.

abstandserkennung_von_hindernisse_unity.gifabstandserkennung_von_hindernisse_unity.gif

Dieser Protoyp wurde von mir so gestaltet, indem 3D-Objekte/Hindernisse/Wände in der virtuellen Umgebung mit einem Klicksonar-Sound ausgestattet und von ihrem Standpunkt einen Ton aktivieren, wenn sich der/die Nutzer:In ihnen nähert. Je näher er/sie sich dem Objekt in der realen Welt nähert, desto lauter wird das Klick-Geräusch vom Objekt ausgegeben.

Der Abgleich geschieht mit dem Area-Target. In der Realität kann der/die Nutzer:In sich somit durch das Hören des Klicksonars (Kopfhörer) besser orientieren und so Hindernisse vermeiden. (Spatial Sound)

Dieses Feature könnte auch die Interaktion mit 3D-Objekten oder Ausstellungsstücke erleichtern, indem der/die Nutzer:In durch einen Sound eine Rückmeldung erhält, wenn er/sie sich einem interaktiven Objekt in der Realität oder in der AR-Ebene nähert.

••⠀Interaktionen mit Sprachsteuerung im XR

Spracheingabe kann die Barrierefreiheit in Ausstellungen verbessern, indem es Blinden und Menschen mit motorischen Einschränkungen ermöglicht, die Ausstellungsstücke und Informationen auf eine für sie angenehme Weise zu erfahren.

Diese Prototypen erkennen das was man ihnen sagt und verändern sich je nach Sprachbefehl. Dies soll Nutzer:innen mit Seh- oder Hörbeeinträchtigungen ermöglichen sich die Ausstellung durch Sprachbefehle zu navigieren, indem sie sich die Informationen über die Exponate vorlesen lassen können.

xr_sprachinteraktion_unity.gifxr_sprachinteraktion_unity.gif

xr_sprachinteraktion_unity_protype_2.gifxr_sprachinteraktion_unity_protype_2.gif

Prototyp: Statt den Wörtern: Rot, Grün, Blau, Weiss etc.. könnte man andere Sprachbefehle einpflegen und triggern. Z.B.: Lese mir vor! - Fahrstuhl, Hilfe!, etc..

••⠀Blick-Interaktionen im XR

Objekte in der Ausstellung können erkennen, ob sie angeschaut werden oder nicht. In diesem Prototypen richtet der/die Besucher/in die Kamera des Smartphones in Richtung eines Ausstellungsobjektes. Es beginnt ein Audioguide nachdem das Objekt erkennt, dass es angeschaut wird. Dieser Audioguide könnte wie in diesem Beispiel ein Gemälde beschreiben.

ㅤㅤ

Warum? - Gaze(Blick) -Interaktionen im Extended-Reality ermöglichen es Benutzer:innen, dies XR-Ebene mit ihren Augen oder in AR mit der Ausrichtung Ihres Smartphones steuern/triggern.

Dadurch könnte die Interaktion intuitiver wirken, da Benutzer:Innen nicht mehr auf einen Controller oder auf eine Touch-Oberfläche angewiesen sind.

In Kombination mit Eye-Tracking welche Fixationen erkennen, könnte man mit Blick-Interaktionen auch Interfaces in der XR-Ebene ansteuern, indem man den „blauen Punkt“ im oberen Beispiel mit den Fixationen des Auges synchronisiert.

xr_blickinteraktion_prototype_2.gifxr_blickinteraktion_prototype_2.gif

ㅤㅤ

••⠀Der XR-Prototyp

Trigger-Objekte/Zonen die auf dem Tablet unsichtbar sind aber die man hört.

4.jpg4.jpg
1.png1.png
6.jpg6.jpg
2.jpg2.jpg
3.jpg3.jpg
5.jpg5.jpg

Durch die Nutzung von Area-Targets kann der gesamte Ausstellungsraum als AR-Target genutzt werden. Somit kann natürlich auch der gesamte Raum und den Darin befindlichen Ausstellungsobjekte mit Klick-Sonar ausgestattet werden und getriggert werden. Hier wurden alle Hindernisse/Säulen und Wände mit dem genannten Klick-Sonar-Sound ausgestattet. Diese können durch Abstandsmessung die Entfernung der Besucher:Innen in der Ausstellung erkennen.

ㅤㅤ
ㅤㅤ

trennbalken_4.pngtrennbalken_4.png


••⠀Fazit

ingame-xr-exhibition-prototype-ddd.jpgingame-xr-exhibition-prototype-ddd.jpg
ingame-xr-exhibition-prototype-bbb.jpgingame-xr-exhibition-prototype-bbb.jpg
ingame-xr-exhibition-prototype-aaa.jpgingame-xr-exhibition-prototype-aaa.jpg
ingame-xr-exhibition-prototype-ccc.jpgingame-xr-exhibition-prototype-ccc.jpg
ingame-xr-exhibition-prototype-eee.jpgingame-xr-exhibition-prototype-eee.jpg
ingame-xr-exhibition-prototype-fff.jpgingame-xr-exhibition-prototype-fff.jpg

ㅤㅤ
ㅤㅤ

Extended Reality (XR) kann über unsere visuellen Fähigkeit hinausgehen, indem es auf Audio- und Sprachbasis funktioniert. Dies kann für Benutzer:Innen mit Beeinträchtigung sehr nützlich sein, indem es ihnen ermöglicht, virtuelle Informationen in der Austellung über ihre Smartphones oder Tablets zu erfahren/erhören.

Es kann auch durch die Verwendung von Text-to-Speech- und Spracherkennungstechnologien personalisiert werden, um die Interaktion mit Ausstellungs-Stücke in der Realität erleichtern.

Durch die Verwendung dieser Technologien können wir meiner Meinung nach die Erfahrung von Exponaten für Menschen mit Beeinträchtigungen verbessern und eine inklusivere Umgebung erschaffen. Es ist wichtig zu betonen, dass Technologie kein Ersatz für eine barrierefreie Ausstellung ist, sondern als Ergänzung gesehen werden kann. Dennoch bietet sie in meinen Augen sehr großes Potenzial für die Weiterentwicklung….

Dieses Projekt war nicht nur eine gute Möglichkeit für mich, um die Anwendung von Augmented Reality und Area-Targets im Bereich Barrierefreiheit in Exponate zu untersuchen, sondern auch, um meine Fähigkeiten in der Anwendungsentwicklung mit Unity zu verbessern. Dieser Kurs hat mir definitiv geholfen, meine Kenntnisse aufzufrischen und mich auf mein angehendes Master-Thema vorzubereiten.

Vielen Dank an Prof. Klaus Dufke dafür, dass ich an seinem Kurs teilnehmen durfte und sehr viel wertvollen Input mitnehmen konnte.

ㅤㅤ
ㅤㅤ

xr_blickinteraktion_prototype_1.gifxr_blickinteraktion_prototype_1.gif

ㅤㅤ

trennbalken_4.pngtrennbalken_4.png

ㅤㅤ

ㅤㅤ
ㅤㅤ

••⠀Fingerübungen / Ideen-Sammlungen

ㅤAR Fenster

xr_fenster_prototype.gifxr_fenster_prototype.gif

Der Zweck dieses Prototyps besteht darin, Abschlussprojekte (Webseiten) in AR zu visualisieren. Die Größe und Form des Fensters kann an das Ausstellungskonzept und den Inhalt angepasst werden. Durch die Verwendung dieses Fensters (Canvas) in der AR-Ebene kann dieses Fenster auch wellenförmig oder in anderen ungewöhnlichen Formen dargestellt werden. Die Informationen können extern über einen Link geladen werden.

Es ist quasi ein Internet-Browser welcher auf alle 3D-Oberflächen appliziert werden kann...

ㅤAR Portale

xr_portale_01.gifxr_portale_01.gif

xr_portale_02.gifxr_portale_02.gif

…eine faszinierende Möglichkeit, um von einem Ort aus überall sein zu können. Dieser Prototyp ermöglicht es, virtuelle Portale in die reale Welt zu integrieren und den Nutzer in einer Ausstellung in andere Räume und Orte zu teleportieren….

trennbalken_4.pngtrennbalken_4.png

Ein Projekt von

Fachgruppe

Kommunikationsdesign

Art des Projekts

Freies Projekt

Betreuung

foto: Prof. Klaus Dufke

Zugehöriger Workspace

MX14 - Exhibition XR

Entstehungszeitraum

Wintersemester 2022 / 2023

Keywords