Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam

In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre

Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam mehr erfahren

Emotionale Maschinen – Exploration von Gestaltungsparametern zur Darstellung robotischer Emotion

Emotionale Maschinen – Exploration von Gestaltungsparametern zur Darstellung robotischer Emotion

Neue technologische Entwicklungen im Bereich Emotionserkennung und -simulation zeugen davon, dass sich die Begriffe Roboter und Emotionalität keineswegs ausschließen. Soziale Roboter, die spezifisch zur Interaktion mit Menschen entwickelt werden, verfügen bereits über emotionale Fähigkeiten und übernehmen immer mehr Aufgaben, die bisher als Hoheitsgebiet des Menschen galten. Ich möchte in meiner Arbeit untersuchen, wie sich Design als Disziplin, im Zuge technologischer Veränderungen und damit dem Bedürfnis nach veränderter Mensch-Maschine-Interaktion entwickeln wird. Insbesondere möchte ich hier auf die Implementierung von Emotionen in Maschinen eingehen. Ziel der Arbeit ist die Auseinandersetzung mit der Gestaltung von Emotionen für soziale Roboter und das Festsetzen möglicher Gestaltungsparameter und -richtlinien dafür.

1. Entwicklung von Interfacedesign

Interfaces existieren, um Interaktionsbefehle an Computer zu vereinfachen. Sie sind wortwörtlich die Schnittstelle, an der Mensch und Maschine sich begegnen. Die rasante Entwicklung von immer neuen Technologien erfordert aber eine stetige Auseinandersetzung mit dem, was ein Interface ist. Aktuell befinden wir und in der Ära des Graphical User Interfaces. Man kann allerdings bereits einen Trend erkennen hin um Natürlichen User Interface. In der Entwicklung zu einer natürlichen und intuitiven Bedienung, spielt auch die Entwicklung von sozialen Robotern eine große Rolle. Hier werden Interaktionsmechanismen soweit am menschlichen Abbild orientiert, dass sie das Sinnbild natürlicher Interaktion darstellen. Das sichtbare Interface wird hier aufgehoben und macht damit klassische Gestaltungsprinzipien aus der GUI-Ära obsolet.

2. Emotionen

Die Emotionsforschung ist ein relativ junges und damit dynamisches Forschungsfeld. Das Wissen über Emotionen entwickelt und ändert sich kontinuierlich. Was sind Emotionen? Was verursacht Emotionen? Welche Wirkung haben sie? Diese Fragen können noch nicht eindeutig beantwortet werden. Grundsätzlich gibt es aber zwei Vorgehensweisen, Emotionen voneinander zu unterscheiden, auf die sich die meisten Wissenschaftler einigen können: eine kategorische und eine dimensionale. as kategorische Emotionsmodell teilt Emotionen in separate Module ein und benutzt dafür Begriffe wie Angst, Furcht, Ekel etc.Dimensionale Emotionsmodelle gehen davon aus, dass sich Emotionen mit Hilfe von affektiven Dimensionen beschreiben lassen (z.B. leichter Ärger bis hin zu rasender Wut).

Wieso sollten Maschinen Emotionen verstehen?

Emotionen galten lange als unwissenschaftlich, Emotiona­lität und Rationalität galten als gegensätzliche Pole einer Achse. Aufgrund von wissenschaftlichen Studienergebnissen kann mittlerweile zumindest bewiesen werden, dass »emo­ tional sein«, also Emotionen auszudrücken, im Volksmund »zu fühlen«, nur ein kleiner Teil der Aufgabe von Emotionen ist. Sie spielen sowohl bei der Kommunikation, alsauch bei den meisten kognitiven Prozessen wie der ratio­ nalen Entscheidungsfindung , der Wahrnehmung, beim Lernen und Erinnern eine essenzielle Rolle.

Wieso sollte die Mensch-Maschine-Interaktion emotional sein?

Der Mensch ist ein soziales Wesen. In mehreren Studien wurde bewiesen, dass Menschen das dringende Bedürfnis zu haben scheinen Emotionen in jeglicher Art in unsere Kommunikation integrieren zu wollen. Dies hat demnach auch Folgen für die Entwicklung und Gestaltung von Mensch-Maschine-Interaktion.

Medien = Leben

Studien von Clifford Nass, Jonathan Steuer und Ellen Tauber bestätigten die These, dass die Mensch-Computer-Interaktion in ihren Fundamenten sozial ist, weswegen es wahrscheinlich ist, dass viele andere Prinzipien aus sozialer Psychologie, den Kommunikationswissenschaften und Soziologie ebenso relevant für die Untersuchung von Mensch-Maschine-Interaktion sind. Das heißt, dass selbst Interaktionen mit Computern, die nicht bewusst sozial gestaltet sind, soziales Verhalten in uns hervorrufen. Das hat auch klare Folgen für die Gestaltung von User Interfaces. Es ist nicht nötig, die Gestaltung von Avataren und Robotern zu sehr am menschlichen Abbild zu orientieren, wenn wir soziale Interaktion fördern wollen, weil wir bereits eine natürliche Neigung zu sozialer Interaktion haben.

3. Mensch-Maschine-Verhältnis

Darwinian Buttons

Sherry Turkle, Soziologin und Professorin für Science, Technology & Society am MIT spricht in ihrem Buch »Alone Together« [5] von »Darwininan Buttons«. Bestimmte Verhaltensweisen von Robotern, die z.B. Augenkontakt halten, Bewegungen tracken und selbst gestikulieren können, wecken Empathie in uns. Sie behauptet, dass diese Knöpfe bestimmte instinktive Reaktionen in Menschen hervorrufen und sie überzeugen, dass sie es in irgendeiner Form mit einem echten Wesen zu tun haben. Wenn man Roboter also mit rudimentären menschlichen Verhaltensweisen ausstattet, kann dies die sozialen Verhaltensweisen, die man nach der Media-Equation-Theory sowieso schon gegenüber Computern hat, verstärken.

Uncanny Valley

Auch Robotik-Professor Masahiro Mori schrieb in seinem berühmten Paper »Bukimi no tani« von 1970 darüber, dass es eine Verbindung zwischen Menschenähnlichkeit von Objekten und Sympathie der Betrach- ter gibt. Je mehr uns Tiere, Objekte und Maschinen ähneln, desto wahr- scheinlicher ist es, dass wir mit ihnen Empathie empfinden können. Mori behauptet aber, dass es einen bestimmten Punkt gebe, an dem die A nität zu dem beobachteten Objekt kippt. Dieses Tal in der abgebildeten Kurve bezeichnet er als das »unheimliche Tal«, das »Uncanny Valley«. Hier sind Objekte verortet, die zu sehr wie ein Mensch aussehen, aber subtil erkennbar keiner sind. Es gibt also einen Punkt, an denen Objekte, sei es ein Roboter, eine Puppe oder lediglich eine Animation, zu echt aussehen und NutzerInnen damit erschrecken. Für die Entwicklung von Robotern leitet Mori daher ab, dass die größtmögliche Annäherung an eine menschliche Erscheinung, ein Mimikry des Menschen, kein Gestaltungsziel sein, kann um A nität zu Maschinen zu erscha en und man sich daher für die Gestaltung von Robotern besser am ersten Peak seiner Kurve orientieren solle. Im besten Falle entwickelt man also Maschinen, die menschliche Attribute haben, rudimentär menschenähnlich sind, aber nicht so sehr, dass sie ein unangenehmes Gefühl hervorrufen. Gestalter müssen eine Balance zwischen größtmöglicher Empathie und Gestaltungsparametern finden, die dies leisten können, ohne das Objekt ins Uncanny Valley zu stoßen.

Emotionale Interaktion

Die Entwicklung von emotionalen Maschinen kann man in zwei Stufen untergliedern: 1. Erkennen & Interpretieren und 2. Simulieren.

Um die Simulation von Emotionen durch Maschinen zu ermöglichen, muss zunächst festgestellt werden, wie Gefühlsregungen erkannt werden können. Gesichtserkennungssysteme wie Affectiva, Emovu oder Nviso, die mithilfe von Kameras Gesichtsausdrücke aufnehmen und anschließend analysieren, sind bisher zur Erkennung von Emotionen am besten geeignet, da die zugehörigen Geräte im Gegensatz zu Bio-Sensoren nicht am Körper angebracht werden müssen und somit weniger invasiv sind. Außerdem ist dies die bisher einzige Methode, bei der man Emotionen in Echt-Zeit messen kann. Besonders für die emotionale Interaktion mit Robotern ist dies relevant, da hier für eine natürliche Interaktion die sofortige Reaktion auf Gefühlsänderungen nötig ist.

Die Simulation von Emotionen durch Computer stützt sich auf die Analyse von Emotionen und ist folglich noch weniger erforscht als das Erkennen von Emotionen durch Maschinen. Rosalind Picard beschreibt in ihrem Paper »A ective Computing« vier Arten von Computern. 1. Kann keine Affekte wahrnehmen / kann keinen Affekt ausdrücken 2. Kann keine Affekte wahrnehmen / kann Affekte ausdrücken 3. Kann Affekte wahrnehmen / kann keine Affekte ausdrücken 4. Kann Affekte wahrnehmen / kann Affekte ausdrücken

Picard unterscheidet hier bewusst zwischen Computern, die Emotio- nen ausdrücken können und Computern, die durch eigene Emotionen gelenkt werden. Wenn sie über Maschinen spricht, die A ekte ausdrücken, also Emotionalität simulieren, dann ist dies eben nur das, eine Simulati- on, keine wahre Gefühlsregung der Maschine. Es ist vorstellbar, dass in Zukunft Maschinen mit »echten« Gefühlen ausgestattet werden können, da es bereits Ansätze dafür gibt, wie dies zu realisieren wäre. Für derartige Computer werden andere Gestaltungsprinzipien herangezogen werden müssen und ethische und rechtliche Fragen eine noch größere Rolle spielen. Aktuelle emotionale, soziale Roboter verfügen jedoch nicht über »echte« Emotionen, sondern können lediglich mit arti ziell modellierten emotionalen Ausdrücken reagieren.

4. Animationsprinzipien

12principles.png12principles.png

Bildquelle: [the12principles.tumblr.com](http://the12principles.tumblr.com „the12principles.tumblr.com“)

Bevor man spezifische Faktoren untersuchen kann, die für die Ausformulierung einer Emotionsmatrix für Roboter genutzt werden können, ist es sinnvoll zunächst einen Blick auf allgemeine Prinzipien zur Animation von Robotern zu werfen. Van Breemen definiert die Animation von Robotern in seinem Paper »Bringing robots to life« als den Prozess, die Bewegungen eines Roboters so zu programmieren, dass er einen glaubhaften und interaktiven Charakter darstellt. Die Einbindung von Prinzipien aus klassischer Animation ist insofern sinnvoll, dass auch hier die Kunst darin liegt, glaubhafte Charaktere zu erscha en. Viele professionelle AnimatorInnen für Trickdilme folgen den 12 Prinzipien, die aus mehr als 60 Jahren Erfahrung im≈Trick lmbereich der Walt Disney Studios resultieren. Frank Thomas & Ollie Johnston, zwei der »Old Nine«, haben diese in dem Buch »The Illusion of Life« zusammengefasst.

12 Animationsprinzipien nach Disney

1. Squash and Stretch (Stauchen und Dehnen) Dieses Prinzip gibt dem Charakter Gewicht und Volumen, wenn dieser sich bewegt. Dies wird erreicht, indem der Charakter gestaucht oder gedehnt wird, dabei aber das gleiche Volumen behält.

2. Anticipation (Andeutung) Eine kleine Aktion findet vor der Haupt-Aktion statt und deutet diese an. Dies hilft dem Zuschauer die nächste Aktion des Charakters vorauszusehen.

3. Staging (Inszenierung) Die Inszenierung bezieht sich auf das generelle Setup, in dem sich der Charakter befindet, und soll die Intentionen des Charakters darlegen. Dies wird durch den gezielten Einsatz von Licht und Musik und der allgemeinen Komposition der ganzen Szene erreicht.

4. Straight Ahead and Pose to Pose (Direkt und Pose für Pose) Dies bezieht sich auf die Techniken, die angewandt werden um Szenen zu animieren. Die Pose-to-Pose-Technik wird benutzt, wenn die Sequenzen bereits zu Beginn geplant sind, die Schlüsselposen also bereits zu Anfang feststehen und die dazwischenliegenden Posen entsprechend dazu animiert werden. Straight Ahead bezeichnet eine Vorgehensweise, bei der die Anfangspose feststeht, die AnimatorInnen aber freier über das Aussehen einzelner Frames entscheiden können. Diese Technik wird meist angewandt, wenn Sequenzen sehr detailreich sind und besonders realistisch wirken sollen.

5. Follow Through and Overlapping Action (Folgende und überlagernde Aktion) Wenn ein Charakter sich bewegt, dann bewegen sich bestimmte Teile seines Körpers schneller als andere (Over-Lapping) Wenn er eine Aktion beendet, dann stoppt er seine Bewegung nicht sofort in Gänze (Follow-Through). So bewegen sich die Haare eines Charakters beispielsweise schneller als sein Körper. Wenn er stehen bleibt, so hälte der Hauptteil des Körpers zwar an, die Haare bleiben aber für eine kurze Zeit nach dem Halt noch in Bewegung und kommen dann zeitlich versetzt zum kompletten Stillstand.

6. Slow In and Slow Out (Anfang und Ende verlangsamen) Durch dieses Prinzip wirken die Bewegungen von Objekten und Charakteren natürlicher. Bewegungen sollten nicht abrupt beginnen oder enden (s. auch: Follow through und anticipation), sondern sich langsam entwickeln. Wenn ein Charakter beispielsweise lächelt, wird sein Mund nicht plötzlich zu einem Lachen, sondern verändert sich langsam dazu. Dabei ist die Geschwindigkeit der Bewegung meist am Ende und Anfang der Aktion verlangsamt und in der Mitte beschleunigt, daher »Slow in and slow out«

7. Arcs (Bögen) Natürliche Bewegungen sind meist leicht bogenförmig. Wenn eine Person nach rechts oder links schaut, so passiert dies nie auf einer komplett horizontalen Linie, sondern immer mit einer zusätzlichen leicht vertikalen Bewegung, also einem leichten Bogen. Diese Beobachtung lässt sich eins zu eins auf die Bewegungen von Trickfilm-Charakteren übertragen.

8. Secondary Action (Zweite Aktion) Eine Zweite Aktion ist eine zusätzliche Bewegung, die die Haupt-Aktion verstärkt. Solche zusätzlichen Aktionen machen Bewegungen zum einen glaubhafter und können sie zusätzlich betonen.

9. Timing Animationen bestehen aus Bildern, die in zeitlicher Relation zueinander gestellt werden. Timing ist also die essenzielle Komponente von Animation und beeinflusst die Wirkung des Charakters entscheidend.

10. Exaggeration (Übertreibung) Dieses Prinzip ist zusammen mit Timing eines der Schlüsselprinzipien von Animation. Charaktere aus der Animationswelt müssen nicht den Regeln der echten Welt folgen. Das Prinzip Übertreibung lässt sich sowohl auf die Erscheinung des Charakters an sich, als auch auf seine Aktionen und Bewegungen anwenden.

11. Solid drawing (dreidimensionales Zeichnen) Beim Zeichnen von Charakteren ist darauf zu achten, dass sie die Illusion von Gewicht und Tiefe haben, obwohl die Darstellung zweidimensional ist.

12. Appeal (Attraktivität) Es ist offensichtlich, dass Menschen gute, attraktive Charaktere hässlichen und grotesken vorziehen. Dieses Prinzip bezieht sich hinsichtlich Animationen aber nicht darauf ausschließlich gute Charaktere zu gestalten, sondern darauf, dass AnimatorInnen Bilder kreieren, die so komponiert sind, dass sie für den Zuschauer interessant sind.

12 Animationsprinzipien übersetzt für Roboter

  1. 1. Squash and Stretch: Dieses Prinzip kann eigentlich nicht auf Roboter übersetzt werden, weil diese meist aus festen Teilen bestehen. 9
  2. Anticipation: Andeutende Bewegungen helfen dem Nutzer die Intentionen des Roboters zu verstehen; beispielsweise die Richtung, in die er beabsichtigt zu laufen.

  3. Staging: Roboter existieren in keiner eigenen Welt, über die man Gestaltungsgewalt hat. Inszenierung kann jedoch durch den Einsatz von zusätzlichen Parametern, wie Licht und Sounds, geschehen und Aktionen oder affektive Zustände des Roboters hervorheben.

  4. Straight Ahead and Pose to pose: Dieses Prinzip können wir auf die Kombination von einzelnen Bewegungsabläufen der Roboter anwenden. Entweder könnten Bewegungen interaktiv in der betreffenden Situation generiert oder vorprogrammierte Bewegungen miteinander kombiniert und ineinander übergehend animiert werden.

  5. Follow-Through & Overlapping: Diese Prinzipien zeigen, dass der Roboter einerseits Teil unserer Welt ist, seine Bewegungen also auch physischen Gesetzen unterliegen, andererseits kann man mit diesem Prinzip das Beenden einer Aktion signalisieren.

  6. Slow In and Slow Out: Das bedeutet für Roboter-Animationen, dass sie langsam ineinander übergehen sollten.

  7. Arcs: Dieses Prinzip kann 1:1 für die Animation von Robotern übernommen werden.

  8. Secondary Action: Eine einfache Methode, dieses Prinzip auf Roboter zu übertragen, ist z.B. sie zufällig blinzeln zu lassen oder leichte Bewegungen zu integrieren, die Atmen simulieren.

  9. Timing: Timing kann als Ausdruck von Stimmungen genutzt werden. Eine schnelle Bewegung suggeriert beispielsweise, dass ein Charakter aktiv ist, langsame Bewegungen werden oft als Trägheit gedeutet. Für die Animation von Robotern ist bemerkenswert,wie Timing die Bedeutung von Bewegungen verändern kann. Wenn die gleiche Bewegung in verschiedenen Geschwindigkeiten verschiedene Emotionen bedeuten kann, so kann man gleiche Bewegungen in verschiedenen Kontexten verwenden. Dies ist vor allem für Roboter interessant, die physisch in ihren Bewegungen eingeschränkt sind.

  10. Exaggeration: Bei der Animation von Robotern kann Übertreibung dafür sorgen, dass Bewegungen, Ausdrücke und Aktionen besser erkennbar sind. Auch beim Gestalten physischer Eigenschaften des Roboters kann man sich auf dieses Prinzip beziehen.

  11. Solid Drawing: Dieses Prinzip scheint sich nicht auf Roboter übertragen zu lassen. Die Basis von dreidimensionalem Zeichnen ist aber Gewicht, Tiefe und Balance. Zeichnungen, die sehr symmetrisch sind (z.B. wenn Arme und Beine die gleiche Pose einnehmen) scheinen sehr steif und hölzern. Ein Charakter wirkt natürlicher, wenn sich Körperteile asymmetrisch bewegen.

  12. Appeal: Die Qualität der Bewegung kann dem Roboter einen eigenen Charakter geben. Bewegt er sich beispielsweise unbeholfen, so wirkt er kindlich oder mitleidserregend, bewegt er sich grazil und kontrolliert, so wirkt er vertrauenswürdig.

5. Gestaltungsmatrix robotischer Emotion

Gestaltungsmatrix.pngGestaltungsmatrix.png

Exploration möglicher Gestaltungsparameter

Für die Anwendung der Prinzipien in zweidimensionalen Animationen stehen uns andere Gestaltungsparameter zur Verfügung als für die Realisierung dieser Prinzipien in Robotern, also interaktiven Computern mit anthropomorphischen Zügen, die sich im dreidimensionalen Raum bewegen. Um festzustellen, welche Parameter zur Darstellung von Emotion geeignet sind, werden bereits existierende soziale Roboter und ktive Roboter aus Filmen hinsichtlich ihres emotionalen Ausdrucks analysiert. Die Gestaltungsparameter werden in zwei Kategorien unterteilt, einerseits in an den Menschen angelehnte Kommunikationsparameter wie Sprache, Mimik und Gestik und in artifizielle wie Licht, Sound und Vibration.

Vibration wird in keinem der untersuchten Roboter als Kommu- nikationsform genutzt. Der Einsatz von Vibration ist nur sinnvoll bei Geräten, die sich in der Nähe unseres Körpers be nden, etwa Smartphones oder Wearables. Hier wird Vibration vorwiegend als Warnsignal eingesetzt, da Vibrationen größtenteils mit Alarm, Stress und einem hohen Erre- gungszustand assoziiert werden. SpRAChE kann Emotionen zwar durch Inhalt übertragen, allerdings beein usst hier vor allem die Intonation den Inhalt des Gesagten. Noch gelingt es nicht arti zielle Sprache so zu modellieren, dass sie natürlich klingt. Für die Übertragung von Emotion ist es aber essenziell, dass der Roboter einen glaubhaften Charakter darstellt, seine Bewegungen und Aussagen also die Illusion von Leben geben.

Die meisten Tiere, inklusive Menschen, benutzen neben Sprache auch andere Vokalisationen, um Artgenossen über wichtige Ereignisse und Signale in ihrer Umwelt aufmerksam zu machen. Neben Sprache sind Vokalisationen wie Lachen, Schreien oder Stöhnen ein wichtiger Bestand- teil bei der Übertragung von emotionalen Zuständen. In der Gestal- tung für Roboter können diese Vokalisationen in arti zielle SoundS übersetzt werden. Wenn wir Roboter aus Filmen betrachten, so werden entweder sprachliche Vokalisation oder arti zielle Sounds zur Übertragung von Emotionalität benutzt. Wenn sich Roboter aus Filmen artikulieren können, so sind ihre sprachlichen Fähigkeiten, Intonation und Rhythmus des Gesprochenen, dem Menschen so ähnlich, dass ein Zusatz von arti ziellen Sounds nicht nötig ist. Im Gegensatz dazu stehen Roboter wie R2-D2, deren Vokalisationen ausschließlich aus arti ziellen Sounds bestehen und die keine sprachlichen Fähigkeiten besitzen. In bereits existierenden Robotern kann man beobachten, dass mehrheitlich ein multimodaler Ansatz gewählt wird: Licht, Sound und Sprache also miteinander kombiniert werden. Im Gegensatz zu ktiven Robotern aus Filmen, die Charaktere einer Geschichte darstellen, müssen reale Roboter auf Menschen und Situationen reagieren. Ihre Emotionen müssen also in verschiedenen Kontexten gedeutet werden können. Ein multimodaler Ansatz macht insofern also Sinn, da die emotionale Wirkung einzelner Gestaltungsparameter durch Kombination verstärkt werden kann.

Licht dient in den untersuchten Robotern nie als eigenständiger Gestaltungsparameter zur Simulation von Emotionen, sondern unter- streicht lediglich bestimmte Aktionen oder Zustände des Roboters im Sinne des Staging-Prinzips.

Auch wenn Vokalisationen als wichtiger Übertragungsfaktor von Emotionen gesehen wird, so wird der emotionale Zustand eines Menschen aber vor allem durch sein Gesicht übertragen. Obwohl die meisten untersuchten Roboter in ihrer Mimik eingeschränkt sind, können Emotio- nen durch rudimentäre Veränderungen übertragen werden, indem sie emotionale Zustände durch Gesten ausdrücken.

  • Vibration wird nicht als Übertragunskanal für emotionale Zustände benutzt.
  • Sprache bricht die Illusion eines glaubhaften Charakters und wird daher in diesem Rahmen nicht betrachtet. mimik und GEStik sind wichtige Faktoren emotionaler Kommunikation von Robotern.
  • Sounds sind als Imitation menschlicher nichtsprachlicher Vokalisationen für emotionalen Ausdruck relevant.
  • Licht wird als Gestaltungsmittel zur zusätzlichen Inszenie­ rung eines emotionalen Zustandes verwendet.

Parameter und Basisemotionen

Für die sechs Basisemotionen Freude, Wut, Angst, Ekel, Über- raschung und Trauer ergibt sich fundierend auf vorausgehender Unter- suchung eine Gestaltungsmatrix, an der man sich für die Simulation von Emotionen in Robotern orientieren kann. Die mimische Expressivität der Roboter orientiert sich hierbei an den typischen Gesichtausdrücken für die sechs Basisemotionen nach Ekman. Sounds orientieren sich an emotionstypischen nichtsprachlichen Vokalisationen. Emotionsspezi sche Parameter für Licht und Bewegung konnten nicht formuliert werden. Jedoch können Tendenzen für Erregungszustände formuliert werden, die die emotionale Wirkung der darzustellenden Basisemotion verstärken können

Anwendung auf expliziten Roboter – Jibo

Zur Überprüfung allgemein formulierter Gestaltungsparameter für die Simulation von Emotion wird die Gestaltungsmatrix auf einen Roboter angewendet, der bestimmte Voraussetzungen erfüllt. Dies macht insofern Sinn, da sich Gestaltungsfragen bezüglich Mimik und Gestik erst mit der Anpassung an expressive Einschränkungen eines konkreten Roboters klären lassen.

Die Übersetzung der Gestaltungsparameter erfolgt über Animationen, die mit dem Jibo Software Developer Kit realisiert werden. Dabei handelt es sich um ein Framework, das Entwicklern offiziell zur Verfügung gestellt wird, um eigenständig Anwendungen und Verhaltensweisen für den Roboter zu programmieren. Die Formulierungen für Licht und Sound können zunächst ohne Veränderungen für die Übertragung der einzelnen emotionalen Zustände übernommen werden. Gestische und mimische Ausdrücke müssen für den konkreten Roboter angepasst werden.Jibos emotionale Ausdrucksfähigkeit konzentriert sich hinsichtlich seiner Mimik auf einen Kreis auf einem Display, der einem Auge nachempfunden ist und durch Veränderung seiner Form oder Position mimischen Ausdruck beschreiben kann. Der Ausdruck seiner Gestik ist auf den Bewegungsspielraum von drei Achsen (ganzer Körper, Torso, Kopf) begrenzt. Im Folgenden wird nur die Mimik des Roboters näher er- läutert. Sounds, Licht und Bewegungen orientieren sich an der Gestaltungsmatrix des vorausgehenden Kapitels und werden in den Animationen abgebildet.

6. Fazit

Man wird in Zukunft zunehmend beobachten, dass Emotionen in technische Geräte integriert werden. Dies ist, unter anderem, die Konsequenz aus dem Bestreben Compu- ter zu erscha en, die sich an menschliche Kommunikationsmechanismen anpassen und damit eine natürliche Interaktion gewährleisten können. Die Entwicklung zu Natural User Interfaces, die sich den NutzerInnen und deren Umständen anpassen können, entfernt sich immer mehr vom klassischen Graphical User Interface und macht damit schrittweise klassische Gestaltungsparameter obsolet. Dies manifestiert sich vor allem in der Entwicklung von Interaktionen mit sozialen Robotern, die speziell für die soziale Kommunikation mit Menschen entwickelt werden und deren anthropomorphische Gestaltung natürliche Interaktion fördern. Maschinen müssen, um den Menschen wirklich verstehen und natürlich mit ihm interagieren zu können sein gesamtheitliches Bild erfassen. Dazu gehört unter anderem auch die Erfassung von Gemütszuständen und Emotionen. Auch wenn sich die Emotionsforschung noch uneinig ist und es bis dato keine eindeutige, universell anerkannte Emotionstheorie gibt, so gibt es dennoch Modelle, die in weiten Fachkreisen anerkannt sind und auf die man sich für die Integration von Emotionen in Maschinen bezie- hen kann: Das kategorische Emotionsmodell von Paul Ekman, das Emotionen in die Basisemotionen Wut, Ekel, Furcht, Überraschung, Freude und Trauer einteilt und das dimensionale Emotionsmodell von James Russell, das Emotionen entlang der Dimensionen Erregung und Valenz beschreibt. Diese beiden Modelle bilden die Grundlage für die Formulie- rung einer Gestaltungsmatrix für die Simulation robotischer Emotion. Allgemein orientiert sich die Animation von Robotern an Prinzipien aus der Trick lm-Animation. Die Darstellung eines glaubhaften Charakters ist sowohl für Trick lme, als auch Roboter-Animation essenziell. Es ist abzusehen, dass sich Roboter immer mehr ins gesellschaftliche Leben integrieren werden und in Zukunft sowohl beru iche, als auch private Aufgaben übernehmen. Hier spielt die Illusion eines Charakters, dessen Intentionen und Aktionen für Menschen stets vorhersehbar sind und damit den Roboter zu einem vertrauenswürdigen Gegenüber machen, eine essenzielle Rolle.

Eine wichtige Referenz zur Erscha ung dieser Illusion sind unter anderem die 12 Prinzipien der »Illusion of life« von Disney, die für die Animation von Robotern übersetzt werden können. Diese Prinzipien bieten allgemeine Richtlinien zur Animation, beinhalten aber auch Prinzipien, die spezi sch für die Übertragung von Emotionalität wesent- lich sind. Eine Analyse existierender und ktiver Roboter aus Filmen, ergab, dass sowohl Mimik, Gestik, Sprache und Licht als Gestaltungsparameter genutzt werden. Bei Berücksichtigung der Theorie eines glaubhaften Charakters nach Bates, wurde Sprache im Hinblick auf die Simulation von Emotionen in diesem Rahmen nicht betrachtet, da der aktuelle technolo- gische Stand nicht ausreicht um glaubhafte Konversation zu simulieren und damit nicht dem Anspruch der Illusion von Leben standhält. Für die Gestaltung von emotionaler Mensch-Roboter-Interaktion wurden daher Richtlinien hinsichtlich Mimik, Gestik, Sound und Licht für die sechs Basisemotionen nach Ekman formuliert. Robotische Mimik kann sich grob an Gesichtsausdrücken des Facial Action Coding System von Paul Ekman orientieren, muss hier bei aber für die eingeschränkte Expressivität von Robotern übersetzt werden. Sounds können sich an nichtsprachlichen Vokalisationen wie Lachen, Schreien, Stöhnen etc. orientieren. Gestik und Licht können nicht an kategorischen emotionalen Ausdrücken ausgerichtet werden. Für diese Parameter kann lediglich eine Theorie ihrer Wirkung auf die Emotionsdimension »Erre- gung« nach dem Circumplex-Modell von Russell aufgestellt werden. Je mehr Lichtimpulse pro Zeiteinheit bzw. schneller und abrupter die Bewegung, desto erregter ist der a ektive Zustand des Roboters. Es zeigt sich in ersten Versuchen, dass diese Mappings grob einen angemessenen Erregungszustand abbilden können. Allerdings muss diese Zuordnung noch ausführlicher überprüft werden. Die Wahrscheinlichkeit Emotionen zu erkennen ist mit einem multimodalen Ansatz, also der Kombination verschiedener Gestaltungs- parameter zur Darstellung einer Emotion, am höchsten. Licht ist als allein stehendes Gestaltungsmittel zur Übertragung von Emotionen am wenigs- ten geeignet und wird am besten, dem Staging-Prinzip von Diseny folgend, in Kombination mit anderen Parametern als verstärkendes Element genutzt. Wenn Sound als Nachahmung menschlicher nichtsprachlicher Vokalisationen wie Lachen, Stöhnen oder Schreien genutzt wird, so kann emotionaler Inhalt emotional übertragen werden. Durch die eingeschränkte Expressivität der meisten Roboter kann Emotion nur bedingt ausschließlich durch Mimik ausgedrückt werden, weswegen es sinnvoll ist, sie mit gestischem Ausdruck zu kombinieren. Die Übertragung von Emotionalität durch Roboter kann also durch die Gestaltungsparameter Licht, Sound, Mimik und Gestik gelingen. Allerdings können Richtlinien nur bedingt verallgemeinert werden. Die Expressivität von Sound und Licht ist unabhängig vom Robotermodell, Mimik und Gestik müssen jedoch an die expressiven Einschränkungen des jeweiligen Roboters angepasst werden. Obwohl keine Allgemeingültigkeit der formulierten Gestaltungs- matrix manifestiert werden kann, so kann sie dennoch als Richtlinien für die Animation von synthetischer Emotion dienen. Allerdings gilt sie nur für Roboter, die Emotionalität einerseits lediglich simulieren können und andererseits zwar anthropomorphische, aber stark stilisierte Charakter- züge besitzen. Man wird in Zukunft zunehmend beobachten, dass Emotionen in technischen Geräten unser Verhalten gegenüber Maschinen verändern. Bereits Roboter, die über stilisierte menschliche Züge verfügen, verändern unser Verhalten gegenüber Maschinen, weil sie tief im Menschen verankerte soziale Knöpfe drücken. (vgl. Kapitel B) Wie werden wir uns erst gegenüber Robotern verhalten, die so menschlich sind, dass sie wirklich Emotionen emp nden können? Wenn man sich aktuelle technologische Entwicklungen im Bereich Robotik und Machine Learning betrachtet und dabei die im Kapitel A beschriebene Theorie der rasanten Entwicklung von Technologie berücksichtigt, so könnte die Erscha ung eines menschlichen Abbildes, das selbstständig Intelligenz entwickeln kann, näher sein als wir denken. Im Rahmen dieser Arbeit wurden Gestaltungsparameter für die Simulation von Emotionen in Robotern mit expressiven Einschränkungen ermittelt. Für die Roboter der Zukunft, die so intelligent sein werden wie wir und denen es vielleicht möglich sein wird, wirklich Emotionen zu »emp nden«, werden ganz andere Gestaltungsparameter gelten. Wenn Roboter uns immer mehr Aufgaben abnehmen, die seit jeher eigentlich als Hoheitsgebiet des Menschen galten, wird man sich mit der Frage beschäftigen müssen, was überhaupt »menschlich sein« bedeutet. Wann bereichert ein Roboter menschliche Beziehungen? Wann macht er sie obsolet? Wie sehen unsere Beziehungen zu Robotern aus? Darf man einen Roboter lieben? Haben Roboter Rechte oder sind sie nur unsere modernen Sklaven? Und gibt es hier Unterschiede zwischen sozialen Robotern und Fabrikrobotern? Sollen Roboter Steuern zahlen? Wenn wir Emotionen simulieren können, können wir dann auch bewusst menschliche Emotionen manipulieren? Wenn die Gestaltung von Mensch-Maschine-Interaktionen stetig anthopomorphischere Züge annimmt, ist anzunehmen, dass sich die Rolle von Interaction Design hin zur Gestaltung von Mensch-Maschine- Beziehungen verlagert. DesignerInnen sich also mit soziologischen und psychologischen Theorien und ethischen und politischen Fragen auseinandersetzen müssen. Die Exploration einer Darstellungsform von Emotionalität in sozialen Robotern stellt einen Ausgangspunkt dar, auf dem man für zukünftige Entwicklung von robotischer Emotion aufbauen kann. Die Veränderung unserer Beziehung zu unseren bald emotionalen Maschinen nimmt hier aber erst ihren Anfang. Die Regeln und Richtlinien für ein Zusammenleben mit ihnen, gilt es noch festzusetzen.

7. Datei Download

BA_Marie Claire Leidinger_Emotionale Maschinen.pdf
PDF BA_Marie Claire Leidinger_Emotionale Maschinen.pdf

Für weitere Details s. angehängte PDF

Ein Projekt von

Fachgruppe

Sonstiges

Art des Projekts

Bachelorarbeit

Betreuung

foto: Prof. Constanze Langer foto: DK

Entstehungszeitraum

Sommersemester 2017