Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam

In seiner Funktionalität auf die Lehre in gestalterischen Studiengängen zugeschnitten... Schnittstelle für die moderne Lehre

Incom ist die Kommunikations-Plattform der Fachhochschule Potsdam mehr erfahren

Balance Your Bias

In unserem Gruppenprojekt „Balance Your Bias“ haben wir ein niederschwelliges Bildungsangebot zum Thema Biases in Design und Technologie erstellt. Dieses nimmt die Form eines Multiple-Choice-Chatbots an, der den Nutzer*innen der Anwendung Fragen stellt und sie auf dieser Basis in voreingenommene Kategorien einordnet. In einer Auflösung des Frageprozesses erhalten die Nutzer*innen Informationen u.a. zu den Themen Gender Bias, Racial Bias, LGBTQIA Bias, Ableism und Ageism und was sie tun können, um sich in ihrer Arbeit als Gestalter*innen ihrer Biases bewusst zu werden. Die Anwendung ist als vorwiegend mobil-fokussierte Website und Rauminstallation im Ausstellungskontext konzipiert.

1. Die Idee

Wir sind eine diverse Gruppe von Studierenden und haben alle persönliche Erfahrungen mit diversen Vorurteilen gemacht wie z.B. Racial Bias, LGBTQIA Bias und Ableism. Bei unserer Recherche fiel uns auf, dass Biases im Design und in der Technologie besonders schädlich sein können, da sie Stereotype oft in großem Maßstab verbreiten und verstärken und Menschen unverschuldet in Unglück stürzen können. Vorurteilsbehaftetes Design bildet eine ebenso vorurteilsbehaftete Gesellschaft ab.

Ohne diese Denkmuster zu durchbrechen werden sie immer wieder reproduziert und über Generationen weitergetragen. Diese Problematik muss denjenigen, die Biases reproduzieren, rezipierbar gemacht werden, sodass eine kritische Reflexion der eigenen Gestaltung möglich werden kann. Wir haben uns auf folgende Forschungsfrage festgelegt: Welche Möglichkeiten gibt es, bei den (Design-)Stakeholdern, die diese Biases immer wieder (bewusst und unbewusst) reproduzieren, ein Bewusstsein für ihr Handeln zu schaffen und dieses daraufhin kritisch zu hinterfragen?

1.1 Recherche

Auf unserer Recherche stießen wir auf viele Beispiele von Bias, die uns selbst klarmachten, dass es eine sehr große Bandbreite an Biases in Design und Technologie und als Folge auch Diskriminierung gibt. Je tiefer wir in das Thema eintauchten, desto mehr sahen wir, wie viele Biases es gibt und wie vieler wir uns nicht bewusst waren. Beispielsweise sind viele sicherheitskritische Objekte wie z. B. Autogurte oder Airbags auf einen durchschnittlichen männlichen Körper optimiert. Autofahrerinnen haben als Folge eine 47% höhere Wahrscheinlichkeit bei einem Unfall schwer verletzt zu werden. In den USA kommen bei der Vorhersage von zukünftigen kriminellen Aktivitäten Algorithmen zum Einsatz, die mit voreingenommenen Datensets trainiert werden. Die Vorhersagen werden durch die Technologie als neutral legitimiert wahrgenommen und verstärken so die illegale Diskriminierung von BIPoC.

Während Gender Bias und Racial Bias in Bezug auf Algorithmen und künstliche Intelligenz bereits ins Auge der interessierten Öffentlichkeit geraten ist, wurde der Disability Bias hier noch wenig diskutiert. Beispielsweise wurden Rollstuhlfahrer*innen von autonom fahrenden Fahrzeugen nicht als Menschen, sondern als Objekte erkannt – dies kann zu für sie lebensgefährlichen Situationen führen. Menschen mit Beeinträchtigungen haben unterschiedliche Anforderungen, auf die von einer auf Effizienz getrimmten Technologie nicht eingegangen wird und sie so starke Diskriminierung und Ausschluss von dieser erfahren.

1.2 Ideationsprozess

Zunächst entwickelten wir auf Basis unserer Recherche und auf Basis der Frage, auf welche Weise und in welchem Format die Forschungsfrage zu realisieren sei, zwölf Ideen, aus denen wir uns mit einem Abstimmungsverfahren in Miro mit sticky dots für fünf Ideen entschieden. In der ersten Idee „Voices“ geht es um die Erfahrungen von Minderheiten in Designagenturen, die in einer qualitativen empirischen Studie ausgearbeitet werden sollen.

Die zweite Idee „Exclude You“ greift Alltagsgegenstände auf, in denen Menschen durch Design von der Benutzung dieser ausgeschlossen werden, zum Beispiel „hautfarbene“ Pflaster für BIPOC oder durch Armlehnen geteilte Parkbänke, auf die man sich nicht legen kann. In der dritten Idee „Persona(l)s“ sollen die Grenzen der Designmethode Personas aufgezeigt und rezipierbar gemacht werden, wie durch die normalisierte Verwendung dieser Methode schädliche Stereotype verstärkt werden.

Die vierte Idee basiert auf der Erkenntnis, dass Design und Technologie – nicht wie häufig angenommen – niemals neutral ist. Ein Chatbot soll im Dialog mit Nutzer*innen Bewusstsein dafür schaffen. In der fünften Idee, dem Bias-Fallen-Verhinderungsformular sollen Gestalter*innen mithilfe eines Fragebogens auf häufig auftretende Bias-Fallen im Design hingewiesen werden. Nach einer Rücksprache mit dem Kursleiter und den anderen Kursteilnehmer*innen entschieden wir uns für die Idee „Biased you“, die mit einem Chatbot Bewusstsein für Biases schaffen will.

1.3 Ausformulierung

Im nächsten Schritt haben wir diese Idee parallel weiter ausformuliert, indem wir jeweils ein Gerüst aus festgelegten Bausteinen für das Storytelling mit Beispieltexten verfasst haben. Auf dieser Basis haben wir die Gerüste zu einem Konzept zusammengefügt. Da das Feld der Biases so weitreichend ist, einigten wir uns darauf ein Bildungsangebot umzusetzen, das speziell Gestalter*innen ansprechen soll. Diese sollen das Bewusstsein und das Wissen um das Thema der Biases in ihr Wirken als Gestalter*innen mit einbringen und damit schädliche Stereotype nicht unwissentlich weiter verstärken, sondern andere Narrative aufzeigen können.

2. Das Konzept

Das Gesamtkonzept des Bildungsangebotes sollte u. a. die verschiedenen, zuvor erwähnten Bausteine beinhalten und diese als Module konsekutiv aufeinander aufbauend miteinander vernetzen. Ein Chatbot begrüßt die User*innen zu Beginn ihrer Experience und führt sie durch ein ausgeklügeltes Frage-Antwort-Spiel in die Welt der Biases ein, indem der Bot selbst biased agiert und die User*innen mit eben diesen Vorurteilen konfrontiert. Danach können die User*innen sich innerhalb des Bildungsangebots über verschiedene Aspekte im Bereich Biased Design und Biases in Technology informieren und weiterbilden.

2.1 Narrativ

Ursprünglich war der Gedanke, eine Scrollytelling-Website zu bauen, die aufbauend aufeinander die einzelnen Themen vorstellt und so die User*innen-Experience in ein Narrativ einbetten soll. Nach einigen Diskussionen sowohl intern als auch mit der Kursgruppe jedoch haben wir uns gegen einen solchen Aufbau entschieden, da dieser nicht der Komplexität und Verflechtung des Themas „Biases in Design/Technology“ gerecht würde. Daher haben wir uns dazu entschieden, verschiedene Themenwelten zu öffnen, die, je nach Interesse, bisherigem Wissensstand und zuvor betrachtetem Thema, von den User*innen gezielt angesteuert werden können. Außerdem hat uns dies die Möglichkeit eröffnet – gerade nach dem Feedback unserer externen Kursgäste – das Bildungsangebot nicht länger strikt als webbasiertes Projekt zu sehen, sondern dieses zusätzlich in einen anderen Kontext – beispielsweise als multi- oder intermediales Designobjekt im Raum, eventuell im Rahmen einer Ausstellung an der Grenze zwischen Critical Design und Kunst – einbetten zu können und so auch mehr Menschen zu erreichen und auf das Thema aufmerksam zu machen.

Um die Frage nach der narrativen Führung durch diese Themenwelten zu beantworten, haben wir uns dazu entschieden, das Potenzial des Chatbots auszunutzen, der bis dato bloß das Intro der Seite dargestellt hat. In Reminiszenz an die „Word-Klammer“ soll der Chatbot immer wieder auftauchen und den User*innen Möglichkeiten offerieren, sich im themenweltbasierten Bildungsangebot zurechtzufinden und zu navigieren. Er nimmt sie sprichwörtlich „bei der Hand“ und führt sie durch von uns vorbestimmte, mögliche Pfade auf dem Weg durch die Themenwelten.

2.2 Module/Themenwelten

Diese Themenwelten basieren, wie eingangs erwähnt, auf den zuvor von uns im Ideationsprozess diskutierten Ideen, die wir für den Einsatz im Bildungsangebot ergänzt, spezifiziert, erweitert und weitergedacht haben. Unsere Themenwelt-Module bauen nicht chronologisch aufeinander auf, sondern können durch die User*innen relativ frei ausgewählt werden. Am Ende eines jeden besuchten Moduls werden nämlich verschiedene Pfade aufgezeigt, die inhaltlich zum zuvor beendeten Modul passen und die weiter beschritten werden können. Im Idealfall hat der*die User*in am Ende des Bildungsangebots einmal jede Themenwelt besucht und ein neues, kritischeres Verständnis von Biases in Design und Technologie.

Themenwelt 1 – Intro-Chatbot
Das Intro wird durch den oben erwähnten Chatbot konstituiert. Dieser ist die erste Berührung der User*innen mit dem Thema Bias im Kontext unseres Angebots. Seine Aufgabe ist es, die Menschen direkt zu Beginn zu fesseln und in ein immersives Erlebnis mitzunehmen. Durch den Vorwand eines kurzen Gesprächs und der Frage nach dem „Minderheitenstatus“ des*der Userin erstellt der Bot ein (bewusst biased) Personenprofil und passt konsequenterweise die Gestaltung des Bildungstools in vorurteilsbehaftetem Design an – beispielsweise indem er das Design „passend“ zu weiblichen User*innen rundet, verschnörkelt, pinkifiziert. Zum Ende der Einführung werden die User*innen mit den vom Bot produzierten und angewandten Biases konfrontiert und für die Thematik der Vorurteile in Design und Technologie sensibilisiert und interessiert, bevor sie in die verschiedenen Themenwelten eintauchen und sich tiefergehend darüber informieren können.

Themenwelt 2 – Themeneinführung
Um gerade die User*innen, die bisher nicht viele Berührungspunkte mit dem Thema Bias (im Allgemeinen) hatten, in die Problematik einzuführen und ihnen ein Basiswissen zu vermitteln, sollte dieses Modul allgemeine Hintergrundinformationen zu den Themenwelten Biases im Allgemeinen, biased Design, Privileg und Diskriminierung, Algorithmic Bias etc. beinhalten. Da dieses Modul die Konzeptionsphase nie verlassen hat, steht hierzu keine dezidierte Ausarbeitung fest. Ideen der Ausarbeitung beinhalteten den Einsatz von Scrollytelling, um durch visuelle Narrative die Informationen zugänglich zu machen; oder eine Art „Facts and Figures“, welche Biases und die dazugehörigen Aspekte sichtbar machen kann.

Themenwelt 3 – Negativbeispiele
In unserer Recherche sind wir, wie oben bereits angerissen, auf eine erstaunliche Vielzahl an Negativbeispielen für Biases in Design und Technologie gestoßen. Wir selbst hatten bereits einen gewissen Fundus an Wissen bezüglich der Thematik und dennoch waren wir überrascht ob unserer Recherche. Daraus haben wir den Schluss gezogen, dass diese Beispiele gerade den bisher unerfahreneren User*innen zugänglich gemacht werden müssen, um die Problematik von biased Design in Anwendung sichtbarer und verständlicher zu machen. In verschiedenen Designdisziplinien wie Produkt, Service, UX, Advertisement und mehr, werden somit unterschiedliche Biases wie BIPoC, LGBTQIA*, Gender, Ableism etc. abgedeckt. Auch hier ist eine genaue Ausarbeitung nicht weiter verfolgt worden, der Tenor war jedoch, eine Art der Gamification zu finden – wie beispielsweise ein Quiz oder Ähnliches – um die User*innen tiefergehend einzubinden.

Themenwelt 4 – Positivbeispiele
Natürlich finden sich jedoch nicht ausschließlich Negativbeispiele für Biases in Design und Technologie, sondern auch (Design-)Beispiele, in denen auf Biases aufmerksam gemacht wird oder diese sogar überwunden werden können/konnten. Analog zu den Negativbeispielen werden in dieser Themenwelt die gesammelten Positivbeispiele aufbereitet – in den gleichen bis ähnlichen Kategorien in ähnlicher Herangehensweise in der Ausarbeitung. Ziel ist es, den User*innen durch die Positivbeispiele aufzuzeigen, welch Möglichkeitenhorizont sich auftut, wenn man sich der existierenden Biases bewusst wird und diese kritisch hinterfragt.

Themenwelt 5 – Designprozesse
Um den User*innen nicht nur exemplarisch Biases aufzuzeigen, sondern auch angewandt Hilfsmittel zur Hand zu geben, soll die Themenwelt gängige Designprozesse und -methoden hinterfragen. Anhand eines prototypischen, allgemein gehaltenen exemplarischen Designprozesses, der in diverse Phasen (Teambuilding, Research, Prototyping, Design, Testing, Implementation) unterteilt wird, soll aufgezeigt werden, an welchen Stellen für gewöhnlich Entscheidungen und Prozesse zur Produktion und Anwendung von Biases führen können. Durch beispielsweise eine Animation zum Thema oder ein Multiple-Choice-Quiz werden die User*innen mit möglicherweise eigenem, internalisiertem biased Verhalten in diesen Designprozessen konfrontiert und können darauf aufbauend anfangen, diese kritisch zu beleuchten und zu hinterfragen.

Themenwelt 6 – You are not alone
Die bisher vorgestellten Themenwelten nehmen stark Bezug auf eine Außenperspektive auf Biases in Design und Technologie. Daher möchten wir mit „You are not alone" den Betroffenen eine Plattform geben, sich selbst Gehör zu verschaffen. In Form von Interviews mit Designer*innen; Kreativen und Menschen, die in der Designbranche arbeiten und dabei selbst Minderheiten angehörig sind, werden Fragen und Antworten zu den Erfahrungen und Problematiken von Biases in Design(-prozessen und -agenturen) aufgezeigt. Welche Erfahrungen machen sie, werden sie gehört, überhört? Wer hat Entscheidungsgewalt, wie gehen sie mit Kund*innen um? Welche Macht/Ohnmacht erleiden sie? Welche Erfolge und Rückschlage haben sie aufgrund ihres oder in Bezug auf ihren Minderheitenstatus erfahren? Welche Informationen lassen sich daraus ableiten? Eine entsprechende Analyse und visuelle Aufbereitung der qualitativen empirischen Studie soll für diese Erfahrungen und Probleme sensibiliseren. Eine genaue gestalterische Auseinandersetzung hierzu hat im Rahmen der Konzeption nicht weiter stattfinden können.

Themenwelt 7 – Conclusio
Obgleich sich zum Thema Biases in Design und Technologie noch weitaus mehr Themenwelten eröffnen ließen, soll auch das Bildungsangebot nicht vollkommen überfordernd und zeitintensiv sein, sodass die User*innen – je nach Interesse und Motivation – mehr oder weniger schnell zur Conclusio gelangen können. Hier wird eine Quintessenz zur Thematik zusammengefasst, deren grundlegende Aussage untermauern soll, dass Design immer auch biased ist und dass als effektivstes Gegenmittel eine Diversifizierung von Designteams und -prozessen angestrebt werden sollte. Ergänzt wird die Conclusio in Form von weiterführenden Informationen, deren gestalterische und inhaltiche Aufbereitung in Abhängigkeit zur Form des Bildungsangebots definiert werden muss – ob beispielsweise als Linkliste, Microsite, Printprodukt zur Mitnahme oder Ähnliches.

2.3 Fokus

In Retrospektive ist das oben vorgestellte Konzept als Unterfangen für die Umsetzung im Rahmen eines einsemestrigen Kurses an der Hochschule illusorisch. Um dies durch die rosarote Brille der Motivation hindurch zu realisieren, hat es intensive und im Nachhinein durchaus notwendige Diskussionen sowohl mit dem Kursleiter als auch dem Kurs gebraucht. Obgleich wir der festen Überzeugung sind, dass ein solch umfangreiches Bildungsangebot dringend notwendig und prinzipiell umsetzbar wäre, mussten wir realisieren, dass wir das als Fünfergruppe im Rahmen dieses Kurses nicht leisten können. 

Um die Idee jedoch nicht vollständig zu verwerfen, sondern um zumindest auf Teilaspekte weiter einzugehen, haben wir uns letztlich dazu entschieden, eine einzelne Themenwelt, exemplarisch stehend für das Gesamtangebot, als Prototypen für mobile devices umzusetzen. Durch die intensive Feedbackrunde im Kurs in Kleingruppen ist deutlich geworden, das besonders der Intro-Chatbot das Interesse der Kursteilnehmer*innen geweckt und sich so als großartiger „conversation/discussion starter“ herauskristallisiert hat. Der Ansatz eines Chatbots, der selbst in Biases denkt und diese auf seine Nutzer*innen anwendet um sie somit für das Thema zu sensibilisieren, schien (auch und gerade basierend auf dem Feedback des Kurses) das größte Potenzial zu haben, detaillierter ausgearbeitet zu werden und verschiedene Aspekte der anderen Themenwelten, die nicht umgesetzt werden können, aufzugreifen. Daher haben wir uns für die Ausarbeitung dazu entschieden, diese Idee weiter zu verfolgen und auszubauen.

3. Ausarbeitung

In unserer praktischen Phase haben wir uns in zwei Teams aufgeteilt, um effizienter zu arbeiten. Das eine Team war für die redaktionelle Arbeit zuständig und hat ein subtiles Frage-Antwort-Spiel ausformuliert, das zweite Team hat sich der Gestaltung gewidmet.

Da sich die Gestaltung im Verlauf des Frage-Antwort-Spiels passend zur Stereotypisierung verändern soll, aber wir dennoch verhindern wollten dass uns der User / die Userin ohne weiteres auf die Schliche kommt, haben wir uns für subtile Veränderungen bei konkreteren Fragen und für deutlichere Veränderungen bei verschleierten Fragen entschieden.

Da es insgesamt 5 stereotypische Kategorieren gab (Alter, Geschlecht, sexuelle Orientierung, ethnischer Hintergrund, Behinderung) und wiederum unterschiedliche Kombinationen möglich waren, waren allein für den Prototypen zahlreiche Versionen der Gestaltungselemente von Nöten, auf die wir im Folgenden genauer eingehen. Doch zunächst möchten wir unsere ersten Gestaltungsansätze vorstellen.

3.1 Gestaltungsansätze

Durch das Anlegen von Moodboards haben sich drei mögliche visuelle Richtungen herauskristallisiert, die wir als „grafisch“, „sphärisch“ und „vertraut“ zusammengefasst haben. „Grafisch“ steht für die Gestaltung mit Kompositionen aus farbigen, geometrischen Formen. „Sphärisch“ bezeichnet unklare, kreis- oder wellenförmige, sich verändernde Formen, die zum Beispiel das Sprechen des Bots visualisieren könnten. Mit „vertraut“ ist das Aufgreifen von bekannten grafischen Interface-Elementen eines Chatbots oder eines Messengers gemeint, zum Beispiel unterschiedlich farbige Sprechblasen, die jeweils den textlichen Input und Output beinhalten.

Nach ersten Entwürfen der einzelnen Gruppenmitglieder, in denen die drei unterschiedlichen Richtungen skizziert wurden, hat sich durch das Voting-System und durch Diskutieren der Stärken und Schwächen der einzelnen Entwürfe der grafische Ansatz durchgesetzt.

3.2 Designelemente

Da sich das miro Voting-System im Verlauf des virtuellen Kurses stets als sehr hilfreiches Werkzeug erwies, nutzten wir es auch, um uns im Team für nachfolgende Designelemente zu entscheiden, die jeweils von einer Person zuvor definiert wurden.

3.2.1 Logo

Aus dem Arbeitstitel „BiasBot“ fanden wir schließlich mit „BalanceYouBias“ eine elegantere Lösung unser Projekt zu beschreiben. Das Logo symbolisiert dabei durch die Monospace-Schrift einerseits die funktionale Tech-Welt, gewinnt andererseits durch die Auszeichnung in italic an Dynamik und passt damit gut zu der fluiden Gestaltung unseres biased Bots.

3.2.2 Farben

Folgende Ansprüche stellten wir an die Farbpaletten: in der jeweiligen Palette sollten alle Farben gut miteinander harmonieren, die jeweiligen Paletten sollten sich klar voneinander unterscheiden, ohne zu weit voneinander entfernt zu sein, außerdem sollte ein eher stereotypisch weibliches und ein stereotypisch männliches Farbpaar vorhanden sein.

Die Farbpalette für die junge Zielgruppe entstand sehr intuitiv; jung, frisch und frech sollte sie sein. Die Farben für die ältere Zielgruppe hingegen stellten eine etwas größere Herausforderung dar, da die Farbwelt ernstzunehmend erwachsen und nicht verstaubt anmuten sollte.

3.2.3 Schrift

Die Schriftfamilie IBM Plex stellte sich schnell als ideale Wahl für unser Projekt heraus. Abgesehen davon, dass sie sehr klar, gut lesbar und neutral ist, existiert sie in unterschiedlichsten Ausführungen, was uns den Vorteil bot, in unserer fluiden Gestaltung nicht auf unterschiedliche Schriften zurückgreifen zu müssen, sondern mit dieser einen Schriftfamilie ein harmonisches Bild erzeugen zu können.

3.2.4 grafische Elemente

Unseren Bot stellen wir abstrakt in Form von grafischen Formen dar, die in unterschiedlichen Spannungsfeldern zueinander stehen und durch Form- und Farbsprache subtile Aussagen über die jeweilige Zielgruppe treffen. Dabei morphen die Formen je nach Antwortauswahl des Users / der Userin in eine neue – mehr oder minder stereotypisiernede – Kombination.

Auf den beiden Bildern sind die unterschiedlichen Transitionmöglichkeiten der Formen und beispielhafte Transitions als Mini-Storyboard zur Abstimmung in der Gruppe zu sehen.

3.3 Prototyping

Schon mit der Wahl des Protoyping Programms wurden und unser berenzter Spielraum schmerzlich bewusst. Mit dem Programm Principle konnten wir problemlos kleine Animationen und fließende Transitions schaffen, allerdings weder kollaborativ arbeiten noch unsere Arbeit über einen Link weiterleiten um sie zukünftig als Referenz leicht verschicken zu können. 

Da uns letzteres besonders wichtig war, entschieden wir uns für figma. Und fanden die Alternativlösung, statt mit beständig sich bewegenden Formen, mit Animationen in Form von Gifs zu arbeiten, die wir lediglich nach Beantwortung einer Frage einsetzten. 

Auch wenn wir für den Prototypen mit der Lösung zufrieden sind, stellt sie für uns dennoch keinen best case dar.

Als wir den ersten Baum in figma anfertigten wurde uns wiederholt klar, wieso wir uns auf das Intro konzentrierten. Der Baum war riesig, die nötigen Verknüpfungen schwer zu durchblicken. Doch nach und nach kamen wir unserem Ziel näher. 

Die Möglichkeit kollaborativ in einer Datei arbeiten zu können, machte uns nicht nur ein effizienteres Vorankommen mit besserer Übersicht möglich, es motivierte zudem auch ungemein.

4 Ausblick und Projektreflexion

Nach Abschluss dieser Arbeit besteht der nächste Schritt nun darin, ein Testing durchzuführen, bei dem wir erste Reaktionen auf die Erkenntnisse der Nutzer*innen bzw. Teilnehmer*innen erhalten. Die Evaluierung der Inhalte durch Testgruppen wurde noch nicht umgesetzt. Bei der Durchführung soll der Fokus vor allem auf der Beobachtung der Teilnehmer*innen liegen. Dabei sollen Videoaufnahmen entstehen, die die Reaktionen dokumentieren.

Wir möchten testen, ob sich No-Code-Tools wie z.B. webflow.com eignen, um den Prototypen zu einer funktionalen Web-Applikation auszubauen, da wir innerhalb der Gruppe unterschiedlich gut ausgeprägte Programmierkenntnisse haben und wir die Umsetzung durch solche Tools arbeitsteilig lösen könnten. Zudem soll das Projekt zu einer immersiven Rauminstallation ausgebaut werden, zum Beispiel zur Präsentation in einer Ausstellung.

Ausserdem stellt der prototypische Chatbot nur das Intro zu unserem geplanten Gesamtkonzept dar. Anschließend können die Nutzer*innen in einzelne Aspekte eintauchen (Interviews, Negativbeispiele, Positivbeispiele, Designprozesse etc.).

Das Aufklären über das Vorkommen und Entstehen von Biases bildet eine gute theoretische Grundlage, jedoch möchten wir uns darüber hinaus in nächster Zeit damit beschäftigen, wie diese Grundlagen in der Praxis verwurzelt sein und in den gestalterischen Prozess dauerhaft integriert werden können. Dabei stellt sich vor allem die Frage nach den Formen für eine sinnvolle Vermittlung und für die Weitergabe dieses Wissens und dieser Grundlagen an Designer*innen und Studierende dieses Fachbereichs. Für weiterführende wissenschaftliche Untersuchungen wäre es zum einen interessant, danach zu fragen, wie Betroffene in den Designprozess einbezogen werden können. Zum anderen könnte untersucht werden, wie eine dauerhafte Bewusstseinsveränderung bei Designer*innen und Entwickler*innen erreicht werden kann.

Wir als Team repräsentieren eine Vielfalt von Lebensformen und eine multikulturelle Welt, mit und ohne Behinderung, BiPOC, LGBTQIA etc. Durch die Projektarbeit „Balance Your Bias“ konnten wir sehr viel über die Lebensrealitäten der anderen Gruppenmitglieder lernen und uns dank unserer eigenen Perspektiven und Lebenserfahrungen intensiv austauschen.

Wir haben viel über uns fremde Lebensrealitäten gelernt und unser Wissen darüber, wie Design und Technologie diskriminieren, erweitert.

5 Quellen

Airbnb Design: Another Lens. A research tool for conscientious creatives, in: https://airbnb.design/anotherlens/#answer1 (Letzter Zugriff: 3.7.20)

Angwin, Julia: Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks, 2016, in: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (Letzter Zugriff: 2.7.20)

Bolukbasi, Tolga: Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings, 2016, in: https://papers.nips.cc/paper/6228-man-is-to-computer-programmer-as-woman-is-to-homemaker-debiasing-word-embeddings.pdf (Letzter Zugriff: 2.7.20)

Cohen, Patricia: New Evidence of Age Bias in Hiring, and a Push to Fight It, 2019, in: https://www.nytimes.com/2019/06/07/business/economy/age-discrimination-jobs-hiring.html (Letzter Zugriff: 25.6.20)

Farag, Emily: Feminism 101: What is Pinkwashing?, 2019, in: https://femmagazine.com/feminism-101-what-is-pinkwashing/ (Letzter Zugriff: 26.6.20)

Farokhmanesh, Megan: YouTube is still restricting and demonetizing LGBT videos — and adding anti-LGBT ads to some, 2018, in: https://www.theverge.com/2018/6/4/17424472/youtube-lgbt-demonetization-ads-algorithm (Letzter Zugriff: 26.6.20)

Hamilton, Isobel: Amazon, Apple, Google, IBM, and Microsoft worse at transcribing black people's voices than white people's with AI voice recognition, study finds, 2020, in: https://www.businessinsider.com/study-ai-voice-recognition-racially-biased-against-black-voices-2020-3?r=DE&IR=T (Letzter Zugriff: 2.7.20)

Hao Karen: A US government study confirms most face recognition systems are racist, 2019, in: https://www.technologyreview.com/2019/12/20/79/ai-face-recognition-racist-us-government-nist-study/ (Letzter Zugriff: 2.7.20)

Hao, Karen: Can you make an AI that isn’t ableist?, 2018, in: https://www.technologyreview.com/2018/11/28/1797/can-you-make-an-ai-that-isnt-ableist/ (Letzter Zugriff: 2.7.20)

Hao, Karen: What is Machine Learning?, 2018, in: https://www.technologyreview.com/2018/11/17/103781/what-is-machine-learning-we-drew-you-another-flowchart/ (Letzter Zugriff: 2.7.20)

Hardesty, Larry: Study finds gender and skin-type bias in commercial artificial-intelligence systems, 2018, in: https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 (Letzter Zugriff: 26.6.20)

Harrison, Sara: Five Years of Tech Diversity Reports—and Little Progress, 2019, in: https://www.wired.com/story/five-years-tech-diversity-reports-little-progress/ (Letzter Zugriff: 26.6.20)

Hern, Alex: TikTok's local moderation guidelines ban pro-LGBT content, 2019, in: https://www.theguardian.com/technology/2019/sep/26/tiktoks-local-moderation-guidelines-ban-pro-lgbt-content (Letzter Zugriff: 26.6.20)

Hills, Megan: YouTube Is Running 'Anti-LGBT' Ads Alongside Videos By LGBT Creators, 2018, in: https://www.forbes.com/sites/meganhills1/2018/06/04/youtube-anti-lgbt-ads/#39c5123e4f73 (Letzter Zugriff: 26.6.20)

Kurt, Seyda: Equal Pay Day: Warum sich das Frauenticket der BVG nicht für alle ausgezahlt hat, 2019, in: https://ze.tt/equal-pay-day-warum-sich-das-frauenticket-der-bvg-nicht-fuer-alle-ausgezahlt-hat/ (Letzter Zugriff: 25.6.20)

Macnaughton, Spencer: Why LGBTQ Ads Have Evolved, 2019, in: https://www.youtube.com/watch?v=S7WznJsgd1Q (Letzter Zugriff: 2.7.20)

Mahdawi, Arwa: Targeted ads are one of the world's most destructive trends. Here's why, 2019, in: https://www.theguardian.com/world/2019/nov/05/targeted-ads-fake-news-clickbait-surveillance-capitalism-data-mining-democracy (Letzter Zugriff: 2.7.20)

Marritt, Arte: Here’s what people are really doing with their Alexa and Google Home assistants, 2018, in: https://venturebeat.com/2018/11/17/heres-what-people-are-really-doing-with-their-alexa-and-google-home-assistants/ (Letzter Zugriff: 2.7.20)

Matfield, Kat: Gender Decoder for Job Ads, in: http://gender-decoder.katmatfield.com/ (Letzter Zugriff: 3.7.20)

McNamara, Tay K., et al.: Age Bias in the Workplace: Cultural Stereotypes and In-Group Favoritism, The International Journal of Aging and Human Development, vol. 83, no. 2, 2016.

World Health Organisation: Frequently Asked Questions: Ageism, in: https://www.who.int/ageing/features/faq-ageism/en/ (Letzter Zugriff: 25.6.20)

Meet Q, The First Genderless Voice, in. https://www.genderlessvoice.com/ (Letzter Zugriff: 25.6.20)

Navarro, Renee: What is unconscious Bias?, University of California San Francisco, in: https://diversity.ucsf.edu/resources/unconscious-bias (Letzter Zugriff: 20.6.20)

Niethammer, Carmen: AI Bias Could Put Women’s Lives At Risk - A Challenge For Regulators, 2020, in: https://www.forbes.com/sites/carmenniethammer/2020/03/02/ai-bias-could-put-womens-lives-at-riska-challenge-for-regulators/#7a57fd2534f2 (Letzter Zugriff: 25.6.20)

Porter, Jon: Federal study of top facial recognition algorithms finds ‘empirical evidence’ of bias, 2019, in: https://www.theverge.com/2019/12/20/21031255/facial-recognition-algorithm-bias-gender-race-age-federal-nest-investigation-analysis-amazon (Letzter Zugriff: 26.6.20)

Psychology Today: Bias, in: https://www.psychologytoday.com/intl/basics/bias (Letzter Zugriff: 25.6.20)

Rawlinson, Kevin: Digital assistants like Siri and Alexa entrench gender biases, says UN, 2019, in: https://www.theguardian.com/technology/2019/may/22/digital-voice-assistants-siri-alexa-gender-biases-unesco-says (Letzter Zugriff: 25.6.20)

Singh, Sonoo: The „coming out“ of advertising: is LGBT+ representation in ads still falling short?, 2017, in: https://www.campaignlive.co.uk/article/coming-out-advertising-lgbt+-representation-ads-falling-short/1436860 (Letzter Zugriff: 26.6.20)

The Verge: Google-backed AI measures gender bias in movies, in: https://www.youtube.com/watch?v=jsVZSUIv_iI (Letzter Zugriff: 25.6.20)

University of Cambridge: Inclusive Design Toolkit, in: http://www.inclusivedesigntoolkit.com/ (Letzter Zugriff: 26.6.20)

Seidman, Gwendolyn: Why do we like people who are similar to us?, in: https://www.psychologytoday.com/us/blog/close-encounters/201812/why-do-we-people-who-are-similar-us (Letzter Zugriff: 25.6.20)

Survival of the Best Fit, in: https://www.survivalofthebestfit.com (Letzter Zugriff: 25.6.20)

Strate, Lance: If It's Neutral, It's Not Technology. Educational Technology, vol. 52, no. 1, 2012, pp. 6–9. JSTOR, in: www.jstor.org/stable/44429982. (Letzter Zugriff: 3.7.20)

Takahashi, Lico: Why Your Design is Biased, in: https://uxdesign.cc/why-your-design-is-biased-f25b300f8559 (Letzter Zugriff: 2.7.20)

Tatman, Rachael: Gender and Dialect Bias in YouTube’s Automatic Captions, Proceedings of the First ACL Workshop on Ethics in Natural Language Processing, Association for Computational Linguistics, 2017, in: https://www.aclweb.org/anthology/W17-1606/ (Letzter Zugriff: 26.6.20)