Warum sind es alles Frauen?

8 min read
AI-Assistants-Women-Header
Artwork by Nicolae Negura

Die digitalen Assistenten von heute halten unsere Tagebücher in Ordnung, zeigen uns den Weg und kümmern sich um unsere Korrespondenz. Meist handelt es sich um virtuelle Sekretärinnen; sie üben also eine Tätigkeit aus, die traditionell von Frauen übernommen wird.

Nicht ganz zufällig haben Amazons Alexa, Googles Assistant, Microsofts Cortana und Apples Siri eines gemeinsam: Sie sind weiblich. Jedenfalls sind sie so weiblich, wie tausende von Codezeilen es halt sein können. Die Benutzer wissen das. Anhand geschlechtsspezifischer Merkmale wie Stimme, Name und Sprache eines digitalen Assistenten können Benutzer sofort auf das Geschlecht schließen.

Es ist verzeihlich, dass die meisten KI-Assistenten Frauen sind, denn ihre meist männlichen Entwickler wollen es ja so. Eine einfache Google-Suche bringt uns schnell das traditionelle Bild der Sekretärin in Erinnerung – doch das ist nur die halbe Wahrheit. Viele große Technologieunternehmen haben Studien durchgeführt, welche belegen, dass weibliche Assistenten bevorzugt werden. Die Daten untermauern das. Was hinter diesen Daten steckt, ist es wert, untersucht zu werden.

Wie Gender-Sprachtheorien unsere Technologie beeinflussen

Es gibt viele Studien zu den Unterschieden zwischen männlicher und weiblicher Sprache, und viele davon wurden von Medien und populärwissenschaftlichen Büchern aufgegriffen. Robin Lakoff zeigte in ihrer Arbeit „Language and the Woman’s Place” ( 1975) eine Reihe von Aspekten, in denen sich die männliche und weibliche Sprache voneinander unterscheiden. In jüngerer Zeit hat Deborah Tannen ergänzende Arbeit dazu geleistet. Die allgemeine Einschätzung lautet, dass die weibliche Sprache höflicher, weniger direkt und dem Gesprächspartner gegenüber entgegenkommender sei.

Wenn der Benutzer einen persönlichen Assistenten wünscht, der zuvorkommend und höflich ist, so dürfte es keine Überraschung sein, dass die Verbraucherforschung immer wieder die Vorliebe für eine weibliche Stimme zu Tage fördert. Allerdings ist umstritten, ob diese Präferenz auf Tatsachen oder auf Fiktion beruht.

Die Theorie der Geschlechterunterschiede hat prominente Kritiker. Janet S. Hyde wertete 46 Meta-Analysen aus und stellte fest, dass die Unterschiede zwischen den Geschlechtern relativ gering sind. Deborah Cameron schrieb im „Guardian”: „Die Vorstellung, Männer und Frauen würden sich in ihrem Sprachgebrauch fundamental unterscheiden, ist ein Mythos im alltäglichen Sinn: eine weit verbreitete, aber falsche Annahme. Unabhängig davon, ob solche Geschichten einen historischen oder wissenschaftlichen Sinn haben: Sie haben reale Konsequenzen, denn sie prägen unsere Überzeugungen und beeinflussen somit unser Handeln.“ Wenn Technologieunternehmen ihre Nutzer befragen, so sind dies die Überzeugungen, die die Benutzer in ihren Antworten wiedergeben.

Die Ausnahmen von der Regel sind für sich genommen merkwürdig. Den Watson-Assistenten von IBM nutzen Mitarbeiter im Gesundheitswesen unter anderem für die Tumorbewertung und für die Krebsdiagnose. Es scheint naheliegend, die KI als Experte und Autorität mit einer männlichen Persönlichkeit auszustatten. Die Forschung zeigt, dass beide Geschlechter Männerstimmen mehr Aufmerksamkeit geben als den weiblichen. Die Entscheidung von IBM, Watson männlich zu machen, dürfte daher nicht überraschen. Wenn es um Leben oder Tod geht, möchte man der KI die beste Chance geben, gehört zu werden, selbst wenn das auf einer fragwürdigen Voraussetzung basiert.

Intelligente Assistenten in Verwaltungs- oder Sekretariatsfunktionen, die in der Vergangenheit von Frauen dominiert wurden, erhalten eine weibliche Persönlichkeit und zementieren somit für eine neue Generation ein Geschlechterstereotyp. Intelligente Assistenten in Bereichen, die mit Männern in Verbindung stehen, werden hingegen mit einer männlichen Persönlichkeit in Verbindung gebracht. Das Ergebnis: Die traditionellen Geschlechterrollen werden in der Gegenwart verstärkt.

AI-Assistants-Women

Das Gender-Problem der Technologie

Die Technologie hat ein Genderproblem Selbst bei Technologiefirmen mit Hunderten von Mitarbeitern ist es nicht ungewöhnlich, dass die Anzahl der weiblichen Softwareentwickler im einstelligen Bereich liegt. Bringt man dieses Problem zur Sprache, birgt dies, wie so oft, seine eigenen Risiken. Es macht keinen Sinn, anonym mit einer Zeitung zu sprechen, wenn man als „weibliche Angestellte bei der Firma X“ bezeichnet wird. Solche Aussagen beschränken das Feld oft auf nur eine Handvoll Menschen.

Diese geschlechtsspezifische Ungleichheit manifestiert sich auf verschiedene Weise. Manchmal ganz trivial: „Die haben nicht kapiert, warum das Sitzen auf Sitzsäcken nicht funktioniert, wenn man eine Frau ist“, hat einmal eine Ingenieurin zu mir gesagt. „Es liegt daran, dass wir Röcke tragen“, stellte sie sofort klar, als spräche sie mit einer Kollegin.

Andere Symptome sind ernster: Manche Unternehmen verfügen nicht über angemessene Entsorgungsmöglichkeiten für Hygieneartikel. Kritiker argumentieren außerdem, dass, wenn im Unternehmen ein beschränktes Weltbild herrscht, dieses Weltbild in die Produkte eingebaut wird – so, wie es auch in die Unternehmenskultur integriert ist.
So wurde zum Beispiel die App „Apple Health” massiv kritisiert, weil sie bei ihrer Veröffentlichung keinen Menstruations-Tracker enthielt. Diese Funktion ist für 48 Prozent der Benutzerinnen unerlässlich – jene demografische Gruppe, die in der Belegschaft des Unternehmens unterrepräsentiert ist. Man befürchtet, dass Produkte, die in einem Vakuum entwickelt werden, ohne Rücksicht auf ihren Einfluss auf die Welt und ohne kritische Einbindung oder Interpretation der Daten entstehen.

AI-Assistants-Women

Das Datenproblem

Die von Amazon und Microsoft durchgeführten Unternehmensstudien haben ermittelt, dass bei virtuellen Assistenten eine Präferenz für die weibliche Stimme herrscht. Ein Microsoft-Sprecher sagte dem Wall Street Journal: „Für unsere Ziele – den Aufbau eines nützlichen, hilfreichen und vertrauenswürdigen Assistenten – war eine weibliche Stimme die bessere Wahl.”
Viele assoziieren mit einer weiblichen Stimme die Qualitäten, die bei digitalen Assistenten am begehrtesten sind: Zuverlässigkeit, Effizienz und – seltsamerweise – Respekt. Die Realität ist, dass die Menschen zu ihrer KI nicht besonders höflich sind. Erwiesenermaßen geben die Benutzer von KI (vor allem Kinder) den Geräten direkte Anweisungen geben, ohne das übliche „Bitte” oder „Danke” zu verwenden. Wenn einer der präsentesten Einflüsse im Leben eines Kindes zu einer KI wird, dann könnte das Geschlecht dieser KI Auswirkungen auf die Art und Weise haben, wie das Kind mit anderen interagiert, haben. Hier ist gewiss weitere Forschungsarbeit nötig.

Für Erwachsene liegen die ersten Ergebnisse vor. Ein Forscherteam in Stanford untersuchte Geschlechtsstereotypen bei Sprachassistenten und stellte fest, dass die KI mit Männerstimmen im Vergleich zu KI mit Frauenstimmen als „positiver im Hinblick auf Freundlichkeit und Kompetenz“ bewertet wurde. Die Studie legt nahe, dass jeder Hinweis auf das Geschlecht, zum Beispiel ein Name oder eine Stimme, eine stereotype Reaktion auslösen kann.

Entscheidend war dabei, dass Computer mit Frauenstimmen in einer dominanten Rolle negativer bewertet wurden als Computer mit Männerstimmen in derselben Rolle. Kurz: Es ist leicht, Alexa zu sagen, was sie tun soll, weil sie weiblich ist. Sobald Alexa einem jedoch sagt, was man tun soll, will man, dass sie männlich ist.
Interessant war bei dieser Studie auch, dass die Testpersonen bestritten, durch das wahrgenommene Geschlecht der Computerstimmen beeinflusst zu werden. Dabei waren sie eindeutig beeinflusst.

Die Forscher erklären: „Durch die Wahl einer bestimmten Stimme kann ein Konstrukteur oder Entwickler im Bewusstsein des Benutzers eine ganze Reihe von Erwartungen an das Geschlecht dieser Stimme auslösen. Wenn Konstrukteure und Entwickler davon ausgehen, dass jede Stimme neutral ist, so ist dies ein Fehler. Eine Männerstimme bringt nämlich eine große Zahl von Erwartungen und Reaktionen mit sich, die auf Stereotypen über Männer basieren, während eine Frauenstimme eine große Anzahl von Erwartungen und Reaktionen mit sich bringt, die auf Stereotypen von Frauen gegründet sind.“

Die Ergebnisse der Wissenschaftler spiegeln die Unternehmensstudien von Microsoft und Amazon wider. Die Wahl des Geschlechts hat Auswirkungen, und es wäre mehr als naiv, anders zu denken.

Die Forscher erklären diese Wahl so: „Die Entscheidung, eine bestimmte Technologie mit Sprache auszustatten, kann deshalb mit schwierigen Entscheidungen verbunden sein. Das Entwerfen einer Technologie, die den Geschlechterstereotypen des Benutzers entspricht, ist die vielleicht einfachste Möglichkeit, seine oder ihre Erwartungen an die Technologie zu erfüllen. Andererseits kann eine Technologie, die diese Stereotypen infrage stellt, dazu beitragen, die tief verwurzelten Vorurteile, die den Ergebnissen der vorliegenden Studie zugrunde liegen, langfristig zu verändern.“

Wie es scheint, folgt „Big Tech” den Daten und geht den Weg des geringsten Widerstands, also der Voreingenommenheit.

Das Ergebnis ist eine Verstärkungsschleife historischer Geschlechterrollen und Stereotype, die nicht nachzulassen scheint. Ein Kind kann heutzutage sowohl an männliche als auch an weibliche Sekretärinnen gewöhnt sein, und zwar auf eine Art und Weise, wie es seine Eltern nicht waren. Wenn jedoch die Sekretariatstätigkeit im Leben des Kindes eine immer anwesende, immer digital gerenderte Frau ist, so muss man vernünftigerweise annehmen, dass es mit einer ähnlichen Gruppe von Gender-Vorurteilen aufwächst.

Technologie durchzieht unser Leben – durch Film, Fernsehen, Werbung. Das Geschlecht der KI mag auf den ersten Blick eine Marotte sein, auf den zweiten Blick ist es aber keine. Erst wenn wir uns täglich damit befassen, wird es schwer zu glauben, dass es normal sei. Wir müssen uns aber damit befassen, denn wer keine Meinung hat, ergreift automatisch Partei.

ArtboardFacebook iconInstagram iconLinkedIn iconUnbabel BlogTwitter iconYouTube icon