Einstein ist für den Wissenschaftler wie Messi für den Mittelfeldspieler.
Paris ist für Frankreich wie Tokio für Japan.
Jobs ist für Apple was Ballmer für Microsoft ist.

Dies sind nur einige der vielen Analogien, die KI-Systeme dank Durchbrüchen in der Verarbeitung natürlicher Sprache exakt ausführen können. In den letzten Jahren hat sich die Erforschung von Systemen, die immer ausgefeiltere Repräsentation von Wörtern erzeugen, durchgesetzt, wobei Forschungsgruppen immer leistungsfähigere Modelle auf den Markt brachten, die das damals hochmoderne System konsequent übertrafen. Mit diesen Techniken können Computer viel über die Welt, in der wir leben, rückschließen wie zum Beispiel Lionel Messis Beruf oder wer die Firma Steve Ballmer führte.

Aber was ist, wenn es einige Teile unserer Welt gibt, die besser aus diesen Systemen herausgelassen werden?

Aufgrund des sprichwörtlichen Macht- und Verantwortungskompromisses ist es wichtig, dass wir uns etwas Zeit nehmen, um die ethischen Auswirkungen dieser Fortschritte zu diskutieren: nämlich die Aufrechterhaltung menschlicher Vorurteile. Insbesondere geschlechtsspezifische Voreingenommenheit, wie sie üblicherweise in der Sprache vorkommt, ohne darauf einzugehen, ob die Sprache geschlechtsneutraler sein sollte oder nicht.

Was genau meinen wir mit Voreingenommenheit?

Umgangssprachlich wird Voreingenommenheit als ein Vorurteil für oder gegen eine Person oder Gruppe definiert, typischerweise in einer Weise, die als unfair angesehen wird. Vorurteile im Sinne des maschinellen Lernens werden etwas anders definiert, als ein “Fehler durch falsche Annahmen in einem Lernalgorithmus”. Mit anderen Worten, ein Modell macht immer wieder die gleichen Fehler.

Eine Visualisierung von Vorurteilen bei maschinellem Lernen lässt sich als Dart auf einer Dartscheibe darstellen – die Vorhersagen des Modells sind konsistent, aber verzerrt.

Wenn wir über Voreingenommenheit in NLP sprechen, können wir tatsächlich über beide Arten sprechen. Die vorherrschenden Vorurteile in unserer Gesellschaft beeinflussen die Art und Weise, wie wir sprechen und wovon wir sprechen, was sich wiederum in das übersetzt, was aufgeschrieben wird, was letztlich das ist, was wir zur Ausbildung von maschinellen Lernsystemen verwenden. Wenn wir unsere Modelle mit voreingenommenen Daten trainieren, werden diese in unsere Modelle aufgenommen, wodurch unsere eigenen Vorurteile bestätigt und erhalten werden können.

Um besser zu verstehen wie das passiert, müssen wir zunächst verstehen , wie Computerprogramme Text verarbeiten können und welche Algorithmen wir dafür verwenden. Falls du unseren Artikel darüber verpasst hast, wie Maschinen Sprache verstehen, ist die Kurzfassung, dass Wörter durch Listen von Zahlen dargestellt werden, die Worteinbettungen genannt werden, die Informationen über die Bedeutung, den Gebrauch und andere Eigenschaften des Wortes kodieren. Computer „lernen“ diese Werte für jedes Wort, indem sie Trainingsdaten von vielen Millionen Textzeilen erhalten, in denen Wörter in ihrem natürlichen Kontext verwendet werden.

Da Worteinbettungen Zahlen sind, können sie als Koordinaten in einer Ebene visualisiert werden, und der Abstand zwischen den Wörtern – genauer gesagt, der Winkel zwischen ihnen – ist eine Möglichkeit, ihre semantische Ähnlichkeit zu messen. Aus diesen Beziehungen können Analogien generiert werden.

In diesem Beispiel aus dem vorherigen Artikel repräsentieren die orangen Pfeile das Königtum und die blauen Pfeile das Geschlecht, und stellt fest, dass die Beziehung von Mann zu König gleichzusetzen ist mit der Beziehung von Frau zu Königin.

Aber was passiert, wenn wir diese Analogie auf andere Wörter, etwa Berufe, ausdehnen wollen?

Mann zu Computerprogrammierer wie Frau zu _ _ _______

Der gesunde Menschenverstand sagt, dass der fehlende Begriff Computerprogrammierer sein sollte, weil der Begriff im Gegensatz zu König und Dame nicht von Natur aus geschlechtsspezifisch ist. Kannst du erraten, wie der Computer mit einem Standard-Worteinbettungssystem die Lücke füllt?

Mann zu Computerprogrammierer ist wie Frau zu Hausfrau

Mit diesem Tool zum Einbetten von Wörtern kannst du deine eigenen Analogien ausprobieren.

Die maschinelle Übersetzung bietet ein weiteres Beispiel. Bei einigen Systemen führt die Übersetzung der geschlechtsneutralen ungarischen Sätze “Ő egy orvos, Ő egy nővér” ins Englische zu “He’s a doctor”. Sie ist eine Krankenschwester “, mutmaßt über das Geschlecht beider Personen.

Dies sind offensichtlich nicht die idealen Resultate. Die Trainingsdaten, die in dem Sprachmodell verwendet wurden und aus dem die Analogie am ehesten hervorging, beinhaltete vermutlich Männer, die Programmieren sehr oft im selben Kontext wie Frauen, die Hausarbeiten machten, im Vergleich zu Frauen, die etwas anderes taten. Das ideale Ergebnis des “Er ist ein Arzt und Sie ist eine Krankenschwester”-Dilemmas ist weniger Schwarz-Weiß, aber wir könnten ein geschlechtsneutrales Pronomen verwenden, und dem Benutzer die Möglichkeit geben, das Geschlecht selbst anzugeben oder zumindest dasselbe Pronomen für beide zu nutzen.

Maschinelle Lernsysteme sind das, was sie essen, und natürliche Sprachverarbeitungswerkzeuge sind keine Ausnahme – das wurde mit Tay, Microsofts KI-Chatbot, kristallklar. Es besteht die allgemeine Tendenz anzunehmen, dass mehr Daten zu leistungsfähigeren Modellen führen, so dass die größten Korpora typischerweise im Web kriechende Datensätze sind. Da Internet und andere Inhalte echte, menschliche Sprache umfassen, werden sie natürlich die gleichen Vorurteile aufweisen wie Menschen, und oft wird nicht genug darauf geachtet, was der Text tatsächlich enthält.

Verringerung geschlechtsspezifischer Vorurteile

Letztendlich wird irgendwann während dieser Diskussion jemand – egal wer – die Frage stellen: Wenn wir wollen, dass die KI eine echte Repräsentation der Menschheit ist, sollten wir dann überhaupt versuchen, Vorurteile zu beseitigen? Sollte die KI nur eine Beschreibung des menschlichen Verhaltens sein, oder sollte sie eine Vorschrift sein? Es ist eine berechtigte Frage; aber wenn nicht, dann müssen wir auch bedenken, dass voreingenommene Modelle nicht nur unbeholfene Analogien produzieren – manchmal sind sie einfach ungenau: Eine Computerprogrammiererin ist nicht gleichbedeutend mit einem Hausfrau.

Als KI-Ingenieur müssen wir uns immer überlegen, wer unsere Systeme für welchen Zweck nutzen wird. Bei Unbabel müssen wir die Kunden unserer Kunden im Auge behalten und uns bemühen, die genauesten und ausgewogensten Übersetzungen zu liefern. Die Tatsache, dass Menschen mit dabei sind, verringert sicherlich das Risiko, geschlechtsspezifische Trainingsdaten zu erhalten, und trägt dazu bei, die Lücke zu schließen, in der das maschinelle Lernen versagt. Aber was können wir als Ingenieure tun, um die geschlechtsspezifische Verzerrung in NLP-Systemen zu verringern?

Die intuitivste Methode besteht darin, die Trainingsdaten zu ändern. Wenn wir wissen, dass unsere Modelle Vorurteile aus Daten lernen, müssen wir sie möglicherweise nur von den Vorurteilen befreien. Eine dieser Techniken ist das “Gender-Swapping”, bei dem die Trainingsdaten so ergänzt werden, dass für jeden geschlechtsspezifischen Satz ein zusätzlicher Satz erstellt wird, der Pronomen und geschlechtsspezifische Wörter durch solche des anderen Geschlechts ersetzt und Namen durch Entitätsplatzhalter ersetzt. Zum Beispiel würde „Mary hat ihren Bruder Tom umarmt“ auch „NAME-1 hat seine Schwester NAME-2 umarmt“ erstellen. Auf diese Weise werden die Trainingsdaten geschlechtsspezifisch ausgewogen und es werden auch keine mit Namen verbundenen Geschlechtsmerkmale gelernt. Dies würde die Analogien des Modells verbessern, denn es hätte Computerprogrammierer in männlichen und weiblichen Kontexten gleich oft gesehen.

Es ist jedoch wichtig zu beachten, dass dieser Ansatz für Englisch, eine Sprache ohne produktives grammatikalisches Geschlecht, einfach ist, während für viele andere Sprachen der Austausch von Pronomen wie seinem und Nomen wie Schwester/Bruder nicht ausreichend ist, da Adjektive und andere Modifikatoren auch Geschlecht zum Ausdruck bringen. Beispielsweise haben romanische Sprachen wie Französisch, Portugiesisch oder Spanisch kein neutrales grammatikalisches Geschlecht. Wie Helena Moniz, Linguistin und Forscherin an der Universität von Lissabon, erklärte: „Sprachen, die vom Lateinischen abgeleitet sind, haben ihr neutrales grammatikalisches Geschlecht vor langer Zeit verloren.

Meines Wissens ist die Erforschung dieser Art von Entzerrungstechnik für nicht-englische Korpora weitgehend unerforscht.

Eine weitere Methode, die speziell für die maschinelle Übersetzung entwickelt wurde und die Übersetzungen geschlechtsspezifischer macht, besteht darin, Metadaten zu den Sätzen hinzuzufügen, die das Geschlecht des Subjekts speichern. Während beispielsweise der Satz “You are very nice” im Englischen geschlechtsspezifisch ist, wenn der parallele portugiesische Satz “Tu és muito simpática” war, würden wir den Tag an den Anfang des englischen Satzes anfügen, damit das Modell die korrekte Übersetzung lernen kann. Wenn wir nach dem Training eine Übersetzung anfordern und das gewünschte Geschlechter-Tag liefern, sollte das Modell das richtige und nicht nur das Mehrheitsgeschlecht zurückgeben.

Wenn das ungarisch-englische System auf diese Weise trainiert wurde, könnten wir es bitten, ” Ő egy orvos ” zu übersetzen und die Übersetzung “She is a doctor” oder ” Ő egy nővér” zu erhalten und “He is a nurse” zu erhalten. Um dies in großem Maßstab durchzuführen, müssten wir ein zusätzliches Modell trainieren, das das Geschlecht eines Satzes klassifiziert und es verwendet, um die Sätze zu markieren und eine Schicht der Komplexität hinzuzufügen.

Diese Methoden sind wirksam bei der Verringerung der geschlechtsspezifischen Verzerrung in NLP-Modellen, sind jedoch zeitaufwendig in der Implementierung, da sie zusätzliche sprachliche Informationen erfordern, die möglicherweise nicht ohne weiteres verfügbar oder gar nicht erhältlich sind.

Zum Glück entwickelt sich dieses Thema zu einem schnell wachsenden Forschungsgebiet. Auf dem Jahrestreffen der Association for Computational Linguistics, das in diesem Sommer stattfand und an dem viele KI-Unbabeler teilnahmen, gab es eine ganze Reihe von Arbeitsvorträgen, die sich mit Vorurteilen in der Sprachverarbeitung beschäftigten, sowie den ersten Workshop zum Thema Geschlechtervorurteile für natürliche Sprachverarbeitung.

Google hat auch Ressourcen investiert, um dieses Problem zu minimieren. Im Dezember 2018 gaben sie bekannt, dass Google Translate damit beginnen wird, Übersetzungen einzelner Wörter aus vier Sprachen ins Englische sowohl in weiblicher als auch in männlicher Form zurückzugeben.

Es ist großartig zu sehen, dass Branchenführer die Geschlechterverzerrung in Algorithmen angehen, aber die Arbeit ist noch lange nicht beendet. Wir haben immer noch mit einem Mangel an Vielfalt in der KI-Branche zu kämpfen – laut MIT Technology Reviewmachen ” Frauen nur 18 % der Autoren bei führenden KI-Konferenzen, 20 % der KI-Professuren und 15 % bzw. 10 % der wissenschaftlichen Mitarbeiter bei Facebook und Googleaus ” – und wir können nicht leugnen, dass dies nicht teilweise für das Problem verantwortlich ist. Als Ingenieure können wir uns nicht vor dem Problem scheuen und uns unter der Annahme verstecken, dass Technologie neutral ist. Zumal die Folgen unserer Untätigkeit nicht nur anekdotisch sind, wie die Beispiele, die wir geteilt haben – Verzerrungen in Algorithmen können zu Diskriminierung bei Einstellungsverfahren, Kreditanträgen und sogar in der Strafverfolgung führen.

Dies ist keine Funktion, es ist ein Fehler. Und wenn unser Bewusstsein wächst, müssen wir unsere Rolle bei der Schaffung von Technologien erkennen, die für viele und nicht für wenige funktionieren.

Quellen
Verringerung der geschlechtsspezifischen Abweichungen in der Verarbeitung natürlicher Sprachen: Literaturübersicht https://arxiv.org/abs/1906.08976