Schublade auf, Schublade zu

Auch Künstliche Intelligenzen denken in Klischees

Geschätzte Lesezeit: ca. 3 Minuten

Foto von Sandra Spönemann

von Sandra Spönemann (@die_spoent_wohl)-

Die ultimativ rational - und daher objektiv - denkende KI, so stellen wir uns die intelligenten Programme häufig vor. Maschinen, die nicht von sogenannten Bauchgefühlen gesteuert werden, sondern nur den logischen Regeln von Algorithmen folgen. Allerdings können die zugrunde liegenden Daten sehr wohl zu Diskriminierung führen.

Drei Forscher der renommierten Universität Princeton haben nachgewiesen, dass sich Programme im Rahmen des maschinellen Lernens eine stereotypische Befangenheit aneignen können. Wird eine Künstliche Intelligenz also durch Datensätze mit den Eigenschaften unserer Sprache vertraut gemacht, übernimmt die KI dabei auch die Assoziationen, die mit bestimmten Begriffen, wie zum Beispiel Namen, einhergehen. Spätestens wenn frischgebackene Eltern ihren Kindern einen Namen geben müssen, zeigt sich, welche Gedanken und Gefühle Menschen damit verbinden. Da darf der Junge auf keinen Fall "Kevin" oder "Herbert" heißen und das Mädchen keine "Cindy" werden. Rational ist das natürlich keineswegs.

"Frauennamen werden mehr mit Familie- als mit Karrierebegriffen assoziiert"

In ihrer Studie fand das Forscher-Team unter anderem heraus, dass Wörter des Themenfelds "Familie" eher mit Frauennamen in Verbindung gebracht werden als beispielsweise Begriffe, die der Kategorie "Karriere" zugeordnet sind. Bei männlichen Namen sieht das jedoch anders aus.

If machine-learning technologies used for, say, résumé screening were to imbibe cultural stereotypes, it may result in prejudiced outcomes.

Sciencemag.org

Auch bei den Wörtern "Frau" oder "Mädchen" kristallisieren sich Unterschiede heraus: Sie werden eher mit Kunst als mit Mathematik in Verbindung gebracht, als dies bei "Mann" oder "Junge" der Fall ist.

Als Testmethode wählten die Forscher den sogenannten "impliziten Assoziationstest" (IAT) als Maß automatisch aktivierter Assoziationen aus. Bei diesem Test ist es die Aufgabe von Probanden, mittels Tastendruck Reize, in diesem Fall angezeigte Begriffe, zu kategorisieren, indem man ihnen Eigenschaften zuweist. Je schneller man eine solche Zuweisung vornimmt, umso stärker ist die Assoziation.

Akzeptables Verhalten muss für die KI charakterisiert werden

"Aus unserer Arbeit lassen sich Folgerungen für Künstliche Intelligenzen und Machine Learning ziehen, da diese kulturelle Stereotype endlos aufrecht erhalten könnten", heißt es in der wissenschaftlichen Ausarbeitung. Die Forschungsergebnisse weisen auf folgendes hin: Systeme, die sich unsere Sprache auf einem so hohen Niveau aneignen, dass sie in der Lage sind, diese zu reproduzieren, eignen sich automatisch auch historisch-kulturelle Assoziationen an.

Manche davon könnten in einer modernen Gesellschaft eher unerwünscht sein und zu einem Output führen, der von Vorurteilen geprägt ist. Mit ihrer Arbeit möchte das Forscher-Team die Notwendigkeit einer Definition "akzeptablen Verhaltens" hinweisen.

Ordinary reinforcement learning is a process where you are given rewards and punishments as you behave, and your goal is to figure out the behavior that will get you the most rewards.

Stuart Jonathan Russell

Als Negativbeispiel lässt sich hier Microsofts Chatbot Tay anführen, der - einmal auf die Internet-User losgelassen, in kürzester Zeit rassistische Äußerungen von sich gab. Ein von den Nutzern erlerntes Verhalten.

Die Studie belegt damit grundsätzlich nichts Unbekanntes: Spätestens seit den berühmten "Drei Gesetzen der Robotik" des Science-Fiction-Autors Isaac Asimov (1942) machen sie die Menschen Gedanken darüber, welche Regeln nötig sind, damit KIs uns nicht schaden können. Stuart Russell, Professor für Informatik an der University of California, argumentierte in einem Interview 2015 dafür, dass sich Künstliche Intelligenzen die menschlichen Wertvorstellungen durch Beobachtung bei uns abschauen könnten. Und auch durch die Analyse der Medien, die wir produzieren. Fragt sich nur, ob uns diese Methoden insgesamt in einem besonders guten Licht zeigen?

Russells Ansatz beruht jedoch auf einer Technik, die durchaus Sinne ergibt: "Inverse reinforcement learning" (frei übersetzt: Lernen durch umgekehrte Verstärkung). Ein Roboter schaut sich beispielsweise an, wie wir morgens aufstehen, in die Küche gehen, uns einen Kaffee machen und uns darüber freuen. Daraus sollte er lernen, dass ein morgendliches Heißgetränk für Menschen erstrebenswert ist. Durch Filme, Bücher und das Internet könnte die KI lernen, wofür Menschen mit einem Preis ausgezeichnet werden, wofür sie dagegen ins Gefängnis kommen und warum. Aufgrund politischer und kultureller Umstände können diese Dinge jedoch von Land zu Land voneinander abweichen. Vielleicht vorsichtshalber doch lieber die Asimov-Gesetze der Robotik im Hinterkopf behalten?

Hier erfährst du mehr über: Chatbot und Künstliche Intelligenz

Sag uns deine Meinung!