Von Filmempfehlungen bis zu Entscheidungen im Personalwesen: In vielen Bereichen erhoffen sich die Anwender von KI, dass die Systeme vor allem neutrale, von Meinungen unbeeinflusste Entscheidungen treffen.
Häufig sei jedoch das Gegenteil der Fall, erklärt Prof. Dr. Siegmar Otto vom Fachgebiet Nachhaltige Entwicklung und Wandel der Universität Hohenheim: „Studien zeigen, dass solche Systeme häufig nicht neutral arbeiten. Das heißt, dass sie voreingenommen sind und Stereotype reproduzieren. Das kann zum Beispiel daran liegen, dass die Trainingsdaten dieser Algorithmen die Welt nicht vollständig neutral abbilden, sondern subjektive Verzerrungen aufweisen.“
Aus diesem Grund hätten KI-Systeme in der Vergangenheit diese subjektiven Verzerrungen übernommen oder verstärkt. Ein Beispiel ist die KI-gestützte Personalauswahl, bei der die Gefahr besteht, dass der Algorithmus bestimmte Personengruppen aufgrund von Vorurteilen in den Trainingsdaten diskriminiert.
Daher sei entscheidend, wer die Systeme entwickle und trainiere: „Die persönlichen Werte und Ansichten dieser Personen haben Einfluss darauf, welche Daten als relevant angesehen werden und welche Muster der Algorithmus erlernen soll“, erklärt der Psychologe.
„In unserer Forschung wollen wir das Problem aber nicht nur benennen, sondern stellten uns die Frage, wie wir zu einer Lösung beitragen können. Sprich: ob es möglich ist, den Algorithmen erstrebenswerte Eigenschaften anzutrainieren“, erläutert Sarah Zabel, Doktorandin am Fachgebiet Nachhaltige Entwicklung und Wandel.
750 Testpersonen durften einfache KI-Systeme trainieren
Als KI-System für ihre Online-Studie simulierten Zabel und Prof. Dr. Otto die Entwicklung von intelligenten Spamfiltern und ließen sie von 750 Teilnehmenden trainieren. Dabei handelte es sich um einen repräsentativen Querschnitt der deutschen Internet-Nutzer.
„Spamfilter sind ein guter Gegenstand für solche Forschungsfragen, weil sie eine einfache Aufgabe haben: Sie kategorisieren E-Mails. Aber auch diese Systeme werden zunächst von Menschen trainiert, die entscheiden welche Nachrichten als Spam gelten“, so Zabel.
Die Teilnehmenden erhielten deshalb jeweils acht E-Mails – darunter Nachrichten von Banken, Menschenrechts- und Umweltorganisationen – die sie als Spam oder Nicht-Spam kategorisieren mussten.
„In einem zweiten Schritt haben wir erfasst, wie groß die soziale Veranlagung der Teilnehmenden ist“, erläutert Zabel. „Dazu nutzten wir zwei standardisierte Fragebögen. Ein Fragebogen enthielt Fragen, der speziell das Umweltschutzverhalten abprüfte. Ein zweiter fragte weniger spezifisch nach generellen Verhaltensweisen, die dem Gemeinwohl dienten. Darunter waren zum Beispiel Fragen, ob man sparsam heize oder für humanitäre Zwecke spende.“
Umweltmotivierte Menschen trainieren Spamfilter für mehr Gemeinwohl
Das Ergebnis: „Entgegen unserer Erwartung zeigte sich, dass die generelle Gemeinwohl-Orientierung, die Altruismus-Skala, die Effekte bei der Spam-Kategorisierung viel weniger gut als die Umweltschutz-Skala vorhersagen konnte“, so Zabel.
„Interessant ist dementsprechend, dass Menschen mit einer größeren Umweltmotivation sowohl die E-Mails der Klimaschutzorganisationen als auch die der humanitären Organisationen seltener als Spam einstuften“, erläutert Zabel.
Dies entspreche den Ergebnissen früherer Studien: Umweltmotivierte Personen seien häufig hilfsbereiter und verhielten sich prosozial: „Es ist also wahrscheinlicher, dass sich Menschen mit einer größeren Umweltmotivation sowohl für den Schutz der Umwelt als auch für das Wohlergehen ihrer Mitmenschen einsetzen. Deshalb lassen diese Personen auch die E-Mails der humanitären Organisationen durchgehen“, so Zabel.
„Letztendlich kommen wir – auch in anderen neuen Studien – zu dem Schluss, dass Umweltschutzverhalten eine spezielle Variante von einer grundlegenden Prosozialität eines Menschen ist.“ Nachhaltigkeitsorientierte Algorithmen entwickeln Laut Prof. Dr. Siegmar Otto sind die Ergebnisse der Studie auch relevant für andere Bereiche, in denen Algorithmen Entscheidungen treffen: „Die Studie verdeutlicht noch einmal, wie wichtig es ist, die persönlichen Werte, der für die Entwicklung von KI verantwortlichen Menschen zu berücksichtigen.“ Die Ergebnisse seien auch eine Anregung dafür, Algorithmen zu entwickeln, die nachhaltig und sozial agieren: „Es ist möglich die Systeme so zu trainieren, dass sie soziale und ökologische Entscheidungen für eine möglichst breite Bevölkerungsgruppe unterstützen“, so Prof. Dr. Otto.