In dem Moment, in dem ich meine Instant-Ramen in die vorgeschriebenen 500ml kochendes Wasser gebe und sie dann 5 min köcheln lasse,führe ich eine Handlungsanweisung aus. Der Zubereitungshinweis auf der Rückseite der Verpackung löst also das Problem, die kartonartigen Instant-Ramen in einen genießbaren Zustand zu versetzen. Ebenso wie die Worte auf der Rückseite eines Fertiggerichts, bestehen Algorithmen aus Handlungsanweisungen, mit deren Hilfe Probleme gelöst werden. In der Wissenschaft versteht man Algorithmen deshalb als Problemlöser.

Die genaue Funktionsweise von Algorithmen, wie sie Social Media Netzwerke, Dating-Plattformen, Unternehmen, Behörden, letztlich jede Webseite nutzen, bleibt jedoch häufig unbekannt. Die Gründe dafür sind vielfältig. Zum einen benötigt man zu ihrem Verständnis weitergehende mathematische und informatische Kenntnisse, die in der breiten Bevölkerung so nicht vorhanden sind. Zum anderen unterliegen die Anwendungen und Funktionsweisen bestimmter Algorithmen der Geheimhaltung, was damit begründet wird sie vor Manipulation und Diebstahl schützen zu wollen. Zudem sichern Unternehmen wie Amazon und Google so ihre Monopolstellung.
Algorithmen kommt viel Verantwortung zu. Der Automating Society Report von Algorithm Watch und der Bertelsmann Stiftung zeigt, dass Algorithmen, auch in Europa, zunehmend verwendet werden, um Menschen zu bewerten. Beispielsweise finden Algorithmen bei der Vorauswahl von Bewerber*innen oder der Vergabe von Krediten Anwendung. Ihnen wird zugetraut neutralere und damit bessere Entscheidungen zu treffen, als es ein Mensch dies könnte. Allerdings ist das nicht immer der Fall. Die Gründe hierfür sind vielfältig.
Um sich näher mit der fairen Entscheidungsfindung von Algorithmen auseinanderzusetzten, sollte zunächst klar sein, was unter Fairness zu verstehen ist. In der Recherche zu fairen Algorithmen trifft man schnell auf das Wort „Bias“, was man mit Neigung, Vorurteil oder „beeinflusst sein“ übersetzten könnte. Häufig wird „fair-sein“ auch mit dem Begriff Diskriminierungsfreiheit in Verbindung gebracht, der im Kern bedeutet, dass Merkmale wie das Geschlecht, die Herkunft, die Hautfarbe oder die sexuelle Identität nicht zur Bewertung eines Menschen einbezogen werden sollten. In Artikel 3 des Grundgesetztes wurde diese wichtige Grundlage der Diskriminierungsfreiheit festgeschrieben, gleichwohl ist unsere Gesellschaft aber nicht diskriminierungsfrei. Bei der Diskussion um die Fairness von Algorithmen geht es also darum, ob automatisierte Entscheidungsfindung Diskriminierung, im Sinne unserer gesellschaftlichen Standards, entgegenwirkt, diese reproduziert oder sogar neue Ungleichheiten schafft.
Die meisten Algorithmen, die heute Anwendung finden, sind komplexe Systeme und können durch maschinelles Lernen permanent optimiert werden. Dieses Verfahren erlaubt es Algorithmen, Muster zu erkennen. In der Praxis bedeutet diese Mustererkennung z.B., dass ein Kreditinstitut anhand der bisher erfolgreich abgezahlten Kredite, die Kreditwürdigkeit eines Kunden einschätzt. Wichtigster Baustein von Algorithmen sind dabei die Daten, mit welchen ein Algorithmus trainiert wird. Die Trainingsdaten bilden die Grundwahrheiten von Algorithmischen Entscheidungssystemen (ADMS) und müssen die Realität so präzise wie möglich darstellen. Die Daten sollten, um auf das Fairness-Problem noch einmal zurückzukommen, vollständig diskriminierungsfrei sein, um einer Reproduktion von Ungleichheiten vorzubeugen.
Die Realität sieht gleichwohl anders aus. Ein bekanntes Beispiel für ein ADMS, welches nicht mit neutralen Daten trainiert wurde, ist eine Bewerber-Software des Online-Händlers Amazon, welche eingehende Bewerbungen nach Eignung einstuften sollte. Später wurde festgestellt, dass der Algorithmus Frauen benachteiligte. Die Datenbasis für das Training des Modells bestand aus Bewerberdaten der Vergangenheit, welche bereits Bewerbungen männlicher Bewerber bevorzugten. Anhand dieses Beispiels zeigt sich, wie hoch das Risiko ist, dass ADMS bereits bestehende Ungleichheiten reproduziert und somit keineswegs neutraler entscheiden, als ein menschlicher Recruiter es könnte.

Für die Fairness von Algorithmen ist zudem ein weiteres Thema zentral, und zwar das der Kausalität. Der Algorithmus muss in der Lage sein, reale kausale Zusammenhänge von zufälligen Korrelationen zu unterscheiden. Wie schon angesprochen, werden Algorithmen auch bei der Vergabe von Krediten eingesetzt, indem diese die Kreditwürdigkeit einschätzten. Der Algorithmus könnte erkennen, wie dies in der Vergangenheit aufgrund von bestimmten Trainingsdaten der Fall war, dass Bewohner eines bestimmten Stadtteils seltener ihre Kredite abbezahlen. In der Entscheidungsfindung würde der Algorithmus daraufhin den Wohnort als Kriterium einbeziehen und damit die Bewohner dieses Stadtteils benachteiligen, unabhängig von ihrer persönlichen finanziellen Situation. Es reicht nicht aus dem Algorithmus Merkmale wie Geschlecht, Religionszugehörigkeit, Rasse, Hautfarbe, Minderheitszugehörigkeit, nationale oder soziale Herkunft, sexuelle Identität, Alter oder Behinderung vorzuenthalten. Die genannten Beispiele und Ausführung zur Funktionsweise von Algorithmen und ADMS sind weitgehend kritisch und lassen an der Fairness der Entscheidungsfindung durch Maschinen Zweifel aufkommen.
Es ist wichtig anzuerkennen, dass Algorithmen lediglich komplexe technische Instrumente sind, welche den Menschen unterstützen. Es sind Menschen, welche entscheiden, wo und wann Algorithmen zum Einsatz kommen und anhand welcher Daten sie trainiert werden. Die Trainingsdaten müssen frei von Ungleichheiten sein, um den Algorithmus faire Entscheidungen treffen zu lassen. Allerdings ist auch das nicht ausreichend, denn automatisierte Entscheidungssysteme können durch falsche kausale Zusammenhänge neue Ungleichheiten hervorrufen. Es zeigt sich also zum einen, dass Algorithmen grundsätzlich nur so fair sind wie die Gesellschaft, in der sie entwickelt werden. Zum anderen sollten ADMS leichter zu kontrollieren sein, um der Entstehung falscher kausaler Zusammenhänge entgegenzuwirken. Die Offenlegung der Codes solcher Systeme würde die unabhängige Kontrolle unterstützen.
Marie Lauterbach