„Hello! My name is Vera. I am a robot.” Dies sind wohl die ersten Worte, die Bewerber: innen im Chat oder Interview zu lesen oder zu hören bekommen, wenn der Bewerbungsprozess bei einem internationalen Großkonzern von „Robot Vera“ betreut wird. Robot Vera, entwickelt vom russischen Start- Up Stafery Ltd., ist ein auf künstlicher Intelligenz (KI) basierendes, algorithmisches Entscheidungssystem (AES). Vera kann, nach vorheriger Eingabe der benötigten Daten, Lebensläufe und Anschreiben analysieren und auf ihr „Matching“ zum Unternehmen prüfen. Sie setzt sich mit Bewerber: innen in Kontakt, vereinbart Gesprächstermine und kann selbständig, mit Hilfe einer Stimmerkennungssoftware, Videointerviews führen.

Die Zahl der Softwareprodukte, die speziell in der Personalrekrutierung ein-gesetzt werden, steigt zunehmend. HireVue8, Precire9, Wollmilchsau-7, SmartRecruiters und Prescreen sind nur einige Beispiele. Die Anwendung solcher Algorithmen hat sich im angel-sächsischen Raum bereits etabliert, wohingegen in Deutschland die breitere Nutzung erst beginnt. Doch schon heute ist sich die Wirtschaft sicher, dass KI zu-künftig in der Personalrekrutierung eine zentrale Rolle spielen wird. Die An-forderungen an das Recruiting sind in den letzten Jahren massiv gestiegen und im „War of Talents“ können solche Algorithmen das Pendel zu Gunsten der anwendenden Unternehmen ausschlagen lassen.
Das Versprechen der Anwendung solcher Software sind deutlich […]„effizientere, konsistentere und fairere Rekrutierungsprozesse“. „Big Data statt Bauchgefühl“. Durch den Einsatz von KI können zudem massive Geldeinsparungen realisiert werden. Dem Recruiting ist immanent, dass es ein sehr zeitaufwändiges, ressourcenbindendes Verfahren ist, welches […]„direkte wirtschaftliche Auswirkungen“[…] auf das Unternehmen hat. Neben der finanziellen Verschlankung besteht ein weiterer Vorteil der Nutzung darin, dass Recruiting-Algorithmen bei der Auswahl des geeigneten Personals „unbiased“ entscheiden. Wo menschliche Recruiter: innen, ob bewusst oder unbewusst, teilweise diskriminierende Entscheidungen treffen und somit soziale Ungleichheiten verstärken können, spielen Rasse, Hautfarbe, sozioökonomischer Background oder Bildungsniveau, keine Rolle für den objektiv operierenden Algorithmus. Diese Vorstellung ist eine sehr wünschenswerte Lösung für tiefgreifende Problemlagen auf dem Arbeitsmarkt.
Bei all der Euphorie um die Transformation des Recruitings durch KI werden jedoch auch Stimmen aus Wissenschaft, Politik und Medien laut, die diese Entwicklung kritisch betrachten. Eine der Kernfragen, mit der sich in diesem Diskurs auseinandergesetzt wird ist, ob solche Softwarelösungen wirklich „unbiased“ operieren können. „Der Algorithmus ist nur so gut wie die Annahmen, auf denen er basiert“. Dieser Satz von Professor Torsten Biermann, welcher an der Universität Mannheim zu Personalmanagement und Führung forscht, vermittelt die Idee der daran anknüpfenden Kernfrage: Wie und auf welcher Datengrundlage „lernen“ Algorithmen und wie sind diese Daten genau beschaffen? KI-basierte, selbstlernende Systeme treffen ihre Entscheidungen nicht auf Grundlage vordefinierter und spezifischer Regeln. Sie lernen auf Basis vorher eingespeister Trainingsdaten und entwickeln so ein eigenständiges Entscheidungsverhalten. Die Qualität der Entscheidung hängt somit von der Güte der Trainingsdaten ab. Ein weiterer, zu beachtender Umstand ist, dass auf KI-basierende algorithmische Entscheidungssysteme zu „Black Boxen“ entwickeln, da ihre Funktionsweise für die Anwender: innen, und im weiteren Verlauf selbst für die Programmierer: innen, nicht mehr nachvollziehbar ist. Damit können suboptimale Trainingsdaten und das „Black Box Dilemma“ Diskriminierungen und soziale Ungleichheiten sogar noch verstärken.

2018 wurde dem von Amazon genutzten Recruiting-Algorithmus ein „bias“ in der Auswahl der Bewerber: innen nachgewiesen: Der Algorithmus mochte keine Frauen. Der sich seit 2014 in der Entwicklung befindende Algorithmus prüfte anhand von Lebensläufen der Bewerber: innen deren Passung und bewertete diese mit einem bis zu fünf Sternen. Die Daten die in den Algorithmus eingespeist wurden, basierten auf Bewerbungen bei Amazon, über einen Zeitraum von zehn Jahren. Die meisten CVs kamen jedoch von Männern, da sich in der Anfangszeit vor allem Männer um Jobs bei Amazon beworben hatten. In der Konsequenz brachte sich das System bei, dass männliche Bewerber: innen zu bevorzugen sein. Auch ein aktueller Beitrag des Magazins „report München“ beschäftigte sich kürzlich mit den Chancen und Risiken der algorithmischen Personalgewinnung. Die Kernfrage des Beitrags war ethischer Natur: Ist das Einstellen durch KI fair und wo bleibt der „menschliche“ Faktor in diesem Prozess? In einem nicht-repräsentativen Experiment wurden mit elf Testpersonen Hunderte von Videos produziert. Die Bewerbungsvideos wurden von einer KI analysiert, Persönlichkeitsprofile erstellt und das „Matching“ auf die ausgeschriebene Stelle bewertet. Ergebnis des Tests: Der Algorithmus erstellte deutlich unterschiedliche Persönlichkeitsprofile, wenn die Personen beispielsweise ein Kopftuch oder eine Brille trugen. Dies kann man erneut als Beleg dafür sehen, dass in der derzeitigen Praxis Algorithmen in der Personalrekrutierung nicht nur den Unternehmen viel Zeit sparen, sondern auch bestehende Nachteile für bestimmte Gruppen nicht nur nicht reduzieren, sondern bestehende soziale Ungleichheiten und Diskriminierungen eher noch verstärken.
Vor diesem Hintergrund ist es ein Gebot der Stunde, dass wir stärker als bisher darüber in der Öffentlichkeit debattieren, wer KI-basierte Algorithmen programmiert und mit welcher Art von Trainingsdaten füttert. Denn bisherige Studien lege nahe, dass Wertvorstellungen und persönliche Lebenserfahrungen von menschlichen Programmierer: innen auf den Algorithmus übertragen werden. Aktuelle Studien z.B. für die USA konstatieren, dass diese Wertvorstellung weiß und männlich geprägt sind. Denn dort sind rund 72% der beschäftigten Programmierer: innen weiße Männer, 27% sind Frauen, ein geringerer Wert als im Jahr 1960. 4,5% der in führenden Tech-Unternehmen arbeitenden Programmierer: innen sind „People of Color“. Vor diesem Hintergrund beschäftigt sich aktuelle auch das europäische Parlament mit moralisch-ethischen Richtlinien, die den Einsatz von KI regeln sollen. In eine ähnliche Richtung argumentiert auch der Bundesverband der Personaler (BPM), der kürzlich forderte, dass es gesetzliche Richtlinien für den Einsatz künstlicher Intelligenzen geben muss. Reiner Hoffman, der Chef des Deutschen Gewerkschaftsbundes, führt weiter dazu aus, dass „es mehr Transparenz, Kompetenz und neue Mitbestimmungsregeln für eine präventive, betriebliche und soziale Folgeabschätzung braucht, um KI für gute Arbeit nutzen zu können“. Auch für Bewerber: innen muss die Funktionsweise des Algorithmus transparent sein, um ihnen ihre Ängste bezüglich KI zu nehmen. Denn für viele ist die Vorstellung beängstigend, dass ein Algorithmus autonomen und selbstständig „Entscheidungen“ trifft. Denn eines ist klar: Über den Arbeitsmarkt werden Lebenschancen vermittelt. Für Menschen hängt ihre Existenz von der Frage ab, ob sie den Job, auf den sie sich beworben haben, wirklich bekommen. Sollte diese Frage, die so essenziell den Verlauf eines Lebens einwirkt, von einem Algorithmus getroffen werden? Können „ungerade“ Lebensläufe und versteckte Soft Skills von einem Algorithmus detektiert werden? Wo bleibt die Menschlichkeit im Prozess? In einer Welt, die aus Daten besteht, sollte dort jede Form von menschlicher Interaktion digitalisiert werden?
Kevin Hanelt