Content-Moderation: Wer moderiert hier eigentlich wen?

Photo by Tianyi Ma on Unsplash

Das Internet ist bunt, es ist nahezu allgegenwärtig und oft überfordernd. Billionen von Informationen versprechen den Usern unendliche Weiten. Beiträge werden geliked und geteilt und damit verbreitet: Von Katzen-Videos bis zu wissenschaftlichen Informationen kennt das Internet keine Grenzen. Auf gleichem Wege werden aber auch Themen wie Verschwörungstheorien oder sogar illegale Inhalte Beiträge der Öffentlichkeit zugänglich gemacht.

Letzterem widmen sich Menschen, die im Auftrag von Facebook, Google und Co. Webinhalte filtern und unzumutbare, unangebrachten Posts und Uploads löschen: Content-Moderator*innen. Sie sind die wahren Hidden Heroes der sozialen Netze, denn sie überprüfen und löschen auch jene Inhalte, die bei Nutzer*innen psychische Folgen bis hin zu Suizidgedanken hervorrufen könnten. Content-Moderation wird meist ausgelagert und findet unter oft schlechten Arbeitsbedingungen in Ländern wie den Philippinen oder Indien statt. Aber auch in Berlin und Essen arbeiten rund 1.000 Facebook-Content-Moderator*innen für Firmen wie die Bertelsmann-Tochter Arvato.

Auch Content-Moderator*innen sind von Corona-bedingten Kontaktverboten betroffen: Die Sichtung brutaler Videos und gewaltverherrlichender Posts im unfreiwilligem Wohnzimmer-Home-Office womöglich neben Schulkindern, die ihre Schulaufgaben erledigen?  Unvorstellbar. Die Content-Plattform-Unternehmen forcieren u.a. daher für das Filtern der Inhalte im virtuellen Raum die Verwendung von algorithmischen Systemen und Künstlicher Intelligenz (KI), da Maschinen schneller größere Informationsmengen bearbeiten können, als es ihren menschlichen Counterparts möglich wäre.

Twitter-Post von Guy Rosen (Vizepräsident des Produktionsmanagement bei Facebook)

Die Fehlbarkeit von automatisierten Systemen macht ausgerechnet die Pandemie deutlich: Diverse Posts zum Thema COVID-19 identifizierten die Algorithmen fälschlicherweise als Spams und zensierten sie. Auf diese Weise tragen sie nur weiter zur Infodemie, sprich, der Verbreitung von Fehlinformationen im Zuge der Pandemie, bei. Im Artikel Algorithmic content moderation: Technical and political challenges in the automation of platform governance widmen sich Robert GorwaReuben Binns und Christian Katzenbach (2020) weiteren möglichen Auswirkungen der automatisierten Content-Moderation. Sie verweisen darauf, dass die Richtlinien und Regeln, nach denen die automatisierte Content-Moderation filtert, immer undurchsichtiger werden. Denn selbstlernende Maschinen machen es immer schwieriger nachzuverfolgen, was sie gelernt haben und welche Konsequenzen diese Lernprozesse haben werden.

Aktuell geht die Entwicklung hin zum so genannten Overblocking, dem systematischen Löschen und Verhindern von Online-Content auf der Grundlage von Regeln und Vorgaben, die keine Ausnahmen erlauben. Ein Beispiel ist das Löschen von Kunst- oder Satire-Beiträgen, die vermeintlich gegen Grundsätze der Plattformen, auf denen sie gepostet wurden, verstoßen. So wurde ein Tweet des Autors Tom Hillenbrand gelöscht, welcher sich auf die Europawahl 2019 bezog. Twitter argumentierte, der Beitrag verstoße gegen interne Richtlinien zu Wahlmanipulation. Das Landgericht München sah hingegen in Hillenbrands Tweet einen satirischen Beitrag, welcher durch das Recht auf freie Meinungsäußerung geschützt sei. Unternehmen wie YouTube und Facebook haben inzwischen eigene Abteilungen eingerichtet, bei denen ihre Nutzer*innen Beschwerde für solche mutmaßlich zu Unrecht gesperrten oder gelöschten Beiträge einreichen können. Eine außergerichtliche Lösung dieser Dispute ist nicht immer möglich. Die zunehmende Automatisierung von Content-Moderation und die damit einhergehende Intransparenz kann und wird wahrscheinlich zu einer Zunahme von Overblocking führen, ist es für Maschinen doch (noch) zu schwierig, die komplexen Nuancen von Satire, Kunst und Humor zu erkennen.

Die Automatisierung von Content-Moderation könnte darüber hinaus zu einem subtileren Problem, ja zur gewollten aber auch zur unabsichtlichen Manipulation der User führen, indem sie zur Reproduktion von sozialen Ungleichheiten und Diskriminierung beiträgt. Wenn die Moderation komplett automatisiert wird, ordnen Algorithmen auch Inhalte, die mit Kategorien wie Gender, Alter oder ethnischer Zugehörigkeit in Verbindung gebracht werden, unterschiedlich zu und bewerten diese. Als Beispiel nennen Gorwa et al. (ebd., S.11) die Möglichkeit, dass bei der Identifizierung von Hassreden nach Wörtern gefiltert wird, die vornehmlich von einer bestimmten sozialen Gruppe verwendet werden. Die Content-Moderation trägt also im Zweifelsfall nicht nur zur (Un-)Sichtbarkeit von bestimmten sozialen Gruppen bei, sondern unterstützt auch die Reproduktion bestehender Vorurteile. Ebenso nehmen die Plattformunternehmen Einfluss auf die Verbreitung terroristischer Organisationen. Facebook hält sich beispielsweise zugute, dass es 99,6% terroristischer Propaganda Einhalt gebietet, doch wird auch hier nicht deutlich, welche Organisationen in die Kategorie Terrorismus fallen (ebd., S.12).

Photo by Annie Spratt on Unsplash

Diese Probleme der Content-Moderation sind nicht neu, doch kann aufgrund der zunehmenden Intransparenz automatisierter Systeme davon ausgegangen werden, dass sich diese Probleme verschärfen werden, und das obwohl in den letzten Jahren eine Entwicklung hin zu mehr Transparenz von Seiten der Unternehmen zu erkennen war. Es ist nach wie vor wichtig, Plattformunternehmen in die Verantwortung gegenüber ihren Nutzer*innen, aber auch gegenüber der Gesellschaft, zu nehmen. Besonders in Bezug auf die Content-Moderation braucht es einen öffentlichen Diskurs. Dies sollte auch im Interesse der Plattform-Unternehmen liegen. Für ein Vertrauen in die Unternehmen müssen sie mehr Transparenz herstellen und selbst in die Verantwortung gehen. Bieten sie doch sonst noch mehr Angriffsfläche für (teils abstruse) Anschuldigungen, wie die des US-amerikanischen Präsidenten Donald Trump, der soziale Medien am liebsten verbieten wollen würde, sollten sie weiterhin Faktenchecks durchführen.

Serafina Löber

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

%d Bloggern gefällt das:
search previous next tag category expand menu location phone mail time cart zoom edit close