Content Moderators – die unsichtbaren Reinigungskräfte des Internets

Sie überprüfen unsere Sozialen Netzwerke auf Hass-Videos, Gewalt und Missbrauch. Jeden Tag filtern sie hunderte Stunden an Video-Material, damit wir sie nicht sehen müssen. Ihr Job ist unsichtbar für die Meisten, leider ist das von den Tech-Unternehmen so gewollt. Content Moderator*innen haben kaum eine Lobby. Dass muss sich ändern.

Trigger-Warnung: In diesem Artikel geht es um explizite Inhalte wie Gewalt, sexuellen Missbrauch, Hass-Rede und Mord. Wer sich von diesen Themen sensibel berührt fühlt oder selbst vergleichbare Traumata erlebt hat, sei davor gewarnt, weiterzulesen. Im Text sind auch Videos verlinkt, die das Erlebte von Betroffenen schildern. In diesen Videos sind teilweise verstörende Bilder zu sehen und/oder Geräusche zu hören.

Wer auf YouTube, Tik Tok, Twitter, Instagram oder Facebook Inhalte teilt oder konsumiert, lebt in einer Blase. Nicht nur einer Blase des eigenen Nutzerverhaltens, dass von Algorithmen ausgelesen, berechnet und mit entsprechend passenden Inhalten angereichert und verlinkt wird, sondern auch in einer Wohlfühl-Blase. Denn selten bis nie werden wir, die wir diese Dienste zum gegenseitigen Austausch oder solitären Konsum von Medien nutzen, mit der hässlichen Seite der Menschheit konfrontiert – mit dem Abgrund all dessen, wozu Menschen fähig sind. Mit dem Töten von Hundewelpen beispielsweise; oder der Vergewaltigung eines sechsjährigen Mädchens; oder der der Enthauptung eines Menschen.
All diese Dinge, die so einfach aufgereiht in einem Satz stehen, deren singuläre Schrecklichkeit allein jeweils einen eigenen Abschnitt in diesem Text verdient hätte, all diesen Dingen sind sogenannte Content Moderators tagtäglich ausgesetzt. Diese Berufsbezeichnung, die irgendwie nach Inhalt und irgendwie nach Moderation klingt, verschleiert schon im Namen ihre Bedeutung: Die Moderator*innen machen den ganzen Tag nichts anderes, als Videos, Bilder und Text-Posts nach gefährlichen, propagandistischen, gewaltverherrlichenden und schlicht traumatisierenden Inhalten zu durchsuchen, damit diese nicht an die Öffentlichkeit gelangen. Meist haben die Arbeitenden dazu wenig Zeit, müssen innerhalb weniger Sekunden entscheiden, ob ein Inhalt gesperrt werden muss oder nicht, ob er den Ethik-Richtlinien der Firma entspricht oder jenen des Staates, in dem der Mensch arbeitet. Bei schlechter Bezahlung, mangelnder bis gar keiner psychologischen Betreuung und einem enormen Druck durch die Firmen, so wenig wie möglich über diesen Job zu sprechen, sind die Arbeitenden in diesem Bereich weitestgehend unsichtbar, auf sich allein gestellt und der Willkür ihrer Vorgesetzten ausgeliefert. Meist sind diese Firmen Sub-Unternehmen oder Dritt-Firmen, die von den großen Tech-Unternehmen wie Meta (Facebook, Instagram) oder Google (YouTube) engagiert werden, um diese schmutzige Arbeit aus dem eigenen Firmen-Portfolio herauszuhalten. Niemand räumt gerne stinkenden Müll weg. Content Moderator*innen sind als digitale Putzkräfte in unserer gesellschaftlichen Wahrnehmung ähnlich marginalisiert wie die ‚analogen‘, die unsere Raststätten und Einkaufszentren sauber halten.

Das Thema Content Moderation ist seit Kurzem verstärkt in den Fokus der Öffentlichkeit gerückt, weil sich weltweit vermehrt Menschen zu Wort melden, die in diesem System arbeiten oder gearbeitet haben, die unter massiven psychischen Belastungen leiden, unter Schlaflosigkeit, post-traumatischen Belastungsstörungen oder Depressionen. Denn das Gesehene und Geschehene gräbt sich tief ein ins Unterbewusstsein und hinterlässt dort Spuren, psychische Verletzungen.

Bereits 2018 erschien mit The Cleaners Ein Dokumentarfilm über das Thema Content Moderation, der kostenlos bei der Bundeszentrale für politische Bildung angesehen werden kann. Hier schildern Menschen aus dem ostasiatischen Raum, unter welchen Bedingungen sie arbeiten müssen, wie die Arbeit ihr Leben beeinträchtigt und wie wenig Hilfe sie bekommen, um mit dem Gesehenen fertig zu werden. Es ist von schwerer Traumatisierung die Rede, von schädigender Persönlichkeitsveränderung, von Selbstmord im Kollegium. In Manila, der Hauptstadt der Philippinen, wo eines der größten dieser ‚Löschzentren‘ beheimatet ist, arbeiten allein tausende Menschen als Content Moderator*innen, hauptsächlich zur Prüfung von Inhalten aus Europa und den USA.

Diese Menschen versuchen, das öffentliche Bewusstsein für dieses Thema zu wecken und auf die Arbeitsbedingungen aufmerksam zu machen. So etwa Daniel Motaung, der jahrelang bei einem Auftragnehmer von Meta in Nairobi, Kenia gearbeitet hat und der nun dafür kämpft, dass sich die Arbeitsbedingungen verbessern, angemessene Vorbereitung auf den Beruf ermöglicht wird und dass es neben einer professionellen psychologischen Betreuung auch gewerkschaftliche Organisation in den Betrieben gibt. Motaung zog dafür vor das kenianische Verfassungsgericht, den er wurde nach dem Versuch, eine Gewerkschaft zu gründen, schlicht entlassen. Zu den genannten Problemen kommt also noch Union Busting dazu. Ähnliches widerfuhr auch Cengiz Haksöz, der in Essen beim kanadischen Unternehmen Telus arbeitete, um dort unter anderem Facebook-Inhalte zu moderieren. Fünf Jahre lang macht Haksöz das bereits, ist psychisch und physisch ein gebrochener Mensch. Nachdem er im Juni 2023 bei einer Anhörung des Aussschusses für Digitales des Bundestags gemeinsam mit Daniel Motaung die Arbeitsbedingungen anprangerte, würde er von Telus freigestellt und ihm der Zutritt zu den Arbeitsräumen verwehrt. Als gewählter Wahlvorstand einer ausstehenden Betriebsratswahl ist dies aber verfassungswidrig, deswegen klagte Haksöz mit Hilfe von ver.di und NGOs vor dem Arbeitsgericht. Mittlwerweile darf er die Räume wieder betreten, auch wenn es Telus nun mit einer einfachen Kündigung versucht. Neben all diesen Fakten berichtet Haksöz auch noch von einem traurigen wie dramatischen Nebeneffekt, der sich als Gewohnheit in den Arbeitsalltag eingeschlichen hat: Nach Dienstschluss sagen sich die Kolleg*innen nicht „Auf Wiedersehen“, sondern „Gute Besserung“.
Allein in Deutschland arbeiten etwa 5.000 Menschen als Content Moderator*innen. Die meisten von ihnen sind aus dem Ausland Hinzugezogene, gut ausgebildete Arbeitskräfte, die aber aufgrund noch mangelnder Sprachkenntnisse in ihren Berufen keine Anstellung finden. Cengiz Haksöz beispielsweise ist Doktorand der Anthropologie. Aus Angst vor Abschiebung, die ohne Arbeitsnachweis mehr als wahrscheinlich werden kann, nehmen sie die Jobs als digitale Reinigungskräfte an, meist ohne genau darüber informiert zu werden, was sie dort eigentlich erwartet. Neben der psychologischen und arbeitsrechtlichen Komponente kommt also nun auch noch eine potenziell rassistische hinzu, die wiederum stark an das Schicksal von Toiletten-Reinigungskräften erinnert: Gut genug, um unseren Müll wegzuräumen, sind sie dann doch. Müll, den wir Menschen digital wie analog in gigantischen Mengen mit produzieren.

Der Eingangstext zu The Cleaners macht das Ausmaß dessen, was moderiert werden muss, klar: „Jede Minute werden 500 Stunden Video auf YouTube hochgeladen, 450.000 Tweets auf Twitter und 2.5 Milliarden Posts auf Facebook.“ (The Cleaners, 2018, Minute 00:30). Menschen wie Cengiz Haksöz und Daniel Motaung sind in wenigen Jahren tausenden Stunden an Material ausgesetzt gewesen, dass an Gewalt und Abscheulichkeit nicht zu überbieten ist. Alles Perverse und Abartige, zu dem Menschen fähig sind, sehen sie Tag für Tag. Sie müssen Dinge gesehen haben, von denen wir, dank ihnen, nicht einmal die geringste Vorstellung haben, dass es so etwas geben kann. Ihr Leiden darf nicht unsichtbar bleiben, ihr Recht auf angemessene Vorbereitung, Bezahlung und vor allem psychologische Betreuung in diesem Beruf muss mit äußerster Dringlichkeit in unsere digitalisierte Welt getragen werden. Denn die vielen Menschen, die weltweit schätzungsweise in die Hunderttausende gehen, die aus Mangel an Alternative, aus Angst vor Abschiebung oder Armut diese Jobs für uns alle machen, werden ihr Leben aktuell so sehen wie Daniel Motaung, der die Auswirkung seiner Arbeit auf ihn als Mensch bezeichnend klar auf den Punkt bringt: „Ich lebe in einem Horrorfilm.

Weitere Artikel

Was uns Dunkler Sauerstoff über uns selbst erzählt

Die Erkenntnis, das Sauerstoff in den tiefsten Abgründen des Meeres anorganisch entstehen könnte, beschäftigt aktuell die Wissenschaftswelt. Es verrät uns auch auf vielfältige Weise etwas

Geht das schief?

Europawahl, Landtagswahl, US-Wahl. Die westliche Welt erlebt 2024 eine politische Zäsur: Das erste Mal seit dem Zweiten Weltkrieg vollziehen sich innerhalb kürzester Zeit in wichtigen

TheBigWe

Helmut Klöpping 

Markstraße 10

26725 Emden

h.k.bbb-beratung@web.de

TheBigWe ist eine Initiative der BUS Emden GmbH