Bild: Gebrüder Beetz Filmproduktion
Zwei Männer zeigen, wie schlimm dieser Job wirklich ist.

Eine Frau schaut apathisch aus dem Fenster in die Nacht. Mit leiser Stimme erzählt sie von einem Bild. Darauf war ein sechsjähriges Mädchen zu sehen, das einem Mann einen blasen musste. Sie musste entscheiden: Verbannt sie dieses Bild aus dem Internet oder ignoriert sie es? 

Diese Szene stammt aus dem Dokumentarfilm "The Cleaners". Er erzählt die Geschichte Tausender, die in der philippinischen Hauptstadt Manila in Bürogebäuden sitzen und die Social-Media-Plattformen der westlichen Welt aufräumen. Wie geht es Menschen, die täglich Bilder von Gewalt sehen müssen?

Die sogenannten Content Moderatoren sind nicht direkt bei den Unternehmen angestellt, etwa bei Facebook oder Twitter, sondern arbeiten für Drittunternehmen, die von den Social-Media-Firmen beauftragt werden. Das ist günstiger, als ausschließlich eigene Mitarbeiter einzustellen, die sich um die Verwaltung kritischer Inhalte kümmern.

Aber vor allem: Offenbar soll niemand mitbekommen, dass Menschen, die nicht entsprechend ausgebildet sind und keine psychologische Betreuung bekommen, sich täglich mit verstörenden Inhalten auseinandersetzen müssen.

In Manila löschen sie Bilder, die auf Social Media gemeldet werden oder die von Algorithmen als verdächtig eingestuft werden. Sie laufen bei den Moderatoren über den Bildschirm, manchmal sind das über 20.000 Bilder pro Tag. Sie haben nur wenige Sekunden Zeit, um zu entscheiden, ob sie den Inhalt löschen und damit von der Plattform nehmen wollen, oder ob sie ihn ignorieren und er weiterhin online bleibt. 

(Bild: Gebrüder Beetz Filmproduktion)

Zwei Regisseure aus Berlin, Moritz Riesewieck und Hans Block, haben sich die Arbeitsbedingungen der philippinischen Lösch-Armee für "The Cleaners" genauer angesehen. Der Film läuft am 17. Mai in den Kinos an. 

Ausgangspunkt für die Recherche war das Bild eines missbrauchten Kindes, das im Jahr 2013 tausendfach auf Facebook geteilt wurde. Moritz und Hans fragten sich damals: Wer befreit eigentlich unsere sozialen Netzwerke von solchen Inhalten?

Moritz Riesewieck, Regisseur(Bild: Gebrüder Beetz Filmproduktion)

Anders, als sie zunächst angenommen hatten, sind nicht Algorithmen und Maschinen dafür verantwortlich, sondern Menschen, die eben in Entwicklungsländern angesiedelten Drittunternehmen arbeiten. Die meisten von ihnen sitzen auf den Philippinen. Und: Diese Menschen dürfen unter Androhung von Strafen nicht über das sprechen, was sie tun. 

Warum ist das so? Wie funktioniert die Arbeit der Content Moderatoren? Und warum darf niemand von ihnen wissen? Mit diesen Fragen haben die Regisseure sich auf die Recherche begeben.

Wie ist die Dokumentation entstanden?

Die Regisseure haben erst von Berlin aus recherchiert und versucht, einen Kontakt zu den Content Moderatoren herzustellen – erfolglos. Daher reisten sie mit einem Kamerateam nach Manila und bauten vor Ort ein Netzwerk aus Einheimischen auf, die sie zu den Content Moderatoren führten. Die Recherche dauerte ein Jahr

Im Gespräch mit bento sprechen Hans und Moritz über ihre Zeit auf den Philippinen und was sie dort herausgefunden haben. 

Warum arbeiten ausgerechnet auf den Philippinen so viele Moderatoren?

Hans: Das hat einerseits mit den Niedriglöhnen zu tun. Ein Moderator bekommt ein bis drei Dollar pro Stunde in einem Outsourcing-Unternehmen, das für Facebook arbeitet. Das ist ein Achtel dessen, was jemand in Deutschland verdienen würde. Die philippinischen Unternehmen werben außerdem mit einem Standortvorteil: Sie sagen, dass ihre Leute am besten wüssten, was die westlichen User mögen und was sie nicht mögen, als Folge von hunderten von Jahren Kolonisation. Über 300 Jahre haben die Spanier die Philippinen besetzt. Darum sind auch über 90 Prozent der Menschen auf den Philippinen Christen. Kolonisation wird noch einmal genutzt, um die Menschen dort auszubeuten. 

Wie habt ihr die Moderatoren vor Ort wahrgenommen?

Moritz: Wir haben Menschen getroffen, die erst einmal stolz waren auf das, was sie machen. Sie haben uns gesagt: "Ihr könnt euch gar nicht vorstellen, wie euer Netz aussähe, wenn wir hier für eine Stunde die Arbeit niederlegen würden."

Wir machen uns hier gar keine Vorstellung von diesen Inhalten. Das reicht von Sexualpraktiken mit Tieren, allen möglichen Vergewaltigungsvideos, übelstem Missbrauch an Kindern, bis hin zu Foltermethoden.

Die Menschen waren stolz auf das, was sie machen
Moritz

Das alles aber täglich anschauen zu müssen, hinterlässt Spuren. Manche von ihnen, die Terrorvideos sichten, trauen sich nicht mehr auf öffentliche Plätze oder können nicht mehr U-Bahn fahren. Andere müssen den ganzen Tag Vergewaltigungen sehen und wollen dann abends, nach der Arbeit, nicht mehr vom Partner angefasst werden.

Die schlimmste aller vorstellbaren Folgen ist der Selbstmord: Er ist keine Seltenheit, wie uns erzählt wurde. Diese Fälle werden dann als Einzelfälle und private Schicksale dargestellt und nicht als Folge des Jobs. Dass es keinen Zusammenhang gibt, ist natürlich Unsinn. 

Im Film sagt ihr, dass die Moderatoren ähnliche Symptome zeigen, wie Soldaten nach Kriegseinsätzen. Wir kommt ihr darauf?

Hans: Wir haben während der Recherche eng mit Psychologinnen und Psychologen gearbeitet. Sie berieten uns beim Umgang mit den Traumata der Arbeiterinnen und Arbeiter. Wir wollten natürlich auch verantwortungsvoll mit diesen Menschen umgehen. Die Ärzte haben uns bestätigt, dass die Symptome, die die Moderatoren haben, ganz ähnlich zu denen einer posttraumatischen Belastungsstörung sind.

In extremen Fällen sehen die Moderatoren acht bis zehn Stunden am Tag grausame Inhalte. Und sie haben keine Möglichkeit, das Gesehene zu verarbeiten, denn der Vertrag verbietet den Austausch darüber. Sie dürfen mit niemandem darüber sprechen, auch nicht mit Freunden und der Familie. Das schlimmste bei einem Trauma ist, es nicht zu artikulieren.

Hans Block, Regisseur(Bild: Gebrüder Beetz Filmproduktion)

Müssen die Menschen, die diesen Job machen, irgendwelche Anforderungen erfüllen?

Hans: Die Moderatoren werden oft auf der Straße rekrutiert. Einmal wurden wir während der Recherche sogar selbst angesprochen. Die Zielgruppe sind junge Leute, die gerade die Uni oder die Schule abgeschlossen haben, Berufseinsteiger im Alter von 18 bis 25 Jahren. Das sind junge Menschen, ohne viel Erfahrung. Man sitzt dann ganz schnell in einem Hinterzimmer mit einem Vertrag in der Hand für einen Job, der sich "Data Analyst" oder "Community Operation Analyst" nennt. Was sie wirklich tun müssen, erfahren sie erst bei einem drei- bis fünftägigen Training. 

Gibt es auch in anderen Ländern Content Moderatoren?

Ja, allerdings deutlich weniger als in Manila. Vor allem, seit über Hassrede – also die öffentliche Herabwürdigung von Menschen oder Menschengruppen auf Social Media – diskutiert wird, hat Facebook einige Mitarbeiter für die Kontrolle von Inhalten eingestellt, auch in Deutschland.

Doch wann immer die Plattformen es sich leisten könnten, vor allem bildbasierte Inhalte auf die Philippinen zu schicken und dort prüfen zu lassen, tun sie es, sagen die Regisseure von "The Cleaners". Das sei günstiger, als Menschen in Deutschland für diese Arbeit zu bezahlen.

Was lernen sie bei diesem Training?

Moritz: Dort werden ihnen Hunderte Guidelines von Facebook oder anderen Unternehmen vorgelegt, die sie auswendig lernen müssen. Sie müssen auch Symbole lernen, etwa von Terrororganisationen, welche Sprache und Sprüche sie verwenden, welche Militäruniformen sie tragen. Das ist in ein paar Tagen alles nicht zu schaffen.

Die Guidelines müssen sie nach dem Training wieder abgeben, weil die Unternehmen befürchten, dass sie sonst an die Öffentlichkeit kommen. Diese Menschen haben also gar keine Grundlage, um diesen Job wirklich gut zu machen. Letztlich – so haben uns die Moderatoren erklärt – entscheidet doch das Bauchgefühl. Es entscheiden also ganz viele Faktoren wie etwa: Was hat die Person an der Maus eigentlich geprägt? Welchen kulturellen, sozialen oder religiösen Hintergrund hat sie? 

Wir wollen aber doch, dass Facebook mehr Verantwortung übernimmt und nicht einfach jede und jeder sagen kann, was sie möchte, zum Beispiel menschenverachtende Dinge.

Hans: Das Problem ist nicht, dass es diesen Job gibt, das Problem ist, wer ihn macht. Ob Inhalte gelöscht werden sollen oder nicht ist sehr oft Auslegungssache. Ein einfaches Beispiel: Das Foto des sogenannten "Napalm Mädchens" aus dem Vietnamkrieg: Ein nacktes Mädchen rennt auf die Kamera zu, nachdem ihr Dorf attackiert wurde. Ein Moderator denkt sich: Die Richtlinien besagen, wenn ein nackter Mensch zu sehen ist, dazu noch ein Kind, muss das Bild gelöscht werden. Der Fall ist aber natürlich komplexer. Das ist ein zeitgeschichtliches Dokument. 

Das Problem ist nicht, dass es diesen Job gibt, das Problem ist, wer ihn macht
Hans

Facebook und Co. wollen uns glauben machen, dass es eindeutige Richtlinien gäbe, an die jedermann sich halten kann und damit ist die Sache erledigt. Die Wahrheit ist: Da müssen Menschen sitzen, die kulturhistorisches Hintergrundwissen und auch kulturspezifisches Wissen für die jeweiligen Weltregionen haben, aus denen die Inhalte stammen, die gut bezahlt und psychologisch betreut werden. Das ist natürlich kostspielig. Diesen Kostenfaktor wollen viele Unternehmen vermeiden – und das ist unverantwortlich.

Was für Konsequenzen hat es, wenn die Moderatoren Fehler machen?

Hans: Auf der einen Seite hat das Konsequenzen für die Menschen selbst. Es gibt eine Null-Toleranz-Politik, das heißt, wenn sie mehr als drei Fehler in einem Monat machen, werden sie gefeuert.

Auf der anderen Seite haben diese Fehler reale Auswirkungen. Ein Beispiel ist Myanmar. Dort ist Facebook praktisch das einzige Informationsmedium des Landes. Falschmeldungen und Hassrede, die nicht gelöscht wurden, sollen dazu beigetragen haben, dass der Hass auf die muslimische Minderheit des Landes, die Rohingya, geschürt wurde. Sie wurden täglich geschunden und vertrieben. Wenn ein Moderator das nicht erkennt, hat das katastrophale Folgen – das kann man in Myanmar deutlich sehen.

Nutzt ihr Social Media nach euren Recherchen jetzt anders?

Moritz: Wir löschen jetzt nicht einfach unsere Accounts, setzen uns in den Wald und schmollen. Im Gegenteil: Die Idee, Menschen weltweit miteinander zu vernetzen und ihnen eine Stimme zu geben, ist großartig. Aber wir sollten weitergehen: Statt passiver User zu sein, sollten wir zu digitalen Demokraten und Demokratinnen werden, die mitbestimmen, was im Netz erlaubt ist, wer und was dort vorkommen darf und wo wir Grenzen der Meinungsfreiheit sehen. Das dürfen wir nicht länger Unternehmen überlassen. Sonst stirbt die Demokratie schon bald den digitalen Tod.

Wie haben die sozialen Netzwerke auf eure Vorwürfe reagiert? 

Wir haben Facebook, YouTube und Co. kontaktiert, aber nie eine Rückmeldung bekommen. 

"The Cleaners" läuft ab dem 17.05. im Kino. 


Gerechtigkeit

Sachsen will seine Polizei-Panzer jetzt mit Maschinengewehren bestücken
Ja, es geht um die Panzer mit dem altdeutschen Logo.

Sachsen arbeitet derzeit an einem der härtesten Polizeigesetze Deutschlands. Die Beamten sollen unter anderem mit Handgranaten und Maschinengewehren ausgerüstet werden, wie erstmals im April bekannt wurde (bento).

Nun wird darüber diskutiert, wo genau die Waffen unter anderem zum Einsatz kommen. (Freie Presse)

Demnach soll der berüchtigte Panzerwagen "Survivor R" künftig mit Maschinengewehren bestückt werden.