3 Abos und 6 Abonnenten
Artikel

"The Cleaners" - Die schockierende Realität hinter deinem Facebook-Feed | Wienerin

Zehntausende "Content-Moderatoren" in Manila löschen im Auftrag von Facebook täglich abstoßende Inhalte, die gegen die Richtlinien des sozialen Netzwerks verstoßen. Das ist nicht nur moralisch bedenklich, sondern gefährdet unsere Demokratie, wie der Dokumentarfilm "The Cleaners" aufdeckt.


Vor 15 Jahren entwickelte Mark Zuckerberg Facebook, ein soziales Netzwerk, das mittlerweile nicht nur die ganze Welt miteinander verbindet, sondern auch zur digitalen Leitkultur geworden ist. Facebook hat Menschen die Macht gegeben an politischen Verhältnissen zu rütteln, manchmal auch sie niederzureißen. Lange Zeit lief das für Facebook auch gut. Die NutzerInnenzahlen stiegen stetig, die Werbeeinnahmen wurden immer höher. Täglich werden mehr und mehr Inhalte auf das soziale Netzwerk hochgeladen.

Was der junge Zuckerberg bei seiner Idee damals, 2003, nicht bedacht haben konnte, ist, welchen Einfluss Facebook auf unser digitales Handeln haben würde. Heute gehen wir selten direkt auf Websites, um uns zu informieren. Zuerst gehen wir auf Facebook. Und was genau wir sehen, bestimmen nicht wir, sondern Facebook (bzw. der geheime Algorithmus, den Facebook dafür entwickelt hat).

Facebook hat schon längst die Funktion eines modernen Gatekeepers eingenommen. Was früher erfahrene JournalistInnen gemacht haben, nämlich über Nachrichten und ihren Wert entschieden, erledigt nun das soziale Medium für uns. Und hat damit eine demokratiepolitische Macht, die vielen nicht einmal bewusst ist.

Aber nicht alle Inhalte, die auf Facebook geladen werden, landen auch in unserem Feed – und das ist auch gut so. Enthauptungsvideos, explizit sexuelle Inhalte, Aufrufe zu gewalttätigen Handlungen, etc. werden, zumindest im Idealfall, von Facebook gelöscht. Vorgänge, die hinter der Wahrnehmungsgrenze der NutzerInnen vor sich gehen, um die sich die wenigsten NutzerInnen Gedanken machen - bis einmal etwas schief geht.

Im Jahr 2013 ging wie so oft wieder einmal etwas schief. Ein Video von Kindesmissbrauch machte damals im sozialen Medium die Runde, erreichte Tausende von Menschen, wurde 16.000 Mal geliked, bis es irgendwann endlich gelöscht wurde. Auch Moritz Riesewieck und Hans Block erlebten die Aufregung rund um das Video und fragten sich schließlich: Wer sind eigentlich diejenigen, die bei Facebook darüber entscheiden, was okay ist und was nicht? Aus der Frage nach dem Warum entstand die Idee für ein Filmprojekt, das im Sommer Premiere in den heimischen Kinos feierte und am Sonntag (16.9. 23.00) im ORF erstausgestrahlt wird. „The Cleaners“ blickt hinter die Kulissen der nicht ganz so fehlerfreien Facebook-Welt und zeichnet ein düsteres Bild über die Arbeitsbedingungen derjenigen, die tagtäglich „böse“ Inhalte von der Plattform nehmen, den so genannten "Content Moderatoren".


Im Interview mit der WIENERIN sprechen die Filmemacher über die Hintergründe des Films und demokratiepolitische Bedenken: "Wir haben uns gefragt, ob hinter den gelöschten Inhalten ein automatisches Bildersystem steckt. Wir haben immer angenommen, dass das automatisch von Maschinen gehandhabt wird. Irgendwann stellt man aber fest, das funktioniert ja gar nicht - da gibt es zu viele Grauzonen, die eine Maschine gar nicht erfassen könnte - selbst heute nicht ", so Moritz Riesewieck. Während ihrer Recherche stießen sie auf riesige Content-Moderations-Firmen, die auf den Philippinen für einen großen Teil der moderierten Inhalte großer Internetunternehmen wie Facebook, Yahoo, Google oder Tinder verantwortlich sind.


 Was macht Facebook auf den Philippinen?

Die Philippinen haben sich in den letzten Jahren als Hotspot für digitale Drecksarbeit, also das Moderieren von potenziell gefährlichen Inhalten wie Enthauptungen, Selbstmordversuchen, aber auch "harmloseren" Inhalten wie Hassreden oder sexuellen Inhalten, etabliert. Die großen Internetfirmen engagieren billige Outsourcing-Unternehmen, um gefährliche Inhalte zu löschen. Mittlerweile arbeiten zehntausende Menschen täglich stundenlang daran, Inhalte aus dem Web zu entfernen, die wir, im Westen, nicht sehen dürfen. "Outsourcing Unternehmen argumentieren damit, dass Filipinos am besten wüssten, was westliche User mögen und ihre Werte kennen. Die Filipinos wurden schließlich hunderte Jahre lang von den Spaniern und später von Amerikanern kolonialisiert und besetzt. Der Umstand, dass sie dadurch solange mit europäischer/amerikanischer Kultur in Verbindung kamen soll ihnen helfen einzuschätzen, was wir wollen", erklärt Co-Regisseur Hans Block. "Uns ist sehr schnell klar geworden, dass die Behauptung, sie wären uns ja so ähnlich, alles andere als wahr ist. Über 95% der Menschen dort sind zwar Christen, das hört sich erstmal ziemlich westlich an, aber die leben ihre Religion ganz anders aus. Da gibt es eine Stunde östlich von Manila jährlich Kreuzigungen, viele posten Bibelpsalme auf ihre Facebook-Timelines. Für viele der jungen Content Moderatoren spielt der Katholizismus eine extreme Rolle - manche begreifen den Job dann auch als eine Art Mission"

Riesewieck erzählt von jungen Moderatoren, die ihren strengen katholischen Glauben auf ihre Arbeit übertragen. Es geht darum, das Internet zu säubern und von "Sündern" zu befreien. "V iele sagen dann: ch tue es Jesus gleich, der am Kreuz gestorben ist, für die Sünde der Welt. Ich kann etwas von meinem Seelenheil, das dabei mit draufgeht, in Kauf nehmen, wenn ich dabei helfen kann die Sünden der Welt aus dem Netz zu fischen". Dass auf den Philippinen derzeit mit Rodrigo Duterte ein Präsident im Amt ist, der mit seinen "Säuberungsaktionen" gegen Drogenhändler und (vermeintliche) Kriminelle bei der Bevölkerung sehr beliebt ist, würde ebenfalls großen Einfluss auf die jungen Moderatoren üben.


 Nicht viel denken, löschen!

Dass die Filipinos in ihrem Werteverständnis derart streng katholisch geprägt sind, passt den puritanisch-gesinnten Amerikanern freilich gut ins Bild. Innerhalb weniger Tage bekommen die MitarbeiterInnen dieser Firmen einen Crashkurs in Sachen "westlicher" Content-Moderation. Kein Wunder, dass beim Löschen tausender Bilder pro Tag ohne entsprechendes Wissen über Publizistik, Persönlichkeitsrecht, Quellenprüfung und Nachrichtenfaktoren regelmäßig Fehler passieren. "Facebook behauptet trotzdem immer, sie hätten alles unter Kontrolle. Wenn jemals der gegenteilige Eindruck aufkommt, heißt es 'No no, we can fix it. We will follow up with the team - das war nur ein bedauerlicher Einzelfehler'. Damit schaufeln die sich eigentlich ihr eigenes Grab. Das können die gar nicht halten, bei so einer Größenordnung" warnt Block. Zwar würde Facebook seine Richtlinien "wöchentlich" anpassen und nach einem öffentlich Aufschrei über die ein oder andere Löschung auch reagieren, dies sei aber zu wenig. "Sie laufen hinterher und versuchen es immer zu reparieren, erkennen aber nicht, dass das eigentlich zum Scheitern verurteilt ist, weil einheitliche Richtlinien für die Welt nicht machbar sind, solange sie diese nicht mit den Nutzern diskutieren".

Zuhause dürfen die Moderatoren nicht über ihre Arbeit sprechen, die ist streng geheim - wer redet, droht mit einer hohen Geldsumme bestraft zu werden, manchmal drohen die BetreiberInnen sogar mit dem Gefängnis. "Wenn eine Öffentlichkeit grundsätzlich anfängt darüber nachzudenken, nach welchen Richtlinien dort zensiert wird, stößt man schnell darauf, dass vieles nicht objektiv, unabhängig und universell zu handhaben ist und dass es immer aus einer gewissen Prägung, einem gewissen Kulturkreis, heraus definiert wird. Da müssen Menschen sitzen, die das interpretieren - und das ist dann immer irgendwie willkürlich. Das ist das Grundproblem, wenn man so ein Netzwerk mit einheitlichen Standards für die ganze Welt machen will", resümiert Riesewieck.


 Es geht schon lange nicht mehr um Katzenvideos

Wollte man das Problem seitens Facebook wirklich lösen, müsste man viel mehr in die Content-Moderation investieren. Geschultes Personal, psychologische Betreuung und ein sensiblerer Umgang mit den zu löschenden Inhalten wäre ein erster Schritt. Grundsätzlich sei zu hinterfragen, inwiefern man Privatunternehmen, die profit- und werbeorientiert arbeiten, überhaupt mit einer derart sensiblen Aufgabe als digitaler Gatekeeper betrauen dürfte - oder ob es nicht ein Pendant aus öffentlicher Hand bräuchte, fragt sich Riesewieck.

Es geht hier ja nicht mehr Kleinigkeiten, um Urlaubsvideos oder Katzenbilder, sondern im Zweifelfall um Bilder wie aus dem Vietnamkrieg oder Mohammedkarikaturen - das sind Bilder, die können Konflikte auslösen oder schlichten. Das kann Brandherde hervorbringen. Solche Entscheidungen kann man nicht irgendwie aus dem Bauchgefühl treffen", warnt Block. Eine Reihe an Regierungen, wie die Türkei, würden Facebook mittlerweile dazu animieren, unliebsame Inhalte von der Plattform zu nehmen. Dies sei auch demokratiepolitisch mehr als bedenklich.

„Go fast and break things" war das Motto von Facebook, als das Unternehmen zu expandieren begann. Es bleibt zu hoffen, dass sie am Weg dorthin nicht zu viel zerstört haben.

Zum Original