Kino

"The Cleaners": Warum wir im Netz sehen, was wir sehen

Von den digitalen Putzkolonnen aus Manila: Mit "The Cleaners" gelangt ein Glücksfall ins Kino, der ein Stück Welt erklärt.

Geköpfte Menschen, vergewaltigte Kinder, Terrorpropaganda: Wer entscheidet, was wir auf Facebook, Twitter, Google und Youtube zu sehen bekommen? Der Dokumentarfilm "The Cleaners" findet darauf überraschende Antworten - in einem abgedunkelten Büro in Manila. Denn es sind nicht Algorithmen, sondern tausende junge Filipinos, die aus den sozialen Netzwerken zu filtern versuchen, was anstößig ist. Die Regisseure Hans Block und Moritz Riesewieck hatten ursprünglich für ein Theaterstück in Manila recherchiert, doch das Thema war zu groß für die Bühne allein. Nun hat Riesewieck das Buch "Digitale Drecksarbeit" (dtv) verfasst. Der aufwühlende Dokumentarfilm "The Cleaners" kommt jetzt ins Kino, ein unverpassbares Stück Gegenwartsbeobachtung über die verlogene Natur sozialer Netzwerke, über Demokratie, Meinungsfreiheit, psychische Gesundheit, Opferbereitschaft, Gier und Gewalt - und ein Glücksfall für Menschen, die das Internet im Jahr 2018 benutzen.

Wir nehmen meistens brav hin, was wir online vorgesetzt bekommen, und regen uns in vorgesehenem Maß darüber auf. Was hat Sie auf die Frage gebracht, wie diese Inhalte kuratiert werden? Hans Block: 2013 sind wir zum ersten Mal überhaupt auf dieses Thema aufmerksam geworden, durch ein Kindesmissbrauchsvideo, das auf Facebook gelandet ist. Wir haben uns gefragt: Warum passiert sowas eigentlich nicht öfter? Das Internet ist voller solcher Materialien, aber nicht so sehr die sozialen Medien. Zuerst dachten wir, das seien Maschinen oder Algorithmen, die das filtern. Die Medienwissenschaftlerin Sarah T. Roberts hat uns dann aber gesagt, das seien tausende Menschen, die vor dem Bildschirm sitzen und darüber entscheiden, was wir sehen sollten, was wir sehen und nicht sehen dürfen. Diese Leute sind unbekannt, das ist eine Industrie, die im Verborgenen liegt. Aber warum werden die geheim gehalten, wo sind die, was sind die Arbeitsbedingungen, wie sieht die Arbeit aus, was für Inhalte bekommen die auf diese Bildschirme? Wir sind dann mit einem Recherchestipendium nach Manila, gereist, aber lange war tatsächlich unklar, ob wir nicht einem Hirngespinst nachgereist sind.

Warum war das so schwierig? Block: Diese Dienste von Outsourcing-Firmen für Facebook, Google und Twitter werden nach Manila ausgelagert. Die Arbeiter sind extrem unter Druck, weil sie Verträge unterzeichnen müssen, die sie zum Schweigen verpflichten. Die Firmen tun alles, dass die Mitarbeiter nicht reden, sie beschäftigen private Polizei, die Accounts der Mitarbeiter werden gescannt, damit sie nicht mit Leuten außerhalb sprechen. Es wird unglaublicher Aufwand betrieben, diese Arbeit geheim zu halten. Als es uns dann doch gelungen ist, mit Mitarbeitern Kontakt aufzunehmen, haben wir zuerst einmal behutsam fast eine Art Freundschaft augebaut, bevor wir über die Arbeit reden konnten.

Moritz Riesewieck: Wir haben dafür eng mit einem Netzwerk lokaler Helferinnen und Helfer zusammengearbeitet. Du hast es ja immer mit einem Minenfeld zu tun, wenn du dich in einen kulturell sehr fremden Kontext begibst, da kannst du in viele Missverständnisse geraten. Uns gegenüber gab es anfangs auch großes Misstrauen, die haben uns für Industriespione gehalten.

Warum passiert das alles ausgerechnet in Manila? Riesewieck: Das haben wir uns auch gefragt, denn wenn man an Outsourcing digitaler Arbeit denkt, haben wir eher Indien erwartet oder Bangladesh oder Pakistan. Aber tatsächlich werben diese Firmen damit, dass die Filipinos aufgrund der Kolonialgeschichte - 300 Jahre waren die Spanier da, hundert Jahre die Amerikaner - jetzt vermeintlich gut einschätzen können, was die Westler mögen und was nicht, und das ist für diese Arbeit ja notwendig.

Besonders der Katholizismus, den die Spanier hingebracht haben, gilt da als Standortvorteil, das ist ja oft ein Argument für besondere Folgsamkeit, wie wir jetzt wieder bei Horst Seehofer sehen. Aber auf den Philippinen ist das tatsächlich ein interessanter Punkt, auch die jungen Leute sind enorm beeinflusst davon. Der Gedanke eines Sich-Aufopferns ist sehr präsent, und das Bild von Jesus, der am Kreuz gestorben ist für die Sünden der Welt.

Viele Moderatoren, die Sie interviewen, empfinden ihre Arbeit tatsächlich als Mission, als zu tragende Bürde. Das ist eine der größten Überraschungen im Film. Block: Der religiöse Aspekt ist tatsächlich sehr weit verbreitet. Fast für alle Content-Moderatoren, mit denen wir gesprochen haben, hat das auch einen Einfluss darauf, wie sie ihre Arbeit tun, ganz selbstverständlich, die sind halt so sozialisiert. Dazu kommt aber auch die politische Situation vor Ort: Vor zwei Jahren ist Rodrigo Duterte an die Macht gekommen, mit dem Wahlversprechen, aufzuräumen. "Ich werde hier sozial saubermachen"-- was defacto bedeutet, dass er jeden Abend Todesschergen auf Motorrädern losschickt, und all das aussortiert auf den Straßen, was nicht gesehen werden soll: Leute ohne Obdach, vermeintlich Kriminelle, Leute, die Drogen konsumieren oder verkaufen. Die werden dann einfach abgeknallt, und das ist auch eine Ideologie, die wir bei den Moderatoren immer wieder gefunden haben, die dann sagen, "wir machen eigentlich online nichts anderes, wir räumen hier mal schön auf, wir machen das soziale Netz sauber."

Das geht dann oft genug gegen verletzliche Minderheiten. Das, was eine Demokratie ausmacht, nämlich Minderheiten zu schützen, geht plötzlich verloren in so einem sozialen Netz, weil alles aussortiert wird, was vermeintlich anstößig sein könnte. All diese Punkte haben einen Rieseneinfluss auf unsere Gesellschaften, und darauf, wie die Welt gesehen wird. Und das ist erschreckend. Deswegen ist die Frage, wo das stattfindet, so wesentlich.

Bevor einer aufräumen kann, braucht es aber eine Einschulung, die erschreckend kurz ist. Waren Sie überrascht, wie viel da im Ermessen der einzelnen Moderatorin, des einzelnen Moderators liegt? Block: Die Hürde, eine Contentmoderatorin oder ein Moderator zu werden, ist tatsächlich sehr niedrig. Oft läuft der Bewerbungsprozess so ab, dass Leute auf der Straße rekrutiert werden, dann wird man einem kleinen Training unterzogen, unterschreibt einen Vertrag, und macht die Ausbildung für Contentmoderatoren, zwischen drei und fünf Tagen.

In diesen Tagen lernen die die vorbereiteten Regeln von den großen Unternehmen, die an diese Outsourcing-Unternehmen gesendet werden, und da passieren natürlich Fehler. Ein Beispiel: Da müssen etwa die Merkmale von den 37 Terrororganisationen gelernt werden, die von Facebook gebannt werden, also Symbole, Slogans, Aussehen, Kleidung und so weiter. Zusätzlich skandalös ist, dass die Entscheidungen über die Inhalte in wenigen Sekunden getroffen werden - ein Content-Moderator sagt uns im Film, er habe eine tägliche Quote von 25.000 Bildern abzuarbeiten. Wenn man das mal runterrechnet, bleiben drei, vier Sekunden für jede Entscheidung. Da funktioniert es nicht mehr, zu analysieren: Ist das jetzt Satire? Ist das Kritik, oder Propaganda, oder hat das Nachrichtenwert? Oder ist das zu verstörend, und muss deswegen gelöscht werden? Diese Entscheidungen im Sekundentakt auszulagern an junge Filippinos, die teilweise auch gar nicht den kulturellen Hintergrund wissen können von dem., was sie da gerade moderieren müssen, das führt nicht nur zu "bedauerlichen Fehlern", wie das Zuckerberg so gerne formuliert, wenn mal eine falsche Löschentscheidung publik wird, sondern ist eigentlich eine systematische Verkettung an Fehlern, die diesen Prozess eingearbeitet wird.

Ein ganz großes Paradoxon ist, dass Plattformen wie Facebook und Youtube ihren meisten Traffic über extreme Inhalte generieren, diese also bevorzugt werden. Hier wird aber vorgeblich versucht, genau solche Inhalte rauszufiltern. Wie ist das zu verstehen? Riesewieck: Facebook und Twitter betteln ja oft um Mitleid, wenn sie sagen: "Der Grund, weshalb wir das nicht hinkriegen das vernünftig zu löschen ist, weil ihr müsst euch doch einmal vor Augen halten, wie viel Content wir da ununterbrochen bekommen, und wie viel Missbrauch da stattfindet." Ja, gut, aber legt ihr es nicht eigentlich darauf an? Ist nicht das, was am meisten Traffic erzeugt, genau dieser Content? Wir halten das für eine bewusste Paradoxie, also dass man einerseits nach außen hin signalisiert "Wir arbeiten an dem Problem", aber in Wahrheit ändert man nichts an der Architektur, die genau darauf angelegt ist, um jeden Preis Traffic zu erzeugen, und da gehört extremer Content dazu, und auch jede Form von affektgeladenem Content, der dazu einlädt, kundzutun wie man sich gerade fühlt. Jede differenzierte Debatte hat da gar keine Chance mehr, und die Frage nach Quellen oder Kontext geht unter.

Gibt es eine ernstzunehmende Gegenbewegung? Riesewieck: Das Schlimme ist, wir lassen die ja auch immer davonkommen. Das war ja der reinste Kasperleverein, als Zuckerberg jetzt vor dem Europäischen Parlament war. Es ist ein großes Problem, wenn unsere Vertreterinnen und Vertreter einfach keine Ahnung haben. Da spricht man mit Politikern, und die vergleichen das Ganze mit der Leserbriefseite ihrer Tageszeitung. Da merkt man, dass strukturell gar kein Verständnis dafür da ist, was wir da vor uns haben. Wir haben es mit einer komplett neuen öffentlichen Infrastruktur zu tun, mit einer digitalen Öffentlichkeit, die zwischen gerade einmal drei, vier Unternehmen aufgeteilt ist.

Ist da nicht was schiefgelaufen? War das Internet nicht einmal ganz anders gedacht? Sollte das nicht eigentlich ein Emanzipationsprojekt für die Gesellschaft sein? Aber diese grundsätzlichen Fragen liegen bei uns, bei denen, die jetzt Nutzerinnen und Nutzer genannt werden, um zu sagen, "Nein, wir wollen digitale Bürgerinnen und Bürger werden." Aber dafür braucht es halt ein ganzes Stück mehr Engagement.

Film: The Cleaners. Dokumentarfilm, Deutschland 2018. Regie: Hans Block, Moritz Riesewieck.

Quelle: SN

Aufgerufen am 23.10.2018 um 05:13 auf https://www.sn.at/kultur/kino/the-cleaners-warum-wir-im-netz-sehen-was-wir-sehen-28947214

Kommentare

Schlagzeilen