Tiktok-Betreiber Bytedance: Ehemaliger Content-Moderator zeigt, wie streng China seine Onlinemedien kontrolliert

Beim Tiktok-Betreiber Bytedance helfen Content-Moderatoren dabei, Inhalte nach den Regeln des Regimes zu moderieren. Ein ehemaliger Moderator hat nun erstmals Einblick in die Praxis des chinesischen Unternehmens gegeben (Symbolfoto).

Beim Tiktok-Betreiber Bytedance helfen Content-Moderatoren dabei, Inhalte nach den Regeln des Regimes zu moderieren. Ein ehemaliger Moderator hat nun erstmals Einblick in die Praxis des chinesischen Unternehmens gegeben (Symbolfoto).

Peking. Li An hat sich nie wohl dabei gefühlt, Freunden von seinem ehemaligen Beruf zu erzählen. Viele seiner Kollegen sind hochgebildet und würden sich als politisch liberal umschreiben. Und dennoch halfen sie als sogenannte Content-Moderatoren für das chinesische Techunternehmen Bytedance dabei, politisch sensible Inhalte zu unterdrücken. „Wir fühlten alle, dass wir nichts dagegen tun konnten“, sagte Li An, der unter einem Pseudonym gegenüber dem US-Fachmedium „Protocol“ erstmals Einblicke in den Zensurapparat Pekings gibt.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Nirgendwo ist dieser umfangreicher als in der Volksrepublik. Plattformen wie Twitter und Facebook zu nutzen ist nicht möglich, Google und Wikipedia lassen sich nicht aufrufen. Und wer auf Suchmaschinen über das Tiananmen-Massaker 1989 recherchiert, wird keine Resultate finden. 2017 hat schließlich ein Cybersicherheitsgesetz die Verantwortung vornehmlich an private Techfirmen delegiert, ihre Inhalte auf Gesetzeskonformität hin zu überprüfen. Soziale Medien, die illegale Inhalte publizieren, müssen mit drakonischen Geldstrafen rechnen sowie dem Entzug ihrer Betriebslizenz. Solche Gesetze sind zwar weltweit üblich, allein schon, um gezielte Falschmeldungen oder Hassaufrufe zu vermeiden, doch in China schwingt immer auch die politische Komponente mit.

Algorithmus hilft Content-Moderatoren

Für Bytedance, Pekings wohl erfolgreichstes Start-up, das international die Videoplattform Tiktok betreibt, arbeiten rund 50 Software-Ingenieure, die hauptsächlich Algorithmen programmieren, um automatisch vermeintlich illegale Inhalte zu identifizieren. Zusätzlich beschäftigt das Start-up rund 20.000 sogenannte Moderatoren, die auf der untersten Ebene darüber entscheiden, ob bestimmte Nutzer gegen die Richtlinien verstoßen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Ohne technische Hilfsmittel würden sie den über 500 Millionen Nutzern in China, die täglich Videos anschauen und hochladen, ohnmächtig gegenüberstehen. Der Trick ist: Die Moderatoren werfen selbst bestimmte, als „problematisch“ eingestufte Videos in die Datenbank, die dann automatisch ähnliche Videoinhalte identifiziert. Bei sämtlichen Livestreams wird zudem die Audiospur der Nutzer automatisch in eine Textdatei umgewandelt. Diese wird dann mithilfe eines Algorithmus auf sensible Schlagwörter hin abgeglichen. Darauf basierend entscheidet dann das Programm, ob ein Videostream Überwachung erfordert oder nicht.

Die Kochtopfmetapher

„Was chinesische Nutzerplattformen am meisten fürchten, ist, es zu versäumen, politisch sensible Inhalte zu löschen“, sagt der ehemalige Bytedance-Zensor Li An. Das junge Start-up, dessen 37-jähriger Gründer Zhang Yiming kein Parteimitglied ist, verfügt zudem über kein Netzwerk zu hochrangigen Kadern in Peking. Heißt: Ein politischer Skandal kann schnell zum unternehmerischen Tod führen.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Doch manchmal schätzen die Zensoren des Landes die Lage auch falsch ein. Der bisher größte öffentliche Aufschrei in Chinas sozialen Medien ereignete sich in den frühen Morgenstunden des 7. Februar 2020, als das Zentralkrankenhaus Wuhan den tragischen Covid-Tod des „Whistleblower-Arztes“ Li Wenliang bekannt gab. Zunächst wurde es Onlinemedien verboten, über die Nachricht zu informieren. Trotzdem verbreiteten sich innerhalb weniger Stunden Trauerbekundungen über Li Wenliangs Tod sowie der Hashtag „Wir wollen Pressefreiheit“. Die Onlinegemeinde überlistete das System mit Codewörtern und Emojis, die für die Algorithmen nicht zu entschlüsseln waren.

Dass die Zensoren schlicht von der Flut an Kommentatoren überwältigt waren, ist fraglich. Wesentlich wahrscheinlicher passierte, was China-Beobachter mit der „Kochtopfmetapher“ bezeichnen: Die chinesische Zensur ist nämlich nur deshalb so effizient, weil sie stets ein gewisses Ventil zum Ablassen des öffentlichen Frusts offen lässt. Wie bei einem Kochtopf wird der Deckel hin und wieder einen Spalt offen gelassen – genau so weit, dass das kochende Wasser nicht überläuft.

RND

Mehr aus Digital

 
 
 
 
 
Anzeige
Anzeige
Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.

 

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken