Faustdicker Skandal rund um Social-Media-Plattform TikTok. Wie Recherchen ergaben, nutzt die App einen Wortfilter. Und der scheint ziemlich willkürlich zu agieren. Das Unternehmen räumte nun massive Fehler ein.
TikTokErschreckende Studie: So willkürlich zensiert die China-App unser Verhalten
TikTok hat sich von der nischigen Trend-App zur ernstzunehmenden Social-Media-Plattform gemausert, die besonders von den Smartphones der 14 bis 29-Jährigen kaum noch wegzudenken ist.
Dass das chinesische Unternehmen seit geraumer Zeit im Verdacht steht, gezielt Inhalte zu zensieren, ist keine neue Nachricht. Schon oft wurde darüber debattiert. Wie schwer das Ausmaß der Zensur-Strategie aber wirklich ist, zeigt nun die Recherche des NDR, dem WDR und der Tagesschau. Denn die Situation ist weitaus ernster, als zuvor angenommen.
TikTok: Wortfilter greift bei Wörtern wie „schwul“, „queer“, „LGBTQ“ und „Auschwitz“
Wie die Recherchen ergaben, macht sich TikTok einen gezielten Wortfilter zunutze, der die freie Meinungsäußerung seiner Nutzer und Nutzerinnen massiv beeinträchtigt. Der Mechanismus verhindert schlicht und ergreifend, dass bestimmte Kommentare unterhalb der TikTok-Clips sichtbar werden.
Da die jeweiligen Nutzer und Nutzerinnen allerdings nicht darüber informiert werden, dass sie sich mit ihrem Kommentar einen Fehltritt erlaubt haben, geschieht der Block-Vorgang praktisch unsichtbar und ohne Kenntnis (sogenanntes Shadow-Banning).
Wie NDR, WDR und Tagesschau herausfanden, funktioniere der Wortfilter nicht unbedingt nach einem speziellen Schema. So seien Wörter wie „schwul“, „queer“, „LGBTQ“ genauso betroffen wie „Auschwitz“, „Nationalsozialismus“ oder „Terroristen“ (Vollständige Wort-Liste siehe unten)
TikTok: Diese Wörter wurden im Februar gefiltert
- Auschwitz
- gay
- Heterosexuelle
- homo
- homophob
- homosexuell
- LGBTQ
- LGBTQI
- Nationalsozialismus
- Peng Shuai
- Porno
- Pornografie
- Prostitution
- queer
- schwul
- Sex
- Sexarbeit
- Sklaven
- Terroristen
TikTok räumt massive Fehler ein – „Vorgehen in diesem Fall nicht zielgerichtet“
„Wir haben Mechanismen eingerichtet, um potenziell schädliche Kommentare automatisiert herauszufiltern“, erklärte eine Sprecherin auf Anfrage des Recherche-Teams.
„Wir sind uns darüber im Klaren, dass dieses Vorgehen in diesem Fall nicht zielgerichtet war, und wir arbeiten mit Hochdruck daran, unser Vorgehen zu überarbeiten.“
Wieso Begrifflichkeiten aus der LGBTQI-Community dem Zorn des Filter-Systems zum Opfer fallen, ist völlig unklar. Denn: Zahlreiche Influencer machen sich auf der Plattform täglich für die Rechte der Regenbogen-Community stark. Teils mit der Unterstützung von TikTok. „Das ist natürlich schwierig, wenn man sagt, man will Aufklärungsarbeit über Pornokonsum betreiben oder Aufklärungsarbeit übers Coming-out, da gehört der Begriff schwul selbstverständlich dazu“, klagte LGBTQI-TikToker Maximilian Pichlmeier gegenüber der „Tagesschau“.
Ebenfalls auffällig: Begriffe, die im Zusammenhang mit dem Nationalsozialismus stehen, ihn aber nicht verherrlichen, sind auch tabu. Und das, obwohl das chinesische Unternehmen zuletzt angekündigt hatte, mit verschiedenen Gedenkstätten im Rahmen des Holocaust-Gedenktages kooperieren zu wollen.
TikTok sperrt Namen von Tennisspielerin Peng Shuai
Höchst kurios: Der Name der chinesischen Tennisspielerin Peng Shuai, die im November 2021 den früheren Funktionär Zhang Gaoli des sexuellen Missbrauchs beschuldigt hatte, schafft es ebenfalls nicht in die TikTok-Kommentarspalten. Das sei auf eine unglückliche Buchstaben-Kombination zurückzuführen.
„Peng Shuai wurde aufgrund des österreichisch-deutschen Begriffs ‚Hua‘ (Hure) nur in deutschsprachigen Regionen moderiert, weil die Buchstabenfolge „H-U-A“ in dem Wort erkannt wurde“, erklärte die Unternehmenssprecherin.
Man habe diese fehlerhafte Blockade allerdings bereits behoben. Konfrontiert mit den Recherche-Ergebnissen wurden acht der insgesamt 19 Filter-Wörter wieder zugelassen.
„Grundsätzlich ist es so, dass nicht nur Staaten, sondern auch Unternehmen dafür verantwortlich sind, Menschenrechte zu achten“, erklärte Frederike Kaltheuner, Leiterin der globalen Abteilung für neue Technologien und Menschenrechte bei der Organisation Human Rights Watch dem Bericht zufolge. Frederike Kaltheuner weiter: „Es kann nicht sein, dass es journalistische Berichterstattung braucht, damit solche Fehler korrigiert werden.“ (cw)