Elisa Makowski

Journalistin, Redakteurin und Buchautorin, Frankfurt am Main

4 Abos und 5 Abonnenten
Artikel

Welche Kommentare gehen, welche nicht?: Facebook löscht nach eigenen Regeln

Welche Kommentare gehen, welche nicht?

Facebook löscht nach eigenen Regeln

Für Klaus Blees ist es die fünfte Sperre bei Facebook. In einer hitzigen Diskussion über den israelisch-palästinensischen Konflikt in einer öffentlichen Facebook-Gruppe folgt ein harscher Kommentar auf den nächsten. Der 64-Jährige versucht, gegen seiner Meinung nach ungerechtfertigte Kritik an Israel anzuschreiben: „Nur sind es die feigen palästinensischen Terroristen, die palästinensische Zivilisten einschließlich Kinder als menschliche Schutzschilde missbrauchen", schreibt er in die Gruppe. Daraufhin erreicht in folgende Nachricht: „Dieser Beitrag ist nur für dich sichtbar, da er gegen unsere Standards hinsichtlich Hassrede verstößt", informiert ihn Facebook. Als Folge ist sein Profil nun 30 Tage lang gesperrt. Solange kann Blees nichts auf Facebook posten.

Das Netzwerkdurchsetzungsgesetz (NetzDG) verpflichtet soziale Netzwerke, illegale und rechtswidrige Inhalte wie „Volksverhetzung" oder „Beleidigung" rasch zu entfernen. Bei Verstößen drohen den Unternehmen hohe Bußgelder. Wenn Kommentare nach Einschätzung von Facebook gewalttätiges und kriminelles Verhalten fördern oder als Hassrede gelten, nimmt das Unternehmen sie von der Plattform. Allerdings nur, wenn sich Nutzer über Beiträge beschwerten, sagt eine Sprecherin. Selbst auf die Suche nach Hasskommentaren gehe das Netzwerk nicht.

Doch wie entscheidet Facebook, was Hassrede ist? Das Unternehmen definiere Hassrede als direkten Angriff auf Personen, erklärt Facebook auf seiner Seite. Als Angriff definiere das Unternehmen gewalttätige oder entmenschlichende Sprache gegen „ethnische Zugehörigkeit, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Kaste, Geschlecht, Geschlechtsidentität, Behinderung oder Krankheit. Auch Einwanderungsstatus ist in gewissem Umfang eine geschützte Eigenschaft", heißt es auf der Seite

Blees ist ehrenamtlicher Mitarbeiter der Aktion 3. Welt Saar im Saarland. Der gemeinnützige Verein recherchiert und publiziert zu Asyl, Rassismus, Fairer Handel, Antisemitismus und Islamismus. Am 10. Februar habe der Verein eine Veranstaltung angekündigt mit dem Titel „Plädoyer für eine politische Lösung des Türkei-Kurdistan-Konfliktes", sagt Blees. Vier Tage später wurde die Ankündigung auf der offiziellen Facebook-Seite des Vereins gelöscht. Das Unternehmen begründet die Sperre mit einem Verstoß gegen die Richtlinien.

Blees gibt zu, in manchen Facebook-Diskussionen provozieren zu wollen, um zum Nachdenken anzuregen. Doch er fragt sich auch, was mit all den anderen Kommentaren ist, die die Plattform stehen lasse und die tatsächlich in ihrer ganzen Zielrichtung hasserfüllt und beleidigend seien. „Manche davon gewiss auch in strafrechtlich relevantem Sinn", sagt Blees. Gemeinhin bestreitet Facebook, dass viele Beschwerden dazu führen, dass ein Kommentar gelöscht wird. Ausschlaggebend sei die Prüfung durch einen Mitarbeiter, sagt eine Unternehmenssprecherin. Trotzdem komme es immer wieder zu Sperrungen von Accounts und Nachrichten, die satirische Beiträge darstellen oder einzelne Sichtweisen im demokratischen Meinungsspektrum widerspiegeln.

Die nordrhein-westfälische Staatssekretärin für Integration, Serap Güler (CDU), engagiert sich gegen das Tragen von Kopftüchern bei Mädchen unter 14 Jahren. Bei Facebook und Twitter postete sie im April: „Einem jungen Mädchen ein Kopftuch überzustülpen, ist pure Perversion. Das sexualisiert das Kind." Facebook löschte die Nachricht, Twitter nicht.

Auch die dunkelhäutige Imoan Kinshasa wurde bei Facebook gesperrt, einen Tag lang. Auf einem österreichischen Weinfest sei sie, weil sie die bayerische Tracht getragen habe, als „Neger im Dirndl" beleidigt worden, berichtete sie auf ihrer Facebook-Seite. Der Zeitung „Der Standard" zufolge wurde der Beitrag fast 12 000 gelikt und 5000 Mal geteilt. Dann sperrte ihn Facebook wegen Hassrede, obwohl sie in ihrer Veröffentlichung den entschärften Begriff „N*eger" benutzt hatte.

Was Blees besonders ärgert: Eine konkrete Begründung für die Sperre bekomme man nie. Diese Intransparenz kritisiert auch Markus Reuter von „netzpolitik.org": „Was ist eigentlich verboten und was nicht?" Anders als Facebook und Twitter immer behaupteten, würden Inhalte „mit Sicherheit" auch automatisch gelöscht, vermutet Reuter.

Und auch die Journalistenorganisation „Reporter ohne Grenzen" beobachte einen Übereifer bei den Plattformen. Facebook und Google begriffen sich als Privatunternehmen und löschten nach ihren eigenen Regeln. Sie räumten sich das Recht ein, auch Inhalte zu entfernen, die von den Kommunikationsfreiheiten gedeckt seien.

Die Kölner Medienanwältin Lina Bock sagt: „Nicht jedes gesperrte Posting ist zwangsläufig auch rechtlich bedenklich." Die Frage, was noch zulässige Meinung sei, sei häufig Abwägungssache und die könne auch fehlerhaft ausfallen. Im Zweifel müsse das ein Gericht klären, sagt Bock. In der jüngsten Zeit haben deutsche Gerichte in einzelnen Urteilen bewirkt, dass Facebook bereits gelöschte Kommentare wieder entsperren musste, weil es sich um zulässige Meinungen gehandelt hatte.

Bei der letzten Sperre hat Blees Facebook eine Antwort auf die Sperrung geschrieben: Sein Kommentar über die „palästinensischen Terroristen" sei kein Verstoß gegen die Gemeinschaftsstandards. Daraufhin wurde sein Kommentar wieder freigeschaltet. Es liege doch keine Hassrede vor, antwortete das soziale Netzwerk. Sein Konto aber blieb gesperrt.

Zum Original