10 Abos und 6 Abonnenten
Artikel

Wer bestimmt, was extremistisch ist?

Eine neue Software soll Salafisten-Propaganda aufspüren. Doch diese besteht nicht nur aus grausamen Dschihad-Filmen – vieles ist subtiler und muss erst erkannt werden.

Dass der Dschihad auf dem Smartphone bei der Radikalisierung junger Menschen eine Rolle spielt, ist unbestritten. Wie bedeutend dieser Einfluss aber ist - ob islamistische Websites, Apps und Social-Media-Kanäle allein eine Radikalisierung auslösen können oder diese nur verstärken - darüber gibt es keine gesicherten Erkenntnisse. Eine Studie des Bundeskriminalamts legt beispielsweise nahe, dass das Internet vor allem zu Beginn der Radikalisierung eine Rolle spielt, seine Bedeutung in deren weiterem Verlauf aber abnimmt.

Ebenso unklar wie die Frage der Bedeutung ist die des Umgangs mit extremistischen Onlineangeboten. Soll man sie löschen? Auf Gegenerzählungen, sogenannte counter narratives, die die dschihadistische Sichtweisen konterkarieren, setzen? Oder den Austausch zu den Radikalisierten, etwa via Chat, suchen?

Das Counter Extremism Project (CEP), eine Nichtregierungsorganisation mit Hauptsitz in den USA, setzt vor allem auf die erste Variante: Löschen. Das Projekt, 2014 als Zusammenschluss ehemaliger Mitglieder der US-Regierung und Diplomaten gegründet, engagiert sich nach eigener Aussage auf internationaler Ebene gegen extremistische Ideologien. Indem es Finanzströme terroristischer Organisationen offenlegt und in Zusammenarbeit mit Regierungen Handlungsansätze entwirft. Vor allem aber, indem es extremistische Onlinepropaganda bekämpft. "Disruption" ist dabei das Schlüsselwort.

Darum geht es auch in dem vom CEP entwickelten Programm namens eGLYPH, das diese Woche in Berlin vorgestellt wurde. Das Konzept: Mitarbeiter des CEP sichten Foto-, Video- und Audiodateien, überprüfen, ob diese extremistisch oder gewaltverherrlichend sind, und extrahieren daraus eine digitale Signatur, den sogenannten Hash. Taucht die Signatur an einer anderen Stelle im Netz auf - also eine Kopie des Bildes, Videos oder Audiofiles - wird sie sofort erkannt und die Datei kann, wenn gewünscht, von der entsprechenden Plattform gelöscht werden. Die Verbreitung extremistischer Propaganda lässt sich so ein stückweit überwachen. Entwickelt wurde die Software von Hany Farid, Informatik-Professor am Dartmouth College.

Doch wer legt fest, was extremistisch ist? Man habe sich bei der Auswahl zunächst auf "eindeutige Fälle" konzentriert, sagt David Ibsen, Executive Director des CEP: auf Aufnahmen von Enthauptungen, Verstümmelungen und Folter. Da Terrororganisationen wie der sogenannte " Islamische Staat" in ihrer Propaganda jedoch immer auch auf gewaltfreie Videos setzen, wurden später auch digitale Signaturen von Logos und Audiospuren erstellt. Auf diese Weise können auch IS-Videos, die etwa ein vermeintlich sorgenfreies Leben im Kalifat vermitteln, als Propaganda identifiziert werden - wenn sie mit entsprechenden Logos versehen oder mit islamistischen Gesängen, sogenannten Naschids, unterlegt sind.

Der Kampf gegen extremistische Onlinepropaganda ist aber nicht nur eine Frage der Technik und des Erkennens von Inhalten, es ist auch eine Frage des Wollens. Die Software kann die Dateien zwar ausfindig machen und die entsprechenden Plattformen informieren. Ob diese die Dateien dann auch löschen, steht auf einem anderen Blatt.

Als man 2012 die großen Unternehmen wie Google und Facebook aufforderte, stärker gegen extremistische Propaganda vorzugehen, hätten diese zunächst technische Schwierigkeiten geltend gemacht, erklärt Ibsen. Erst nach und nach sei es zu Kooperationen gekommen. So werde das ebenfalls vom CEP entwickelte Programm PhotoDNA, ein Vorläufer von eGLYPH, das vor allem im Kampf gegen Kinderpornografie eingesetzt wird, inzwischen von Microsoft, Google und Facebook genutzt - allerdings erst nach zahlreichen Diskussionen.

Warum sich die Firmen so sträuben? "Weil sie keine Einmischung von außen wollen", glaubt Ibsen. "Weil sie nicht einsehen wollen, dass ihre Plattformen auch Schaden anrichten." Nicht zuletzt seien es natürlich auch finanzielle Interessen: Gesperrter Content führt mitunter eben auch zu Mitgliederschwund.

Die Erfahrung, dass sich einige Anbieter sträuben, hat man auch in Deutschland gemacht. So ging die Bundeszentrale für politische Bildung im November 2016 davon aus, dass rund zwei Drittel aller deutschsprachiger Kanäle des Messenger-Dienstes Telegram zum dschihadistischen Spektrum zählen. Telegram erfreut sich unter Dschihadisten großer Beliebtheit, da sich die Kommunikation hier verschlüsseln lässt. Man habe mehrmals den Austausch mit dem Unternehmen gesucht, erklärte Thomas Krüger, Präsident der Bundeszentrale. Vergeblich.

Für David Ibsen vom CEP ist dieses Verhalten unerklärlich. Er sieht die Firmen klar in der gesellschaftlichen Verantwortung. Wenn es um Verstöße gegen das Copyright geht, sagt er, funktioniere das Sperren ja auch. Ibsens Hoffnungen ruhen daher auf strengen Gesetzen, etwa dem Entwurf von Justizminister Heiko Maas. Der hatte angekündigt, härter gegen soziale Netzwerke vorzugehen, die sich weigern, problematische Inhalte zu entfernen. Was als Vorgehen gegen Hasskommentare initiiert war, würde Ibsens Meinung nach auch dem Kampf gegen Onlineradikalisierung dienen.


Zum Original