1 abonnement et 0 abonnés
Article

Facebook und die Russland-Affäre: Wer bestimmt, was richtig ist?

Die Sache mit der Meinungsfreiheit ist - mit einem Wort - schwierig. Das macht uns seit einigen Monaten die Russland-Affäre mit all den Manipulationsversuchen im Netz und in der Politik deutlich. Die Sache reißt nicht ab, die wichtigsten Player im Netz haben angefangen, sich zu bewegen. So hat die russische Medienaufsicht nun Google mit Konsequenzen gedroht, sollten „Sputnik" und „Russia Today" in den Suchergebnissen niedriger eingestuft werden. Das hatte Googles Mutterkonzern Alphabet angekündigt, nachdem US-Geheimdienste den staatlich betriebenen russischen Auslandsmedien Propaganda vorgeworfen hatten.

Propaganda. Ein Wort, das vor allem in Krisen- und Kriegszeiten Hochkonjunktur hat, fast keine Geschichte über den Zweiten Weltkrieg oder Kalten Krieg kommt ohne dieses Wort aus. Und heute? Ist es wieder einmal das Wort der Stunde, wahlweise titeln Medien zur Zeit auch mit Informationskrieg oder Cyber War, bisweilen fällt sogar der Dystopie-Name schlechthin: George Orwell. Jedenfalls sind sehr viele Leute im Moment sehr hysterisch, wenn es um die russischen Aktivitäten während des US-Wahlkampfs oder die Brexit-Abstimmung geht. Schließlich sei nichts geringeres als die Demokratie gefährdet.

Vor allem Facebook hat diesbezüglich ein Propagandaproblem. Über Accounts, die einer russischen Trollfarm mit Kreml-Beziehungen zugeordnet werden konnten, wurden dort Ads mit aufwiegelnden Inhalten oder Fehlinformationen geschaltet und über einen Zeitraum von zwei Jahren in die Newsfeeds der US-User gestreut. Der US-Senat, die EU, der deutsche Gesetzgeber, ja die gesamte westliche Öffentlichkeit fordert nun, Facebook, Google und Co. müssten endlich handeln, um so eine Einflussnahme zu unterbinden. Und hier befinden wir uns wieder bei dem Problem mit der Meinungsfreiheit.

Zwischen Bullshit-Schleudern und unangenehmen Inhalten

Was machen also die Tech-Riesen? Vor allem Facebook ist es sehr wichtig, immer wieder klarzustellen, wie sehr dem Unternehmen daran gelegen sei, ein Dienstleister an der Demokratie zu sein, wie wichtig es sei, dass die User sicher unterwegs sind. Dazu gibt sich Facebook gerne transparent und macht Versprechungen, sich zu bessern, falls Mist gebaut wurde. So verfährt das Unternehmen seit Jahren, passieren tut meist nicht wirklich viel und die Sache mit der Transparenz ist mehr eine smarte Kommunikationsstrategie als Tatsache.

Daran wird auch der Mittwoch vergangener Woche nichts ändern, als Facebook mitteilte, Usern die Möglichkeit zu geben nachzuprüfen, ob sie während des US-Wahlkampfs mit russischer Propaganda in Berührung gekommen seien. Allerdings ist dies nur einigen ausgewählten Usern möglich und über Maßnahmen, wie Facebook das Problem mit dem Missbrauch ihrer Plattform grundsätzlich lösen wolle, wird weitgehend geschwiegen. Währenddessen werden dies- und jenseits des Atlantiks regulierende Gesetze verabschiedet und Regulierungsdebatten geführt.

Nun muss man sich aber einerseits fragen: Auf welchen Grundlagen sollen diese Regulierungen geschehen? Natürlich wird zum Beispiel im Fall von Google damit argumentiert, dass Sputnik und RT Bullshit-Schleudern sind. Und natürlich gibt es zum Beispiel in Deutschland ganz klare Richtlinien und Gesetze, die die Meinungsfreiheit da begrenzen, wo Beleidigung, Hetze, Diskriminierung und dergleichen stattfindet. Das hat auch erst einmal gar nichts mit der Russland-Affäre zu tun. Das Problem ist nur: Wo hört die Zensur auf, wenn der Gesetzgeber schweigt? Dort, wo es um unangenehme Inhalte geht? Unangenehm für eine Regierung, der die Tech-Konzerne dann zur Sperrung von Inhalten drängt? Unangenehm für Google und Facebook? Und überhaupt, wer bestimmt eigentlich, was wahr ist? Der Gesetzgeber? Das Unternehmen? Der User? Die Crowd?

Was sind die Zahlen wert?

Fragen über Fragen, während die Sache mit der Meinungsfreiheit eine schwierige Kiste bleibt. Vielleicht sollten wir uns deshalb im Zusammenhang mit russischer Propaganda und der Einflussnahme auf demokratische Entscheidungsprozesse auch etwas ganz anderes fragen: Ist all das überhaupt notwendig? Denn: So evident die Einflussnahme aus Russland auch ist; war der Impact auf die US-Wahl und den Brexit wirklich so signifikant?

Klar, es gibt da ein paar Zahlen: Mehr als 3000 Anzeigen für etwa 100.000 Dollar haben die russischen Akteure während der Zeit des US-Wahlkampfs auf Facebook geschaltet, gesehen von rund 126 Millionen Menschen. Die Inhalte zielten darauf ab, die US-Bevölkerung zu spalten. Auf Twitter seien etwa 36.000 Bots unterwegs gewesen, deren Inhalte dann 288 Millionen Reaktionen wie Antworten, Likes oder Retweets auslösten. Auch beim Brexit ist mittlerweile eine Einflussnahme von Russland aus nachgewiesen worden: Fast 300.000 User folgten Accounts, die Twitter als von Russland gestützt einstufte. Aber was sind diese Zahlen eigentlich wert?

„Wähler sind smarter, als die Leute ihnen zutrauen", sagt Arun Chaudhary. Der 42-jährige Amerikaner ist einer derjenigen Menschen, die mit am meisten darüber Bescheid wissen sollten, was im Internet alles möglich ist, um Menschen zu beeinflussen und zu mobilisieren. Und vor allem auch darüber, den tatsächlichen Impact zu bemessen, den die gestreuten Informationen haben. Nichts anderes ist sein Job: Chaudhary ist Vizepräsident der politischen Kommunikationsagentur Revolution Messaging, die unter anderem Grassroot-Movements für politische Kampagnen baut. Er war eine der wichtigsten Personen in Barack Obamas New-Media-Kampagne 2008, dem ersten Wahlkampf, der so richtig im Internet geführt wurde und auf der Erkenntnis beruhte, dass Informationsempfänger in diesem Raum gleichzeitig auch zu Sendern werden konnten.

Reach ist nicht gleich Impact

Und weil dieser Sender, wie Chaudhary sagt, nicht dumm sei, lehnt er auch die Vermutung ab, dass russische Social-Media-Aktivitäten einen signifikanten Teil dazu beigetragen hätten, dass Donald Trump zum Präsidenten gewählt wurde. Oder dass die Briten für Leave gestimmt haben. „Wir haben viel Kalter-Krieg-Jargon gehört und wenn du das hörst, solltest du berechtigterweise skeptisch sein." Daher ist er auch nicht mit der Art und Weise einverstanden, wie mit den nun bekannten Zahlen umgegangen wird.

Der Grund? All diese Zahlenspiele und „Analysen lassen den Wähler selbst außer Acht." Heißt nichts anderes als: Reach ist nicht gleich Impact; nur weil viele Menschen diese Inhalte gesehen haben, bedeutet das nicht, dass ihre Wahlentscheidung davon beeinflusst wurde. Und auch aus Likes, Reposts, Kommentaren lassen sich nicht unbedingt Kreuze auf dem Wahlzettel ableiten. Bei allen Tools, die zur Messung von Interaktion zur Verfügung stehen sei es einfach nach wie vor schwer sagen zu können, was einen Wähler letztlich zu einer bestimmten Entscheidung bringt. Und die Tatsache, dass journalistische Inhalte mit ausländischen wie inländischen Fehlinformationen konkurrieren und zusammen den heutigen Informationsraum ergeben, in dem sich der Wähler bewegt, macht belastbare Aussagen darüber nicht einfacher. Am Ende bleibt selbst bei jemandem wie Arun Chaudhary nur die eigene Überzeugung, dass die ganze Sache überbewertet wird. Beweisen kann er es nicht.

Trotzdem: Was er sagt, klingt plausibel. Auch Chaudhary kann mit Zahlen spielen, nur eben weniger alarmistisch, als es viele Medien tun: „Viele Leute sprechen über die Millionen Impressions, die russische Fake News auf Facebook erhalten haben, aber wenn man sich den Prozentsatz ansieht, was die Menschen insgesamt in ihren Timelines gesehen haben, liegen wir bei unter einem Prozent." Genauer: Sie machen nur etwa vier Tausendstel von einem Prozent des Gesamtcontents aus, den die 126 Millionen Menschen auf Facebook gesehen haben. Und das ist nicht wirklich viel.

Rétablir l'original