Die digitale Welt entwickelt sich rasant weiter. Deshalb stellen wir ein Mal im Monat einen neuen Begriff, ein neues Phänomen, eine neue App oder Plattform in den Fokus.
Wir sprechen mit Experten, erklären Hintergründe und diskutieren mögliche Auswirkungen.
Hier finden Sie alle bisherigen Begriffe zum Nachschlagen. Die neue Folge zu "Shelfd" stehen auf Seite Acht.E wie Exif-Daten
Weiße Maleranzüge stehen Polizeiuniformen gegenüber. Die Maleranzüge wollen in die Braunkohlegrube. Die Polizisten sie daran hindern. Der Klima-Protest des Bündnisses „Ende Gelände" ist am vorletzten Juni-Wochenende in vollem Gange. Vor der Besetzung der Braunkohlegrube hatten die Klimaaktivisten zu „zivilem Ungehorsam" aufgerufen. Deutlicher gesagt: Widerstand gegenüber der Polizei, um die Ziele durchzusetzen.
Am Ende bleiben die Demonstrationen und Aktionen größtenteils friedlich, doch die Stimmung zuvor ist aufgeheizt. Immer wieder treffen Demonstranten und Beamte aufeinander. Es kommt zu Auseinandersetzungen, bei denen Personen auf beiden Seiten zu Schaden kommen.
Digitaler Streit in sozialen NetzwerkenDie Konfrontation findet aber nicht nur an der Braunkohlegrube im Rheinischen Revier statt. Auch in den sozialen Netzwerken ringen Polizei und Aktivisten um die Darstellung der Situation. Fotos und Videos werden verbreitet. Szenen sollen Polizeigewalt zeigen. Andere das rabiate Vorgehen der Demonstranten. Es geht um Eindrücke und Stimmungen, die ein schnell geteiltes Foto in sozialen Netzwerken hervorrufen kann.
Doch wo liegt die Wahrheit? Hier können technische Lösungen helfen: In den sogenannten Exif-Daten eines Bildes finden sich Informationen, die die Echtheit bestätigen und eine Manipulation des Fotos entlarven können. Exif ist die Abkürzung für Exchangeable Image File Format und bezeichnet Informationen, die bei einem Bild gespeichert werden. Von Bildformat und Aufnahmedatum bis zum Kamera-Modell und geografischen Daten. Anhand dieser Informationen können beispielsweise Journalisten eine Bildmanipulation aufdecken.
„Jede Kamera kann Exif-Daten hinterlassen"Julia Bayer ist freie Journalistin, Trainerin und Innovationsmanagerin und hat sich ausführlich mit der Authentizität und Verifikation von Fotos beschäftigt. „Jede Kamera kann Exif-Daten hinterlassen", sagt sie, „selbst der Schnappschuss am Handy." Diese Daten lassen sich etwa mit Daten von Google Maps abgleichen. „So lässt sich prüfen, ob ein Foto wirklich an der beschriebenen Stelle aufgenommen wurde", erklärt Bayer.
Die Recherche zu verbreiteten Fotos ist aufwendig, doch dringend erforderlich, sodass Fotos nicht missbraucht werden. „Wer Fotos in sozialen Netzwerken sieht und teilt", so Bayer, „sollte auch wissen, in welchem Zusammenhang sie aufgenommen wurden."
Über das eigene Smartphone informierenGenerell rät Bayer zu mehr Aufklärung: „Jeder sollte sich mit seinem Gerät, etwa dem Smartphone, auseinandersetzen und sich informieren, welche Daten der Fotos gespeichert oder mitgeschickt werden", sagt sie. Dabei sieht sie auch die Hersteller in der Pflicht: „Wir teilen schnell ein Bild mit Freunden, laden es in die Cloud, posten auf Facebook - oft werden private Daten mitgeschickt, ohne dass die Person Bescheid weiß." Beim Datenschutz sollten deswegen nicht nur das Fotomotiv, sondern auch die Exif-Daten beachtet werden.
Um Exif-Daten aus Fotos zu lesen, gibt es viele Möglichkeiten. Bayer empfiehlt Jeffrey's Image Data Viewer - Probieren Sie es selbst mit Ihren Bildern aus. Dieses Werkzeug hat unter anderem auch der Autor dieses Artikels bei der Berichterstattung über die Ende-Gelände-Proteste benutzt, um auf Twitter verbreitete Fotos geografischen Positionen und Zeitpunkt zuzuordnen. Mit Erfolg: Die Echtheit der überprüften Bilder wurde bestätigt - die Interpretation und Berichterstattung konnte nur so objektiv folgen. http://exif.regex.info/exif.cgi
F wie Fake News
Donald Trump benutzt es ständig, im Internet vergeht fast kein Tag ohne das Wort und auch in Gesprächen beim Friseur oder Bäcker taucht es immer häufiger auf: „Fake News". Der US-Präsident etwa hat seit seiner Amtseinführung vor rund zwei Jahren im Januar 2017 den Begriff in mehr als 300 seiner kurzen Texte beim Kurznachrichtendienst Twitter verwendet. Doch alle geschilderten Situationen unterscheidet etwas: Jeder, der über „Fake News" spricht, bezeichnet damit etwas anderes: Falschmeldungen, Fehler, Satire oder auch einfach nur Quatsch, der die Aufmerksamkeit auf Webseiten im Internet lenken soll, die mit dubiosen Werbeanzeigen einen kräftigen Reibach machen.
„Der Begriff bedeutet inzwischen alles - und damit zugleich nichts mehr", beschreibt Dennis Horn das Problem. Für seine Arbeit hat sich der Medienexperte das Wort deshalb auf den Index geschrieben und vermeidet es weitgehend. Stattdessen empfiehlt der 37-Jährige Kollegen und Freunden immer genau zu überlegen, worum es ihnen eigentlich geht: Propaganda, Lügen, oder doch Fehler? Den entscheidenden Unterschied sieht Horn analog zur Definition im Duden, in dem das Wort im Jahr 2017 offiziell aufgenommen wurde, darin, ob eine Meldung „ in manipulativer Absicht" verbreitet wurde, oder nicht.
Neue Schwierigkeiten im UmgangDarüber hinaus sind laut Horn zu den völlig verschiedenen Bedeutungen des Begriffs noch weitere Schwierigkeiten im Umgang mit dem Wort „Fake-News" hinzugekommen: Zum einen werde der Begriff in Diskussionen - vor allem in politischem Kontext - zunehmend als Waffe eingesetzt, um die Gegenseite oder auch Medien pauschal zu diskreditieren.
Dennis Horn, Medienexperte
Der Begriff „Fake News" bedeutet mittlerweile alles - und zugleich nichts mehr
Bild: Oliver Thorsten de Vries
Zum anderen verpuffen Korrekturen oder Richtigstellungen Horn zufolge oftmals ungelesen im endlosen Raum des Internets sowie den sozialen Netzwerken und führen teilweise sogar dazu, dass die ursprüngliche Falschinformation erneut weiterverbreitet wird.
Stefan Voss von der Deutschen Presse-Agentur (dpa) ist ähnlicher Auffassung. Seit Anfang 2017 ist Voss dort als Verification-Officer mit einem Team für die Überprüfung von Fakten, Bildern und jeglichen Beiträgen in sozialen Netzwerken verantwortlich. Aus Sicht des Journalisten ist das Wort „Fake News" ein irreführender Begriff, der häufig falsch verwendet oder falsch verstanden wird. Es gehe dabei im eigentlichen Sinne nicht um Nachrichten wie sie von seriösen Nachrichtenquellen verbreitet werden.
Stattdessen seien es vielmehr Behauptungen, häufig auf obskuren, im Ausland registrierten Webseiten, sowie von häufig unbekannten Nutzern in Sozialen Netzwerken. Aus diesem Grund vermeidet es auch die dpa bestmöglich, den Begriff „Fake News" zu verwenden: „Wenn eine Behauptung nachweislich falsch ist, sprechen wir von Fälschungen, Manipulationen oder Irrtümern. Damit wird zugleich die Motivation oder die Ursache für die Verbreitung der falschen Behauptung deutlich", sagt Voss. Im grundsätzlichen Umgang der Medien mit Informationen hat sich nach Einschätzung von Voss nichts geändert: „Jeder seriös arbeitende Journalist macht in seinen Berichten klar, woher er oder sie die verwendeten Informationen hat."
Stefan Voß, Verification-Officer bei der dpa
Wenn Behauptungen nachweislich falsch sind, sprechen wir von Fälschungen, Manipulationen oder auch Irrtümern
Bild: dpa
Geändert habe sich durch die Sozialen Netzwerke wie Twitter, Facebook und Instagram allerdings die Zahl der potenziellen Informationsquellen: „Jede Person mit modernem Handy kann als Augenzeuge Fotos oder Videos eines spektakulären Ereignisses über das Internet verbreiten - oder aber mit falschen Behauptungen die Öffentlichkeit in die Irre führen." Aus diesem Grund würden in den Redaktionen der Medienhäuser deshalb immer mehr Journalisten auch zu Social-Media-Profis ausgebildet, um eine korrekte Informationsgewinnung zu garantieren. „Insgesamt steht die Medienbranche in diesem Bereich noch vor vielen Herausforderungen", resümiert Voss die derzeitige Lage.
Transparenz seitens der MedienEine davon ist laut Sandra Hofhues, Juniorprofessorin für Mediendidaktik und Medienpädagogik an der Universität zu Köln, der Austausch mit den Rezipienten auf eine möglichst transparente Art und Weise. Der Wissenschaftlerin zufolge ist es im Zuge dessen zielführend „Angebote zu schaffen, in denen dargestellt wird, was die Medien aktuell beschäftigt" und „Einblicke in die journalistische Praxis zu geben" und dabei „möglichst transparent zu sein", ähnlich wie es das Nachrichtenmagazin „Der Spiegel" im Fall der gefälschten Reportagen und Texte des ehemaligen Spiegel-Redakteurs Claas Relotius getan habe. Allerdings, so Hofhues, ist Kommunikation keine Einbahnstraße: Auch der Leser, Zuschauer oder Hörer müsse seinen Beitrag leisten: „Aus Rezipientensicht gilt es, Informationen nicht einfach als gegeben hinzunehmen, immer wieder kritisch zu hinterfragen, im Zweifel weitere Quellen hinzuzuziehen und sich einen Überblick verschaffen."
Eine weitere Möglichkeit sei es zudem, direkt bei der Sprache anzusetzen und Begriffe in der Berichterstattung sorgfältig auszuwählen: „Das setzt allerdings voraus, dass Journalisten hinterfragen müssten, was genau Sprache eigentlich produziert. Da müssen wir uns der Frage stellen, ob wir uns als Gesellschaft überhaupt gut genug darauf vorbereiten, mit sprachsensiblen Themen umzugehen." Hofhues bezweifelt, dass die breite Masse sich mit der Definition des Begriffs „Fake News" auseinandersetze.
Sandra Hofhues, Juniorprofessorin Uni Köln
Rezipienten sollten Informationen nicht einfach hinnehmen, weitere Quellen hinzuziehen und sich einen Überblick verschaffen
Bild: Hofhues
Das sei etwas, so die Medienpädagogin, das von den Redaktionen stattfinden könne, um den Menschen Orientierung und Hilfe bei der Einordnung zu liefern. Dieser Punkt bezieht sich auf alle Bereiche der Gesellschaft, wie Hofhues ergänzt: „Politik, Kultur, Sport, Panorama - Social Media deckt alle Bereiche des Lebens ab und alle Akteure machen sich das zunutze." Die Kommunikation habe sich diesbezüglich in den vergangenen Jahren stark professionalisiert: „Egal ob Politik, PR oder Propaganda, die Akteure beherrschen ihr Handwerk - das dem Journalismus nicht sehr fern ist - und wissen, wie sie Aufmerksamkeit generieren und ihre Botschaften überliefern können."
G wie Geolocation (Challenge)
Ein Urlaubsfoto auf Facebook, ein Konzert-Videomitschnitt auf Instagram, ein Bild einer Demonstration in der Kölner Innenstadt auf Twitter: Jeden Tag posten Nutzer Beiträge in sozialen Netzwerken, die unzählige Bilder und Videos enthalten. Oft sind die Veröffentlicher schneller vor Ort, als es jeder Reporter sein kann und liefern mithilfe ihrer Smartphones erste Informationen zu Ereignissen. Unvergessen etwa der mittlerweile rund zehn Jahre alte Tweet des US-Unternehmers Janis Krums „Da ist ein Flugzeug im Hudson River. Bin auf der Fähre, die versucht, die Leute aufzusammeln. Verrückt", der mit diesen Worten auf den Absturz des Airbus A320 in New York aufmerksam machte.
Medien aller Welt haben die Sichtung von Facebook, Instagram, Twitter und Co. in den vergangenen Jahren zunehmend in ihren Arbeitsalltag integriert. Dabei stehen die Journalisten immer wieder vor der Aufgabe herauszufinden, an welchem Ort (Geolocation) das Bild tatsächlich aufgenommen wurde.
Geografische Merkmale in Bildern helfen„Wir leben in Zeiten, in denen versucht wird, mit aus dem Kontext gerissenen Bildern und Videos Stimmung zu machen. Daher sollte man sich seiner Sache schon sicher sein und den Ort des Geschehens auszumachen kann dabei eine große Hilfe sein", sagt Lars Wienand, der als Head of Recherche beim Nachrichtenportal t-online.de für die Verifizierung zuständig ist. Ein Paradebeispiel hat Wienand im vergangenen Sommer erlebt: Er war der Erste, der sich die kurze Filmaufnahme aus Chemnitz angeschaut hatte, die zeigt, wie Ausländer von anderen Personen auf der Straße beleidigt und verfolgt werden. Der ehemalige Präsident des Verfassungsschutzes, Hans-Georg Maaßen, hatte die Authentizität des Videos, das in sozialen Netzwerken veröffentlicht worden war, öffentlich in Frage gestellt und damit eine kuriose Debatte ausgelöst. „Diese Aussage hat mich fassungslos gemacht", sagt Wienand rückblickend.
Der Journalist hatte das Video bereits zwei Tage zuvor untersucht, weil er ein hohes Diskussionspotenzial antizipierte. „Als das Video im Netz auftauchte wurde die Deutung gleich aus der rechten Ecke in Frage gestellt, aber die haben schnell aufgegeben, denn da gab es nichts in Frage zu stellen." Anhand geografischer Merkmale im Video, wie etwa der Kirche im Hintergrund, einer Ampel und der Straßenbeschaffenheit am Aufnahmeort lieferte Wienand zügig Fakten, die die Authentizität des Videos und den Aufnahmeort in Chemnitz belegen konnten.
Für viel Aufsehen haben in den vergangenen Jahren außerdem immer wieder Recherchen von „Bellingcat" gesorgt. So konnte das internationale Experten-Netzwerk etwa frühzeitig auf Basis einer chronologischen Abfolge von Fotos und Videos aus sozialen Netzwerken und mit Hilfe deren Verortung Zusammenhänge für die Ursache des Absturzes des malaysischen Flugzeugs MH17 in der Ostukraine herstellen, die später durch ein internationales Ermittlerteam bestätigt wurden.
Herausforderungen werden größerChristiaan Triebert, Trainer bei Bellingcat, hat anhand von Videos und Fotos Kriegsverbrechen des libyschen Kommandanten Mahmoud Werfalli verorten und belegen können. Er stuft die Bedeutsamkeit der Fähigkeiten zur Verifizierung digitaler Medien als sehr hoch ein: „Egal ob lustig oder ernst, die Medien nutzen zunehmend virale Videos für ihre Berichterstattung und da ist es umso wichtiger, genau zu wissen, was dort weiterverbreitet wird." Triebert nimmt an, dass die Herausforderungen mit der zunehmen Zahl von Beiträgen in sozialen Netzwerken noch größer werden.
Auch in Deutschland legen Medienhäuser immer mehr Wert auf Expertise in der Verifikation von Bildern und Videos in sozialen Netzwerken und bilden ihre Mitarbeiter entsprechend weiter. Die freie Journalistin Julia Bayer etwa schult und trainiert Kollegen im Umgang mit Suchmaschinen und Online-Kartendiensten. Um nicht aus der Übung zu kommen, hat sie auf Twitter ein Geolocation-Quiz ins Leben gerufen, bei dem sie seit zwei Jahren jeden Montag unter #mondayquiz ein Foto oder Video hochlädt und Nutzern Aufgaben stellt.
Verifizierungs-Rätsel auf TwitterDie Teilnehmerzahl ist dabei rasant gewachsen: „Es kamen recht schnell Kollegen, die mich fragten, ob sie nicht auch einmal solch ein Rätsel stellen dürfen", so Bayer. Daraus entstand der Twitter-Account „Quiztime", über den nun an jedem Wochentag ein Verifizierungs-Rätsel geteilt wird, bei dem herausgefunden werden muss, wo die Aufnahme entstanden ist. Mitmachen kann jeder, neben einem eigenen Twitter-Account braucht es zur Lösung lediglich eine Mischung aus detektivischem Gespür und einem geübten Umgang mit Suchmaschinen oder Kartendiensten. Die Rätsel können entweder alleine oder im Team gelöst werden.
„Natürlich geht es um Spaß, aber auch darum zu lernen, mit den richtigen Tools umzugehen, auf Hinweise zu achten, neue Techniken zu erforschen, den Horizont zu erweitern oder auch einfach richtig zu googeln", fasst Bayer die Idee des Twitter-Quiz zusammen. Darüber hinaus hat sich der Journalistin zufolge aber auch eine Community zum gegenseitigen Austausch entwickelt - und das über die Firmengrenzen hinweg: „Im Zweifel können Kollegen kontaktiert und um Rat gefragt oder um eine Einschätzung oder zweite Meinung gebeten werden", sagt Bayer. Ein solcher Austausch sei so nicht immer üblich.
Hinweise gibt es immerDarüber hinaus versucht Bayer aber auch den Blick aller Nutzer zu schärfen: „Wir neigen dazu Sachen zu schnell zu liken, zu teilen oder ungewollt weiterzuverbreiten", so Bayer. Daher sei es wichtig, Fotos und Videos ganz genau anzuschauen. Hinweise auf den Ort seien immer zu finden: Etwa markante Gebäude, Straßenschilder, Werbetafeln, Graffiti. Oder auch einfach mal im Bekannten- oder Kollegenkreis zu fragen: Denn schließlich kennt sich jeder an einigen Orten der Welt besonders gut aus.
Probieren Sie es aus!
So könnte ein typische Rätsel bei „Quiztime" aussehen. Aufgabe: Wo ist das Bild entstanden. Wissen Sie es?
Barbarossaplatz in Köln. Tools: Google-Bilder-Rückwärtssuche
Möhringer Hexenweg bei Stuttgart. Tools: Google, Google-Maps
M wie Mimikama
Eine Internetseite bietet einen kostenlosen Streamingdienst für Filme an. Dazu, so suggeriert die Seite, muss lediglich ein Nutzerkonto angelegt werden - mehr nicht. Klingt zu gut um wahr zu sein? Ist es auch. Anstelle einer Bestätigungs-E-Mail folgt eine Zahlungsaufforderung in Höhe von 29,99 Euro pro Monat. Wer sich auf die Zahlung einlässt, sieht sein Geld mit hoher Wahrscheinlichkeit nicht wieder.
Für jeden, der wie im geschilderten Fall schon ein mal in eine Abo-Falle getappt ist; auf Facebook an einem gefälschten Gewinnspiel teilgenommen hat oder von Bekannten einen dubiosen Kettenbrief über Whatsapp geschickt bekommen hat und danach einen Virus auf seinem Smartphone bekämpfen musste, gibt es im Internet eine Anlaufstelle, die Unannehmlichkeiten dieser Art vermeidbar macht. Der Ort heißt Mimikama, ist eine Website für den deutschsprachigen Raum und wird vom österreichischen „Verein zur Aufklärung über Internetmissbrauch" betrieben.
Mimikama entlarvt Falsch- und BetrugsmeldungenDer Verein hat sich seit 2011 zum Ziel gesetzt, Falsch- und Betrugsmeldungen in sozialen Netzwerken, Apps, E-Mails und auf Internetseiten zu entlarven und Nutzer darüber zu informieren. Der Plattform vorausgegangen war, dass Tom Wannenmacher, Gründer des Vereins, beim privaten Surfen im Internet selbst in eine Klickfalle getappt war. Seine darauffolgende Warnung im Freundes- und Bekanntenkreis fand überraschend großen Anklang: Die Idee für eine Aufklärungsplattform über Fakes und Fallen war geboren.
Der Name des Angebots ist genaugenommen aber selbst aus einer Falschinformation entstanden: Der Google-Übersetzer übersetzte die auf Facebook gängige Phrase „I like" (deutsch: Gefällt mir) in die afrikanische Sprache Swahili mit „Mimikama". Erst später stellte sich heraus, dass die Interpretation der Maschine falsch war. Seitdem firmiert der Verein unter diesem Kunstwort. Und es hat sich viel getan: 2017 wurde Mimikama beim Internetpreis Goldene Blogger in der Kategorie „Blogger des Jahres" ausgezeichnet.
Informationen über Fakes, Spam, Viren und Phishing-MailsNeben der Aufmerksamkeit sind aber auch das Team und vor allem die Zielgruppe gewachsen: Inzwischen informieren sich jährlich rund 38 Millionen Menschen auf der Internetseite über Fakes, Spam, Viren und Phishing-Mails. Zusätzlich betreibt der Verein die beiden Facebook-Seiten @mimikama.at und „Zuerst denken, dann klicken", @zddk.eu, - analog zum bekannten mütterlichen Rat an Kinder „Zuerst denken, dann sprechen".
Darüber hinaus können Internetnutzer jederzeit Anfragen zu verdächtigen und fragwürdigen Inhalten per E-Mail, Whatsapp und Facebook an die Mitarbeiter von Mimikama senden und um Hilfe bitten.
„Jeden Tag gehen bei uns rund 100 Anfragen ein", schildert Andre Wolf, Sprecher und Social-Media-Koordinator des Vereins, den üblichen Tagesbeginn. Außerdem steuern rund zehn ehrenamtliche Mitarbeiter Themenvorschläge über eine digitale Chatgruppe bei. Wannenmacher und Wolf sichten in ihrem Büro in Wien anschließend die Themen und wählen aus, welchen Fragen sie nachgehen.
Das Internet ist wie ein BahnhofWolf zufolge tauchen in den Anfragen von Nutzern erfahrungsgemäß viele Dopplungen oder auch bereits behandelte Fälle auf, die eine neue Runde durch die unendlichen Weiten des Internets drehen, weshalb auch dem über die Jahre kontinuierlich gewachsenen digitalen Archiv von Mimikama eine immer wichtigere Rolle zukommt: „Das Internet ist wie ein Bahnhof: Neue Leute kommen rein, bringen aber die gleichen Fragen und Probleme mit sich", beschreibt Wolf die Situation. Bei den Recherchen arbeiten die beiden Redakteure eigenen Angaben zufolge eng mit der Polizei, Landes- und Bundeskriminalamt, weiteren Behörden, Rechtsanwälten und diversen Verbraucherzentralen zusammen.
Neben der täglichen Aufklärungsarbeit im Internet bietet Mimikama Workshops für unterschiedliche Alters- und Berufsgruppen an: Dabei können Teilnehmer in verschiedenen Modulen die Funktionsweise von sozialen Netzwerken oder den Umgang mit selbigen erlernen.
P wie Perspective API
Ungefiltert, unzensiert und unreflektiert: Kommentare im Internet führen häufig zu hitzigen, teils verletzenden Debatten. Auf Facebook gehen wertvolle Beiträge in den Beleidigungen teilweise unter. Die von Künstlicher Intelligenz unterstützte Software „Perspective API" der Google-Tochter Jigsaw soll die Diskussionskultur verbessern.
Die „New York Times" und die spanische Zeitung „El País" feiern bereits Erfolge. Der Clou: Schon vor dem Abschicken eines Kommentars wird Nutzern angezeigt, ob der Beitrag beleidigend ist und von Social-Media-Redakteuren voraussichtlich gelöscht wird.
Ärger über den Videoschiri - Kommentieren, aber richtigEin Beispiel: Der 1. FC Köln hat in einem Spiel wegen einer strittigen Entscheidung des Videoschiedsrichters (VAR) verloren. Als Anhänger des Vereins ärgert Sie das, der FC braucht die Punkte schließlich. Auf Facebook sehen Sie den Spielbericht des „Kölner Stadt-Anzeiger", der bereits hitzig diskutiert wird. Sie wollen ihren Ärger über den VAR äußern. Also kommentieren Sie: „Scheiß Videoschiri, macht nur Probleme!"
Doch bevor Ihr Beitrag in der Kommentarspalte angezeigt wird, erscheint eine Nachricht: „Ihr Kommentar ist vermutlich nicht mit den Kommunikationsrichtlinien vereinbar. Möchten Sie ihn bearbeiten?". Würden Sie es tun?
Die Erfahrung des Perspective-Teams ist: Viele würden es, denn Autoren kritischer Beiträge wollen gehört und gelesen werden. Ein Großteil der Kommentatoren überarbeitet deswegen den Beitrag so, dass er den Richtlinien entspricht und nicht gelöscht wird. Und trotzdem haben Sie gesagt, was gesagt werden musste.
Wie funktioniert das Programm?Das mit künstlicher Intelligenz unterstützte Programm scannt, analysiert und bewertet jeden Kommentar auf Toxizität - in Echtzeit, also während ein Beitrag geschrieben wird. Unter Toxizität verstehen die Entwickler den Grad der verletzenden Wörter. Perspective bietet dazu Filterkategorien an wie Beleidigungen und Angriffe auf die Identität, Rassismus, Sexismus und rohe Sprache.
Aus dieser Wörter-Bewertung errechnet die Software den sogenannten Toxicity-Score, eine Zahl, die den Beleidigungsgrad angibt. Je höher die Zahl, desto wahrscheinlicher, dass der Beitrag verletzend ist und gelöscht wird. Der Toxicity-Score wird dem Kommentator direkt angezeigt. Als Spiegel der Anfeindung. Und als Feedback, ob der Kommentar eine Chance hat, gesehen zu werden.
Feiner Filter, Sprachnuancen und maschinelles LernenDamit das System funktioniert, braucht Perspective einen feinen Filter und eine starke Datenbank, um Beleidigungen von Nicht-Beleidigungen zu unterscheiden. Laut den Entwicklern hat das System Sprachnuancen aus mehreren Millionen Online-Kommentaren analysiert, die bereits von Menschen moderiert und als beleidigend oder toxisch eingestuft wurden. Unterstützt wird das System mit maschinellem Lernen, das Programm entwickelt sich selbst weiter und erkennt mit jeder Korrektur neue Zusammenhänge.
Die Entwickler betonen jedoch: „Perspective ist eine Hilfe, eine nützliches Tool, dass die Diskussionen fördern soll." Sie gehen davon aus, dass auch Perspective nicht alle Hasskommentare entfernen kann, da manche Kommentatoren bewusst verletzend sein wollen.
Lust am Diskutieren neu entfachtAußerdem hadert das Programm mit Ironie und Sarkasmus in Kommentaren. „Wir wollen vor allem die Menschen mitnehmen, die eigentlich etwas Gutes zu sagen haben, aber nicht angemessen darstellen", so die Entwickler in ihrem Blog.
Die Software gibt es bislang für englische, spanische und französische Kommentare - Deutsch ist in der Testphase. Für die spanische „El País" stellte sich bereits nach sechs Monaten ein Erfolg ein: Durchschnittlich sieben Prozent weniger Toxizität in Kommentaren. Wichtiger aber noch: Die Anzahl der Kommentare stieg um 19 Prozent. Das Diskussionsklima hatte sich verbessert, die Leser hatten wieder Lust zu diskutieren - auch auf Facebook.
Machen Sie den Test! Auf der Website der Entwickler können Sie einen Kommentar (auf Englisch) schreiben und das Programm zeigt Ihnen sofort, wie toxisch der Beitrag ist.
R wie Rückwärtssuche (Reverse Image Search)
Es ist der 22. Juli 2016 als um kurz vor 18 Uhr bei der Münchener Polizei mehrere Notrufe eingehen. Es werden Schüsse in einer McDonald's-Filiale in der Nähe des Olympia-Einkaufszentrums (OEZ) gemeldet. Der 18-jährige David S. bringt während seines Amoklaufs neun Menschen und sich selbst um. Am Ende des Tages zählt die Polizei beinahe 4500 Notrufe, darunter mehr als 60 gemeldete Schießereien und zwei Geiselnahmen. Der Großteil der Vorfälle hat nie stattgefunden: Es gab weder eine Geiselnahme noch die Schießerei in einem Brauhaus in der Innenstadt, von der vielerorts im Internet zu lesen war.
Zahlreiche Beiträge in sozialen Netzwerken hatten jedoch in der Stadt Panik ausgelöst: Die Meldung des Amoklaufs verbreitete sich über Facebook und Twitter blitzschnell und wurde - angereichert mit Fotos, Videos und Spekulationen - rege weiterverbreitet. Im Nachhinein zeigte sich, dass die meisten geteilten Fotos jedoch nichts mit dem Münchener Amoklauf zu tun hatten.
Die Motive derjenigen, die sich in den sozialen Netzwerken zum Multiplikator der Falschmeldungen machten, sind schwer zu ergründen. Es war womöglich die Absicht, Aufmerksamkeit zu wecken oder Verunsicherung in der Bevölkerung herbeizuführen. Und dann gab es noch diejenigen, die ungewollt zum Verbreiter von falschen Informationen wurden - aus fehlendem Wissen oder mangelnder Sorgfalt im Umgang mit sozialen Medien. Dabei ist es gerade bei Fotos und Videos mit einfachen Techniken möglich, die Authentizität zu überprüfen.
Bilder zum Abgleich hochladenEine dieser Techniken heißt „Rückwärtssuche" (engl.: Reverse Image Search) und wird von den gängigen Suchmaschinen wie etwa Google, Bing und Yandex kostenlos angeboten. Sie kann von jedem Internetnutzer verwendet werden und ist einfach zu bedienen: Statt die Suchmaschine nach bestimmten Bildern zu einem Begriff oder Themenfeld suchen zu lassen, wird ein vorliegendes Bild in der Hoffnung hochgeladen, dass die Suchmaschine zusätzliche Informationen ausspuckt: Denn die Suchmaschine gleicht das vom Nutzer bereitgestellte Foto mit allen ihr zur Verfügung stehenden Fotodateien aus Datenbanken ab.
Im Anschluss an die Suche werden alle Fotos, die dem hochgeladenen Bild sehr ähnlich sehen, aufgelistet und die Quelle der Bilder angegeben. Dabei spielt es keine Rolle, ob das zu überprüfende Foto ein Gebäude, eine Person oder einen Landschaftsausschnitt zeigt. Voraussetzung für eine erfolgreiche Suche ist lediglich, dass exakt das Foto oder ein sehr ähnliches bereits vorher im Internet verwendet wurde. Ist das der Fall, taucht es in der Ergebnisliste auf. Eine Suche kann mitunter auch erfolgreich enden, obwohl das Ausgangsfoto in Schwarz-Weiß aufgenommen wurde, während andere ähnliche Bilder im Internet in Farbe sind. Ebenso können schon Bildausschnitte ausreichen, um das komplette Originalbild zu finden. Und selbst wenn die Suchmaschine das exakte Bild nicht findet, kann sie dennoch einen Treffer landen, wenn das Ausgangsmotiv nur bekannt genug ist und deshalb schon sehr oft fotografiert wurde.
Ein Beispiel: Sie machen ein Foto vom Kölner Dom und laden es bei der Google-Bildersuche hoch. Das exakt gleiche Bild zu finden, wird nicht funktionieren. Google aber wird das Motiv nach dem Abgleich mit unzähligen ähnlichen Bildern erkennen und Ihnen als Ergebnis vorschlagen, dass Sie auf dem Bild den Kölner Dom vor sich haben. Außerdem wird die Suchmaschine direkt auf den passenden Wikipedia-Eintrag und auf Texte verweisen, in denen ähnliche Abbildungen vorkommen.
Große Hilfe bei „Breaking-News"-SituationenSelbstverständlich sind in der Regel alle vorgeschlagenen Ergebnisse mit Vorsicht zu genießen, da sie auf Algorithmen beruhen, die fehlerhaft sein können, wenn sie zuvor schon mit falschen Informationen gefüttert wurden. Das ist beispielsweise bei einem Foto der US-amerikanischen Sängerin Ariana Grande der Fall, das im Zuge des Bombenangriffs auf ihr Konzert im Mai 2017 häufig geteilt wurde. Angeblich soll das Bild die verletzte Sängerin kurz nach dem Angriff zeigen. Das Foto war jedoch ursprünglich schon 2015 an einem Filmset entstanden. Weil es allerdings fälschlicherweise sehr oft in Zusammenhang mit dem Bombenangriff im Internet verwendet wurde, arbeitet der Algorithmus inzwischen ebenfalls fehlerhaft und verknüpft das Foto mit dem Anschlag, obwohl kein Zusammenhang besteht.
Das Rückwärtssuche-Verfahren ist für Nachrichtenportale und Medienhäuser besonders in „Breaking News"-Fällen eine große Hilfe, da erfahrungsgemäß schnell nach Ereignissen wie Terroranschlägen, Naturkatastrophen und Unglücken Bilder in sozialen Netzwerken hochgeladen werden, die mit dem aktuellen Geschehen nichts zu tun haben. Die Rückwärtssuche kann dabei durch ein Ausschlussverfahren schnelle Gewissheit bringen: Wird etwa auf Twitter, Facebook oder Instagram ein Foto verbreitet, das - angeblich - das stattfindende Ereignis zeigt, die Rückwärtssuche exakt dieses Foto aber im Zusammenhang mit einem anderen, in der Vergangenheit liegenden Vorfall im Internet findet, kann das kursierende Foto unmöglich aktuell sein.
Verschiedene Suchmaschinen simultan nutzenIm Fall des Münchener Amoklaufs ließ sich so zügig herausfinden, dass dort Fotos geteilt wurden, die statt des Angriffs in der bayerischen Hauptstadt unter anderem einen blutigen Raubüberfall in einem Einkaufszentrum in Südafrika aus dem Jahr 2015 zeigten. Zudem waren Bilder einer Terrorübung aus Manchester und Polizeieinsätzen im Münchener Umland aus dem Frühjahr 2016 im Umlauf. Und auch der angebliche Täter, der schon recht früh online auf Fotos zu finden war, hatte nichts mit dem Amoklauf zu tun. Stattdessen handelte es sich um Sam Hyde, einen amerikanischen Komiker, der die zweifelhafte Ehre hat, von einer Gruppe im Internet bei vielen terroristischen Angriffen und Amokläufen als Täter denunziert zu werden.
Da die unterschiedlichen Suchmaschinen jeweils andere Datenbanken verwenden, lohnt es sich, verschiedene Seiten simultan zu nutzen. Zudem gibt es die Bilderrückwärtssuche inzwischen als App für Smartphones. Dadurch ist es auch unterwegs schon mit wenigen Schritten möglich, herauszufinden, ob ein in sozialen Netzwerken geteiltes Foto tatsächlich zu einem angegebenen Ereignis passt.
S wie Shelfd
Für Fans und Nutzer von Streaming-Diensten vergeht kaum ein Tag ohne sie: Update-E-Mails. „Wir haben gerade eine Serie hinzugefügt, die Ihnen gefallen könnte" oder „Neu bei Prime Video" heißt es im Betreff. Dahinter verbergen sich Empfehlungen für neue Filme, Serien und Dokumentationen zu allen gängigen Genres.
Einen wirklichen Überblick über das Gesamtangebot von Netflix, Amazon Prime, Sky und Co hat der Zuschauer dadurch trotzdem nicht. Hinzu kommen zudem Angebote von öffentlich-rechtlichen Sendern wie ARD, ZDF und Arte in ihren frei zugänglichen Mediatheken. Dort stehen Sendungen abhängig von Lizenzrechten und Regelungen im Rundfunkstaatsvertrag für einen begrenzten Zeitraum - in der Regel sieben Tage nach Ausstrahlung im Fernsehen - zur Verfügung.
Der Streaming-Dschungel wächst durch die fortwährenden Aktualisierungen der Plattformen stetig weiter. Vor- und Nachteil für Serien- und Filmliebhaber: Auf der einen Seite ist das Angebot immer frisch. Auf der anderen Seite fühlen sich viele überfordert, weil sie das Neue vor lauter Serien nicht mehr sehen. Eine Online-Plattform aus Berlin will das ändern: „Shelfd" hat sich zum Ziel gesetzt, Licht in den Streaming-Dschungel zu bringen - und zwar individuell abgestimmt für jeden Nutzer.
Was ist „Shelfd"?„Shelfd" ist nach Angaben des Gründers David Streit ein kostenloser Internetdienst für handverlesene Streamingtipps. Auf der Webseite präsentiert der Dienst jeden Tag eine Auswahl der besten aktuellen Streaming-Empfehlungen. Nach einer kostenlosen Anmeldung können Nutzer angeben, mit welchen Mediatheken (mit oder ohne Werbung) und mit welchen Abo-Streaming-Diensten sie Filme, Serien und Dokumentationen schauen wollen und aus aktuell 20 Genre-Kanälen von Drama über Independent zu nicht-fiktionalen Themen wie Gesellschaft sowie Kunst und Kultur auswählen.
Auf Grundlage dessen sendet „Shelfd" seinen Nutzern dann täglich in einem Feed anbieterübergreifend und personalisiert Tipps und Empfehlungen. Darin wird zudem angegeben, für welche Situationen sich die Sendungen eigenen, von „zu zweit auf der Couch" bis hin zu „Bitte etwas Bildung". Nach Angaben von „Shelfd" greifen derzeit rund 15 000 Nutzer auf die Empfehlungen des Dienstes zurück. An ebenso viele Abonnenten wird der Newsletter verschickt.
Seit wann gibt es den Dienst und wie hat er sich entwickelt?Gestartet ist „Shelfd" laut Streit 2015 zunächst als Newsletter an Freunde. Zu Beginn habe der Fokus vor allem auf den Mediatheken der öffentlich-rechtlichen Fernsehsender gelegen. Zwei Jahre später kam eine Webseite hinzu, die anfangs öffentlich gefördert wurde, um das Projekt auf eine solide technische Basis zu stellen. Unterstützt wird das grundsätzlich kostenlos zugängliche Angebot durch freiwillige Spenden von Nutzern in Höhe von 2,40 Euro im Monat.
Neben dem Newsletter und der Webseite bietet „Shefld" seit kurzem auch einen Podcast an, in dem Produzenten von Serien zu Wort kommen und einen Einblick in die Streaming-Landschaft gewähren. Seit August gibt es darüber hinaus eine Kalender-Vorschau für Neustarts bei Netflix und Amazon Prime. Dieser zusätzliche bezahlpflichtige Service kostet für die erste Kalender-Vorschau zwei Euro und einen Euro für jede weitere.
Wer betreibt „Shelfd"?Das Team hinter „Shelfd" besteht insgesamt aus sechs Personen. Um möglichst viele Geschmäcker und Genres abzudecken, hat jedes Teammitglied einen anderen Schwerpunkt. Über ein eigenes Tool wird festgehalten, welche Videos und Sendungen schon besprochen und empfohlen wurden. Alle Mitarbeiter sind nach Angaben von Gründer Streit neben „Shelfd" auch für andere Magazine tätig. Finanziert wird das Projekt durch die freiwilligen Spenden und die Einnahmen der Bezahl-Angebote.
Was plant „Shelfd" für die Zukunft?Da Streit und seine Kollegen aufgrund der Vielzahl von Streaming-Anbietern und der hohen Frequenz bei der Veröffentlichung neuer Inhalte schon heute bei vielen Nutzern eine gewisse Abonnement-Müdigkeit wahrnehmen, soll „Shelfd" in Zukunft noch sorgfältiger neue Angebote aussuchen. „Uns ist es besonders wichtig, ein Zeichen gegen das Überangebot zu setzen", sagt Streit. Außerdem will der Dienst Nutzern noch besser bei der Streaming-Organisation helfen und etwa Tipps geben, wann sich ein Abowechsel lohnen würde, weil gerade bei einem anderen Anbieter viele lohnenswerte neue Highlights angeboten werden.
W wie Wayback Machine
„Das Internet vergisst nichts", heißt es oft. Stimmt aber nicht immer: Seiten können aktualisiert, verschoben und in Teilen oder ganz gelöscht werden, und bestimmte Informationen sind somit nicht mehr auffindbar. Es gibt jedoch einen Weg, alte Versionen von Webseiten wiederzufinden: Mithilfe der sogenannten „Wayback Machine", mit der auf zahlreichen Internetseiten eine Zeitreise durch die Vergangenheit des Internets unternommen werden kann.
Die „Wayback Machine" ist Teil eines riesigen digitalen Archivs, das im Jahr 2001 von der US-amerikanischen, gemeinnützigen Organisation „Internet Archive" gegründet wurde und das eigenen Angaben zufolge seitdem mehr als 345 Milliarden Seiten(-versionen) gesammelt hat. Diese können ganz unterschiedlich aussehen: Mal sind es Bildschirmaufnahmen, mal die genaue Version der jeweiligen Seite zu einem bestimmten Zeitpunkt mit funktionierenden Bildern und Links, die auf andere alte Beiträge weiterleiten.
1,5 Milliarden Webseiten täglichAuch die Internetseite des „Kölner Stadt-Anzeiger" taucht darin mit mehr als 11.000 Versionen - erstmalig am 4. Februar 1998. Darüber hinaus umfasst das Archiv insgesamt Daten in der Menge von mehreren Petabyte (1 Petabyte = 1000 Terabyte = 1.000.000 Gigabyte ≈ 200.000 DVDs) - rund eine Million Texte und Bücher, fast fünf Millionen Videos, knapp fünf Millionen Audiodateien, rund drei Millionen Fotos und Hunderttausende Programme.
Dass dennoch nicht alle Webseiten weltweit über die „Wayback Machine" auffindbar sind, kann verschiedene Gründe haben. In erster Linie sind technische Limitationen eine Ursache: Die Maschine kann schlichtweg nicht alle der insgesamt circa 1,5 Milliarden Webseiten täglich scannen und abspeichern („crawlen"). Darüber hinaus können Betreiber ihre Präsenz im Netz so einrichten, dass diese erst gar nicht von der Zeitmaschine ausgelesen werden kann. Zuletzt kann es auch von Datenschutzgesetzen oder Zensur abhängen, ob Seiten archiviert werden können. In China etwa wird die „Wayback Machine" kategorisch geblockt. Eine zweite, sehr hilfreiche Funktion der „Wayback Machine" ermöglicht es Nutzern, Seiten selbst abzuspeichern. Ob für journalistische Zwecke, zur allgemeinen Recherche, für die Schul- oder Seminararbeit oder das private Vergnügen: Fast jede Seite kann mit der Webadresse auf den Servern archiviert werden.
Private Infos können gelöscht werdenIn Deutschland steht laut Karl-Nikolaus Peifer, Professor für Medien- und Kommunikationsrecht an der Universität zu Köln, das Urheberrecht der Archivierung von Internetseiten wie etwa durch die „Wayback Machine" grundsätzlich entgegen, da es auch das Kopieren von Texten und Bildern umfasst. Dem Experten zufolge sind die Server der Maschine jedoch in den USA beheimatet, wo das Archivieren als als unproblematisch eingestuft wird. Zudem kann sich jeder an das digitale Archiv wenden, um dort die Löschung seiner Seite zu beantragen. In Einzelfällen kann die Löschung privater Informationen aus der „Wayback Machine", an denen kein öffentliches Interesse besteht, in Europa erzwungen werden.
Die „Wayback Machine" birgt vor allem Vorteile: Sie sammelt kostengünstig und automatisiert das Wissen der digitalen Welt und vor Gericht können mit ihrer Hilfe Rechtsverletzungen dokumentiert werden. „Sie überflutet die Welt aber auch mit nutzlosem Wissen, das man getrost vergessen könnte", beschreibt Peifer aber auch einen möglichen Nachteil. Ein Beispiel: 2009 folgten Donald Trump auf Twitter nur rund 200 Follower - heute sind es 58 Millionen - und der US-Präsident hatte noch keinen Beitrag geschrieben. Interessiert nicht jeden, die „Wayback Machine" hat es dennoch nicht vergessen.
Z wie Zwei-Faktor-Authentifizierung (2FA)
Gehören Sie auch zu denjenigen, die ein Lieblingspasswort haben und es, weil es praktischer ist, überall im Internet benutzen? Facebook, Netflix, Amazon - ohne Benutzerkonto und Passwort geht meistens nichts: Nahezu alle Services von Online-Shopping über Film-Streaming bis hin zu sozialen Netzwerken fordern bei der Anmeldung die Angabe einer gültigen E-Mail-Adresse. Sofern Nutzer jedoch bei mehreren Angeboten die gleiche Adresse oder das gleiche Passwort verwenden, steigt auch deutlich das Sicherheitsrisiko.
Denn: Hat ein Fremder etwa erst einmal Zugriff auf das E-Mail-Konto, bekommt er Einblick in viele sensible Daten und kann damit großen Schaden anrichten. Außerdem landen E-Mail-Adressen und zugehörige Passwörter nach Datenlecks häufig auf Listen, die im Netz weiterverbreitet werden. (Ob Ihre E-Mail-Adresse bereits auf einer solchen Liste steht, können Sie etwa in der Datenbank haveibeenpwned.com überprüfen. Falls ja: Passwort ändern!)
Neben einem sicheren Passwort - laut Bundesamt für Sicherheit in der Informationstechnik (BSI) sollte es mindestens acht Zeichen, Groß- und Kleinbuchstaben, Ziffern und Sonderzeichen umfassen - empfehlen Experten zusätzlich die Zwei-Faktor-Authentifizierung (2FA). Dabei handelt es sich um eine zweite digitale Schranke, die immer nach der Eingabe von Benutzername und Passwort aktiviert wird und - je nach Einstellung - zusätzlich etwa noch Code fordert, der einmalig verwendbar ist und beispielsweise per SMS an ein Handy geschickt wird.
Wissen reicht nicht ausFür denjenigen, der sich einloggen will, reicht somit das bloße Wissen des Passworts nicht aus: Er muss zugleich im Besitz des Geräts sein, an das der Code für die zweite Abfrage geschickt wird. Das Verfahren wird inzwischen von zahlreichen Services angeboten, darunter E-Mail-Anbieter, soziale Netzwerke wie Facebook, Instagram, Twitter und Youtube sowie Amazon und Ebay. Kleiner Nachteil: Der Anmeldeprozess verlängert sich minimal, dafür sind die Daten aber auch deutlich besser geschützt, und niemand kann so einfach mit Ihrer E-Mail-Adresse im Internet auf Shoppingtour gehen.
Eine Übersicht von Webseiten mit Zwei-Faktor-Authentifizierung finden Sie hier: twofactorauth.org
„Shelfd" schafft Ordnung im Streaming-Dschungel E wie Exif-Daten F wie Fake News G wie Geolocation (Challenge) M wie Mimikama P wie Perspective API R wie Rückwärtssuche (Reverse Image Search) S wie Shelfd W wie Wayback Machine Z wie Zwei-Faktor-Authentifizierung (2FA)
nächste Seite Seite 1 von 10