1 Abo und 0 Abonnenten
Artikel

Universität Leipzig forscht zum Missbrauch von KI | MDR


An der Universität Leipzig werden sowohl Chancen als auch Risiken der Technologie von einem Team rund um Professor Alexander Godulla erforscht. Seit 2020 gibt es hier das Deepfake-Projekt. In dieser Zeit hat sich viel getan: Die KI entwickelt sich enorm schnell und macht technische Fortschritte.


Godulla schätzt das individuelle Schadensrisiko extrem hoch ein. Das Forscher-Team hat untersucht und herausgefunden, dass viele Menschen in Bezug auf Deepfakes besorgt sind. Das erkärt er in einer neuen exactly-Reportage. Die Mehrheit der Menschen aus einer repräsentativen Studie des Forschungsteams sind der Auffassung, dass sie Deepfakes nicht erkennen könnten. Nach Einschätzung von Godulla ist die Gesellschaft größtenteils noch nicht darauf vorbereitet.


Was bedeutet überhaupt das Wort "Deepfake"? Es setzt sich aus zwei Begriffen zusammen. Zum einen aus dem Teil "Deep Learning", was das Lernen von Programmierungen, also künstlicher Intelligenz (KI) beschreibt und zum anderen aus den Wort "Fake". Es werden also die Lernfortschritte der KI genutzt um Bilder oder auch Videos zu fälschen. Das Gesicht von Person A lässt sich so ohne Probleme auf den Körper von Person B setzen. Dabei können die Deepfakes täuschend echt sein - oft kann nicht mehr unterschieden werden, ob eine Aufnahme gefälscht ist oder nicht.


Bei pornografischen Deepfakes werden oft die Gesichter von prominenten Frauen missbraucht. Dass Prominente pornografische Inhalte ins Netz stellen ist eher unwahrscheinlich und daher oft schnell als Deepfake zu erkennen. Wenn aber Deepfakes von Menschen ins Internet gestellt werden, die nicht berühmt sind, falle es den Betrachtenden zunehmend schwer, diese überhaupt als Fälschungen zu erkennen, schätzt Godulla ein.


MDR-Reporterin Marie-Theres Brand hat für exactly Frauen getroffen, die Opfer von pornografischen Deepfakes wurden. Die Twitch - Streamerin Shurjoka ist nur ein Beispiel für den Missbrauch mit KI. Die Influencerin hat den Kampf gegen die Täter mittlerweile aufgegeben. In einem Selbstversuch hat Marie außerdem Deepfakes erstellt und festgestellt, dass es überraschend einfach ist.


Jeder, der sich öffentlich im Internet zeigt, kann ein Opfer von Deepfakes werden. Bei Deepfakes wird das Recht am eigenen Bild verletzt. Deepfakes gelten meist aber nur als minderschwere oder kleine Straftaten, erklärt Josephine Ballon. Sie ist Anwältin bei der gemeinnützigen Organisation HateAid, die sich für Menschenrechte im digitalen Raum einsetzt. Zurzeit gebe es noch keine Gesetze, die Verbreitung oder Veröffentlichung von Deepfakes einschränkt. Laut Bundesjustizministerium sind die aktuellen Gesetze ausreichend.


Eine andere Ansicht vertritt Josephine Ballon. Aus ihrer Sicht wird den Betroffenen suggeriert, dass Deepfakes und der daraus resultierende individuelle Schaden keine Bedeutung für den Staat habe. Faktisch könne man Deepfakes anzeigen, oft werden diese aber nicht verfolgt. Die Organisation HateAid unterstützt Opfer von digitaler Gewalt. Sie wollen mit einer Petition die aktuelle Gesetzteslage verändern.

Zum Original