Die Polizei darf Daten nicht nach Belieben sammeln und automatisiert auswerten. Das hat das Bundesverfassungsgericht entschieden. Damit sind längst nicht alle juristischen Streitigkeiten vom Tisch, die die Digitalisierung der Polizeiarbeit mit sich bringt. Einer der Prozessbevollmächtigten war Tobias Singelnstein, Professor für Kriminologie und Strafrecht an der Goethe-Universität in Frankfurt am Main. Im Interview erklärt er die politische Tragweite des Urteils und gibt einen Ausblick auf die Zukunft der Polizei.
Singelnstein: Die Entscheidung ist ein schöner und wichtiger Erfolg, weil sie klar feststellt, dass die Regelungen zur automatisierten Datenauswertung keine genügenden Voraussetzungen vorsehen, um diese Maßnahmen hinreichend einzugrenzen. Wichtig finde ich auch, dass das Gericht sich das so genau angeschaut hat. In der mündlichen Verhandlung wurde tief in die Details eingestiegen und gefragt: Was macht die Polizei da eigentlich genau? Wir wissen wenig darüber, was bei der Polizei mit personenbezogenen Daten und gerade in der automatisierten Datenauswertung passiert. Deshalb war es sehr wertvoll, dass das Gericht sich in der mündlichen Verhandlung das so genau hat berichten lassen, wie das funktioniert. Die Polizei lässt sich da nämlich nicht so gerne in die Karten gucken. Häufig landen diese Vorgänge auch nicht in der Akte, die Gerichte können sie also nicht überprüfen. Hier wurde ein Stück Transparenz geschaffen.
Was die zahlreichen anderen Dinge angeht, die wir noch gerügt hatten und die abgetrennt wurden, da warten wir jetzt mal ab, wie das Gericht da entscheidet.
Darauf gibt es zwei Antworten. Zum einen muss man sich klar machen, dass die Funktionsweise dieser Technik gerade darin besteht, dass sie sich eben nicht nur auf die Daten dieser Personen beschränkt. Sondern sie versucht ganze Datenbanken, die bei der Polizei bestehen, miteinander zu verknüpfen und zu durchsuchen. Auch für Personen, bei denen nachher gar kein Treffer rauskommt, aber deren Daten trotzdem automatisiert durchsucht worden sind, bedeutet das bereits einen Grundrechtseingriff. Das heißt, sehr viele Personen, die irgendwann mal mit der Polizei in Kontakt waren und deshalb in den Datenbanken gespeichert sind, werden durch diese Technik in ihren Grundrechten betroffen.
Der zweite Punkt ist, dass der Einsatz dieser Technik rechtlich gar nicht eng begrenzt war, auch wenn das im politischen Raum mitunter so kommuniziert wurde. Das war ja gerade unser zentraler Punkt, dass das Gesetz kaum Begrenzungen vorsieht. Das Verfassungsgericht hat nun gesagt, dass ein Gesetz, das den Einsatz dieser Technik erlaubt, diesen Einsatz sehr viel enger und konkreter begrenzen muss.
Die Polizei sammelt ja schon immer relativ viele Daten. Polizeiarbeit ist in erheblichem Umfang Datensammlung und Datenauswertung. Dabei eröffnet die Digitalisierung immer neue Möglichkeiten für polizeiliche Arbeit. Im Augenblick gibt es viele unterschiedliche polizeiliche Datenbanken. Die Polizei arbeitet bundesweit gerade daran, ihre Datenverarbeitung auf ein modernes System umzustellen. Ein Aspekt im Zuge dieser Modernisierung ist auch, dass man versucht, die Möglichkeiten der Digitalisierung für automatisierte Auswertungen heranzuziehen. Das, was wir jetzt sehen, ist eigentlich nur ein erster Schritt hin zu so einer automatisierten Datenauswertung. Es ist also erst der Anfang. Je weiter die Technik fortschreitet, desto stärker wird die Polizei auf diese Möglichkeiten zurückgreifen, um zu einer weitergehenden Auswertung zu kommen.
Wie könnte das also aussehen? Zum einen ist ja bisher immer betont worden, dass es keine künstliche Intelligenz sei, mit der da gearbeitet werde. Das ist auch so. Aber es ist natürlich eine mögliche Entwicklung, eine Richtung, in die das gehen könnte. Ich gehe fest davon aus, dass das kommen wird, dass also irgendwann künstliche Intelligenz für die Auswertung dieser Daten herangezogen wird.
Im Augenblick beschränkt sich die automatisierte Auswertung außerdem auf das, was bei der Polizei an Daten schon gespeichert ist. Diese Techniken funktionieren aber umso besser, je mehr Daten sie einbeziehen können. Und deshalb gibt es eine Art natürliches Interesse, dass man möglichst viele Daten sammelt bzw. in die Auswertung mit einbezieht. Es gibt technisch durchaus die Möglichkeit, zum Beispiel öffentlich verfügbare Daten, etwa aus Social Media, Wetterdaten, Bevölkerungsdaten oder alles mögliche, was sonst außerhalb der Polizei noch an Datenbeständen zur Verfügung steht, bei solchen Auswertungen mit einzubeziehen.
Ja, ich glaube, das ist eine Richtung, in die die Entwicklung gehen wird. Und deshalb stellt sich die Frage, welche rechtlichen Leitplanken hier gezogen werden müssen. Eines der Hauptprobleme bei der automatisierten Datenauswertung ist im Übrigen, dass die Regelungen gar keinen Tatverdacht voraussetzen, sondern dass das noch im Vorfeld solcher Verdachtssituationen stattfindet.
Die beschriebenen Auswertungstechniken brauchen, wenn man so will, immer mehr. Die funktionieren umso besser, je zahlreicher und je unterschiedlicher die Daten sind, die man zusammenschmeißen kann. Und das steht einfach in einem grundlegenden Widerspruch zu unseren datenschutzrechtlichen Vorstellungen und der Idee von informationeller Selbstbestimmung. Das ist das Hauptproblem dieser ganzen Materie. Da ist zum einen der Grundsatz der Datensparsamkeit zu nennen, der eigentlich bedeuten soll, möglichst wenig personenbezogene Daten zu generieren, zu sammeln, zu speichern, zusammenzuführen. Außerdem widerspricht es dem Grundsatz der Zweckbindung, dass also Daten, die der Staat einmal erhoben hat, eigentlich nur für einen Zweck genutzt werden dürfen. Denn es hat ja eine ganz andere Eingriffsintensität, wenn ich personenbezogene Daten erhebe und für ein Strafverfahren benutze, als wenn ich sie in der polizeilichen Datenbank speichere, die permanent automatisiert durchsucht wird. Diese beiden für unser Datenschutzrecht ganz zentralen Grundsätze stehen in einem strukturellen Widerspruch zu diesen automatisierten Formen der Datenauswertung.
Die Polizei hat ein großes Interesse daran, die Möglichkeiten der Digitalisierung nutzen zu können - weil das die Polizeiarbeit natürlich deutlich vereinfacht. Gleichzeitig will man, dass das möglichst voraussetzungsfrei und unbegrenzt passiert. Rechtliche Einschränkungen sind, wenn man so will, ja immer eine Erschwernis für polizeiliche Arbeit. Das trägt die Polizei entsprechend auch in den politischen Raum. Und wenn es dann den politischen Willen gibt, Polizeiarbeit auf diese Weise zu erleichtern, wie beispielsweise bei der schwarz-grünen Landesregierung in Hessen, dann wird das politisch so umgesetzt.
Das ist eine gute Frage. Viele Bundesländer haben schon Testphasen mit Predicitive-Policing-Programmen durchgeführt, manche haben es auch etabliert. Das sind aber alles ortsbezogene Systeme. Das heißt, es wird insbesondere für Wohnungseinbrüche vorhergesagt, ob in einem bestimmten Gebieten in den nächsten Wochen eine erhöhte Wahrscheinlichkeit besteht. Das ist noch nicht personenbezogen, weil für personenbezogenes Predictive Policing aus grundrechtlicher Sicht ganz andere Anforderungen gelten. Das wäre ein massiver Eingriff in Persönlichkeitsrechte. Aber man sieht an dieser Entwicklung: Es gibt auch in Deutschland das Bestreben, das umzusetzen. In den USA ist man da ja schon sehr viel weiter, da gibt es das schon in ganz unterschiedlichen Varianten. Das heißt, man versucht mit Massendatenauswertungen die Wahrscheinlichkeit vorherzusagen, ob bestimmte Personen in bestimmte Arten von Straftaten verwickelt sein werden. Wie gut oder schlecht das funktioniert, ist umstritten. Ich persönlich bin eher skeptisch, weil ich glaube, Kriminalität ist eine sehr komplexe soziale Angelegenheit und deshalb sehr, sehr schwer vorherzusagen.
Aber natürlich ist es so eine bestechende Idee, dass Kommissar Computer uns sagen kann, wo was passieren wird, bevor der Schaden eingetreten ist und man hingehen und das verhindern kann. Und deshalb ist das eine Perspektive, die Polizei und Politik auch weiter verfolgen werden. Neue Arten der Datensammlung, automatisierte Datenverarbeitung, Predicitve Policing, das sind alles unterschiedliche Enden einer ähnlichen Entwicklung.
Im Prinzip steht sie dann vor dem gleichen Problem, das wir in anderen Bereichen heute schon haben. Solche Prognosen sind ja nicht völlig neu, die gibt es im Recht schon lange. Die Feststellung einer Gefahr ist immer eine Prognose, bei den Maßregeln der Besserung und Sicherung machen wir Prognosen, in den Gefährderprogrammen des BKA wird prognostiziert. All das findet nur noch nicht automatisiert mittels Datenauswertung statt.
Und klar, die Polizei steht dann natürlich vor dem Problem, was machen wir jetzt mit denen? Man macht dann Gefährderansprachen oder man überwacht die Leute. Das ist sehr personalintensiv und funktioniert immer nur in einem kleinen Bereich.
Unter Umständen ist das Ganze für die Polizei auch eher eine Erschwernis als eine Erleichterung. Denn es bürdet ihr ja eine massive Verantwortung auf. Wer die technischen Möglichkeiten hat, zu erkennen, wer in Zukunft Straftaten begeht, ist automatisch verantwortlich dafür, diese zu verhindern. Das wird in der Praxis aber nie zu hundert Prozent funktionieren, weil Voraussagen fehlerhaft sind oder Fehler gemacht werden.
Das hängt davon ab, wie man Rassismus versteht. Wenn man das als das Problem einzelner Beamtinnen und Beamten sieht, ist das natürlich ein Fortschritt, denn diese individuellen Einstellungen können durch KI vielleicht wirklich ausgeglichen werden. Aber Rassismus ist ja nicht nur eine individuelle Einstellung, sondern eine Struktur, die unsere Gesellschaft als Ganzes durchzieht. Und das heißt, es schlägt sich auch in diesen Daten und deren Auswertung nieder. KI und automatisierte Datenauswertung arbeiten ja nur mit dem, was die Polizei an Daten produziert, mit allen Grundannahmen also, mit denen die Polizei arbeitet. Wenn diese Grundannahmen schon eine rassistische Struktur in sich tragen, dann werden sie durch KI und Auswertung nur reproduziert. Dann besteht sogar die Gefahr, dass die Zahlen, die da am Ende ausgespuckt werden, als besonders belastbar gelten und ihnen größere Bedeutung beigemessen wird, als wenn einzelne Beamtinnen und Beamte eine Einschätzung treffen.
Es wird viel diskutiert und gestritten, ob das jetzt eher ein Vorteil ist oder ein Nachteil. Ich bin auch da eher skeptisch. Aus den USA gibt es viele wissenschaftliche Belege, dass es eher zu einer Verstärkung und Reproduktion von Rassismus führt.