Es ist an der Zeit, Künstliche Intelligenz sinnvoll zu regulieren. Das EU-Parlament erkennt die Probleme der Technologie - löst sie aber nicht. Ein Knackpunkt ist die Gesichtserkennung. Der Leitartikel.
Seit das Programm „ChatGPT" Ende 2022 veröffentlicht wurde, tobt ein beispielloser medialer Hype um Technologien, die als „Künstliche Intelligenz" bezeichnet werden. Optimist:innen versprechen die Rettung der Welt, Pessimist:innen sehen selbige endgültig an ihrem Ende angelangt. Die Wahrheit liegt vermutlich irgendwo in der Mitte.
Um Potenziale zu nutzen und Gefahren einzuhegen, hat die EU schon vor einigen Jahren begonnen, an einem Regelwerk für Künstliche Intelligenz (KI) zu basteln. Am Mittwoch (14. Juni) will das Parlament sich auf eine Position für die Verhandlungen mit dem EU-Ministerrat einigen - doch der Kompromiss aus dem Ausschuss wackelt. Die konservative EVP-Fraktion will den Entwurf in entscheidenden Punkten abschwächen. Ausgang ungewiss.
Dabei wird schon der ursprüngliche Vorschlag des Ausschusses der Gefahr nicht gerecht, die von automatisierten Entscheidungssystemen ausgeht. Die Kategorisierung der Anwendungen nach Risiko adressiert zwar die Vielfalt der Technik und ihrer Einsatzszenarien. Hohes Risiko bedeutet harte Regulierung, weniger Risiko lässt mehr Freiraum und damit auch mehr Raum für die Nutzung der Systeme zum Wohle der Gesellschaft.
Künstliche Intelligenz: Rechtssichere Definition gesuchtDoch gleichzeitig drückt sich der Entwurf davor, eine eindeutige Definition von KI zu liefern. Das ist auch kein leichtes Unterfangen, denn die Bezeichnung ist schon immer ein Sammelbegriff für alle möglichen Systeme, die technisch sehr unterschiedlich funktionieren. Seit Beginn des Hypes um KI verwenden viele den Begriff gleichbedeutend mit Anwendungen, die Texte generieren, obwohl das nur einen Bruchteil der Anwendungsbereiche und damit der Risiken umfasst. Um wirklich wirksam zu regulieren, wäre eine eindeutige, rechtssichere Definition unerlässlich, damit kein Unternehmen sich mit einer geschickten Beschreibung eines Systems unter der Regulierung wegducken kann.
Den strengeren Vorgaben entkommen könnten nach derzeitigen Plänen auch alle KI-Projekte, die ausschließlich im militärischen Kontext entwickelt oder eingesetzt werden. Denn für sie soll das EU-Gesetz nicht gelten. An autonomen Waffensystemen, die ohne menschliche Kontrolle ihre Ziele auswählen und töten, könnte ungehindert weitergeforscht werden; auch ihr Einsatz wäre nicht begrenzt.
EVP trommelt für invasive Einschränkung der Grund- und FreiheitsrechteDer Streit innerhalb des EU-Parlaments droht nun, noch größere Lücken in das Regelwerk zu reißen. Stein des Anstoßes: die biometrische Echtzeitüberwachung. Unter bestimmten Umständen soll es nach dem Willen der EVP gestattet sein, das Geschehen im öffentlichen Raum mittels Gesichtserkennung zu überwachen. In typisch konservativer Manier trommelt die EVP für diese invasive Einschränkung der Grund- und Freiheitsrechte.
Was angeblich schwere Straftaten verhindern soll, wird in Wahrheit auch dafür eingesetzt werden, Teilnehmende an Demos, Fußballfans und Geflüchtete an EU-Außengrenzen zu identifizieren und zu sanktionieren. Eine plausible Annahme, wenn man bedenkt, wie andere sicherheitspolitische Gesetze zu staatlichen Befugnissen in der Vergangenheit auf diese Gruppen ausgeweitet wurden. Klimaaktivist:innen werden vor ordnungsgemäß angemeldeten Demonstrationen in Präventivgewahrsam genommen, Fußballfans müssen exzessive Datensammelei der Polizei erdulden, Ausländerbehörden scannen massenhaft die intimsten Daten auf Handys von Geflüchteten, um Hinweise auf möglichen Identitätsbetrug zu erlangen. Schwer vorstellbar, dass nicht jedes KI-System, das die EU jetzt nicht strikt verbietet, irgendwann auf diese für Innenministerien offenbar grundsätzlich verdächtigen Gruppen angewandt wird.
Wettbewerbshüter schaffen es nicht, Monopolbildung von Digitalkonzernen zu unterbindenDenn selbst wenn diese Ausweitung sich als illegal erweisen sollte: Überall, wo die Gesellschaft es mit neuen, digitalen Anwendungen zu tun bekam, die die Einschränkung von Grundrechten durch Automatisierung zur Massenware machten, standen Regulierungsbehörden wie das Kaninchen vor der Schlange. Wettbewerbswächter:innen gelingt es nicht, die Monopolbildung von Digitalkonzernen zu unterbinden, Datenschutzbehörden sind unterfinanziert und -besetzt und setzen das Datenschutzrecht nicht flächendeckend gegen die Interessen datenhungriger Staaten und Unternehmen durch.
Wenn die KI-Regulierung kein zahnloser Papiertiger werden soll, ist mehr nötig als eine Absichtserklärung in Gesetzesform: Es braucht Politiker:innen, die verstehen, wie die Technologie funktioniert, welche Risiken für Freiheit und Demokratie aus ihr entstehen und die bereit sind, diese Werte gegen wirtschaftliche und politische Interessen zu verteidigen - und die sich nicht von Hypes, Weltrettungsversprechen oder Untergangsphantasien von dieser Mission ablenken lassen.
Zum Original