Rieke Smit

Journalistin / Master: International Humanitarian Action, Berlin

4 Abos und 1 Abonnent
Artikel

ChatGPT & Co.: Diese Regeln sollen Bürger schützen

Die kritischen Stimmen zum Thema KI werden lauter. Wer trägt die Verantwortung und welche Regeln braucht es für ChatGPT, Bard und Co.?


Berlin. Künstliche Intelligenz (KI) ist in Streaming-Diensten, Navigationsgeräte oder Chatbots nicht mehr aus unserem Alltag wegzudenken. Doch je mehr die Entwicklung in dem Bereich voranschreitet, desto lauter wird der Ruf nach Regulierungen und Gesetzen. Braucht es solche Regeln und wer trägt die Verantwortung beim Thema Künstliche Intelligenz?

Die Frage wird derzeit von vielen Seiten mit einem eindeutigen Ja beantwortet. Die Unesco fordert strenge ethische Regeln für KI-Systeme und Branchen-Expertinnen und Experten verlangen ein halbjähriges Moratorium bei der Entwicklung. Italien geht sogar noch einen Schritt weiter und hat die Nutzung von ChatGPT verboten, weil das Land eine Gefahr für Minderjährige und den Datenschutz sieht.


Auch das Bundesministerium für Verbraucherschutz fordert schnelle Regulierungen beim Einsatz von Künstlicher Intelligenz. „Wir benötigen schnellstmöglich klare Regeln für KI. Wir müssen Risiken begrenzen und gefährliche Entwicklungen eindämmen", sagt Staatssekretärin Christiane Rohleder (Grüne). Um Diskriminierung zu vermeiden, müssten die Systeme transparent, nachvollziehbar und überprüfbar gestaltet werden, erklärt sie.


Bundesregierung unterstützt KI-Verordnung der EU

„Die EU hat eine maßgebliche Verantwortung, was die Regulierung von KI angeht", sagt CDU-Europaabgeordneter Axel Voss. Auch die Bundesregierung unterstützt die KI-Verordnung, die derzeit auf EU-Ebene ausgearbeitet wird.


Dieser sogenannte Artificial Intelligence Act (AI Act) wurde im April 2021 von der EU-Kommission vorgeschlagen und könnte weltweit Vorreiter in der Gesetzgebung zur Künstlichen Intelligenz werden. „Die EU ist der erste Kontinent, der eine umfassende KI-Regulierung anstrebt", bestätigt Alexandra Geese, Grünen-Europaabgeordnete. Diese Federführung beim Thema KI-Regulierung soll laut Digitalisierungs-Expertin Geese der Sorge entgegenwirken, dass die EU bei der Entwicklung der Technologie nicht vorne mit dabei sei.


Risikopotenzial von KI als Grundlage für AI Act

Der zurzeit im Europäischen Parlament und Rat diskutierte AI Act hat einen risikobasierten Ansatz, der sicherstellen soll, dass KI-basierte Systeme keine negativen Folgen auf die Sicherheit und Grundrechte der Menschen haben. Das bedeutet, dass die jeweiligen gesetzlichen Auflagen vom Risikopotenzial der Anwendung abhängen sollen.

Risikoreiche Systeme, die für die EU nicht akzeptabel sind, sollen demnach komplett verboten werden. Darunter fallen sprechende Spielzeuge, die Kinder zu gefährlichem Verhalten verleiten könnten oder das sogenannte Social Scoring mit welchem die Kreditwürdigkeit von Personen durch Internetdaten beurteilt werden könnte. Hochrisiko-Systeme, wie zum Beispiel im Transportwesen oder zur Bewertung von Prüfungsleistungen, sollen bestimmten Regeln unterliegen. KI-Systeme, die als risikoarm eingestuft werden, sollen keine Auflagen bekommen. 

Chatbots wie ChatGPT werden von der EU derzeit als begrenzt risikoreich eingeordnet. Damit unterliegen diese KI-Anwendungen einer minimalen Transparenzpflicht, die es den Nutzerinnen und Nutzern ermöglichen soll, selbst zu entscheiden, diese zu nutzen oder nicht.


Rasante Entwicklung fordert die EU heraus

Auch wenn der KI-Gesetzentwurf eine weltweite Vorbildfunktion haben könnte, kommt dieser doch mit einigen ungeklärten Problemen. Da ist zum Beispiel die zeitliche Komponente: Zwar sollen die Regulierungen nach der aktuellen Planung bis Ende 2023 feststehen, doch die Umsetzungsphase könnte erst 2025 oder später beginnen, erklärt Axel Voss.


Er hält die politischen Prozesse für zu langsam, um mit den aktuellen Entwicklungen in der Forschung mitzuhalten. „Die Politik muss flexibler werden, mehr Prioritäten setzen und auf der europäischen Ebene mehr an gemeinschaftliche Projekte denken, weil wir sonst keinen Fuß mehr in die Tür bekommen", sagt der EU-Politiker.


Die Grüne Alexandra Geese sieht aber eine Lösung, um Gesetzgebung und aktuelle Entwicklungen zusammenzubringen. Sie unterstützt den Vorschlag der EU-Kommission, der eine ex-ante Prüfung vorsieht, um mit der KI-Forschung mitzuhalten. Mit dieser würden Anwendung und ihre Folgen einmal vor der Zulassung an Hand der EU-Regulierungen überprüft werden. So müssten Anpassungen nicht immer wieder von Neuem kontrolliert werden.


Chaos Computer Club sieht Lücken beim Schutz der Grundrechte 

Unter Expertinnen und Experten diskutiert wird die derzeit im AI-Act sehr breit gefasste Definition von Künstlicher Intelligenz. Während die einen bemängeln, dass die breite Definition zu einer Überregulierung führen könnte, sehen andere die Notwendigkeit für diese, damit alle Systeme, die Auswirkungen auf die Menschenwürde haben, eingeschlossen werden können.


Auch der Chaos Computer Club (CCC) sieht große Lücken im AI-Act beim Schutz der Grundrechte. Der Verein fordert das Eindämmen von problematischen Technologien. „Die EU muss der ethisch nicht vertretbaren Anwendungen von KI einen Riegel vorschieben", so der Chaos Computer Club. Das gelte besonders für die Erkennung von Emotionen, der biometrischen Identifizierung oder der Grenzüberwachung.


Weiterlesen unter morgenpost.de

Zum Original