Hannover. Den Mythos ihrer Neutralität zu entkräften fällt nicht schwer. Zu zahlreich sind inzwischen die Beispiele für Diskriminierung durch künstliche Intelligenz (KI). So sollte eine Software Richterinnen und Richtern in den USA dabei helfen zu beurteilen, ob ein vorzeitig entlassener Häftling wieder straffällig wird. Die Recherchen des Journalistennetzwerks Propublica zeigten, dass das Risiko bei weißen Häftlingen geringer eingestuft wurde als bei dunkelhäutigen.
Der Grund dafür liegt nicht in einer tatsächlich höheren Gefahr für die Gesellschaft. Dunkelhäutige Menschen werden aber in den USA häufiger verhaftet. So waren sie auch überproportional in den Datensätzen vertreten, auf deren Basis die KI ihre Sozialprognose trainierte. „Künstliche Intelligenz hat keine Meinung oder ein Bewusstsein, sondern handelt nach dem, was wir ihr vorgeben. Diese Daten und Informationen sind oft ein Spiegel der Gesellschaft und reproduzieren so auch Vorurteile, zum Beispiel durch Über- und Unterrepräsentation", erklärt Tobias Matzner, Medienwissenschaftler an der Universität Paderborn.
Im Personalwesen sollen Algorithmen dabei helfen, Bewerbungen nach ihrer Passgenauigkeit vorzusortieren, sie fairer zu beurteilen, vielleicht so ganz nebenbei für mehr Diversität zu sorgen. Doch das klappt nicht immer. So kann es vorkommen, dass Frauen allein wegen ihres Geschlechts weniger Bewerbungschancen als Männer haben. Passiert ist das unter anderem beim Onlinehändler Amazon. Dort hatte man die Bewerbungen von erfolgreich eingestellten Mitarbeitenden als KI‑Trainingsgrundlage genutzt. Das Problem: Es wurden vor allem Männer eingestellt, der Algorithmus hielt „männlich" also für ein positives Einstellungskriterium.
Sind faire Algorithmen eine Illusion?Doch wie lässt sich solche automatisierte Diskriminierung verhindern? Bernhard Beckert, Professor am Karlsruher Institut für Technologie, sieht darin nicht nur eine technische Frage. „Komplett faire Algorithmen halte ich für eine Illusion. Fairness ist ja keine funktionale Eigenschaft, die sich einfach programmieren lässt. Wir brauchen im ersten Schritt eine Antwort auf die Frage, wie viel Fairness ist uns wichtig und wie viel Diskriminierung lassen wir zu", sagt er. Je nach eigenem Anspruch oder gesetzlichen Rahmenbedingungen kann und muss dann die Auswahl der nötigen Daten strenger oder laxer sein. Im Prinzip sei die Frage mit dem Datenschutz vergleichbar, so Beckert. Auch hier nutzen wir bereitwillig Anwendungen mit fragwürdigen Datenschutzgrundsätzen, solange der persönliche Nutzen überwiegt.
Tobias Matzner © Quelle: Privat
Genau solche Abwägungen über die verantwortungsvolle Entwicklung und Nutzung können wir jedoch nur treffen, wenn wir frühzeitig darüber sprechen. Das gilt in besonderem Maße für die künstliche Intelligenz, die nicht nur weltweit verfügbar ist, sondern das Potenzial hat, unser Leben und die Arbeitswelt grundlegend zu verändern - im Positiven und im Negativen. Doch vor der Debatte braucht es erst mal ein Problembewusstsein - auch bei den Entwicklern.
Eine gute Diskriminierungsprävention ist eine bewusste Auswahl der Datensätze, mit denen die KI trainieren soll. Hierbei braucht es einen genauen Blick dafür, ob Minderheiten ausreichend repräsentiert sind oder ob die Daten rassistisch oder sexistisch sortiert sind. Wenn eine Gesichtserkennungssoftware vornehmlich mit Bildern von weißen Männern trainiert - nur weil es von diesem Teil der Gesellschaft eben besonders viele Bilder gibt - kann das Programm am Ende mit 99-prozentiger Sicherheit männliche Weiße erkennen, nicht aber schwarze Frauen.
Entwicklerteams sind oft nicht divers genug aufgestelltWeil die Auswahl der Daten von Menschen getroffen wird, ist es wichtig, sich zu fragen, wer mit welchen „Vorurteilen" an der Entwicklung digitaler Anwendungen beteiligt ist. Oder anders formuliert: Ist das Entwicklerteam nicht besonders divers aufgestellt, fehlt ihm oft der Blick für die Belange zahlreicher gesellschaftlicher Gruppen.
„Wir brauchen dringend ein größeres Bewusstsein für datenbasierte Diskriminierung. Es sollte ein verpflichtendes Thema für IT‑Studiengänge werden, ähnlich wie es Datenschutz an vielen Hochschulen schon ist", sagt Matzner. Auch die Schaffung von IT‑Diskriminierungsbeauftragten und Qualitätsstandards zu Datenqualität oder Transparenz wäre sinnvoll - in Unternehmen, aber auch in staatlichen Institutionen. Sie könnten bei der Entwicklung helfen und Orientierung bieten und im Zweifel auch zum Anwalt der Anwender werden. Das ist nur ein Schritt. Angesichts der Tragweite neuer Technologien sollten nicht nur die Menschen im Studierzimmer oder in IT‑Abteilungen über die Dimensionen grundlegender Technologie entscheiden. Gerade die Anwendung von KI im Alltag sollte in allen Dimensionen auch in die breite Öffentlichkeit getragen werden. So entstehen Debatten und ein gesellschaftlicher Konsens, den die Politik in Gesetzen umsetzen kann.
Doch für diesen Konsens braucht es auch mündige Bürgerinnen und Bürger, die selbst über ihre Daten und deren Nutzung entscheiden und sich im Zweifel auch zur Wehr setzen können. Neben Entwicklung und Testung ist die dafür nötige Transparenz von Daten und deren Funktionen ein großer Knackpunkt. Werde ich in einer Firma oder von einer Behörde offen diskriminiert, besteht noch eine gewisse Transparenz und ich kenne im Zweifel sogar den Verursacher, einen Sachbearbeiter oder Kundenbetreuer zum Beispiel.
Eine flächendeckende Diskriminierung ist seltener zu erkennen. Bei Entscheidungen durch häufig verwendete KI kann aus einem Einzelfall schnell ein großes Problem werden, dessen Ursachen für den Anwender völlig intransparent bleiben. Entweder ist der Programmiercode zu komplex oder bleibt als Betriebsgeheimnis für Außenstehende unsichtbar. Genau deshalb wären auch verlässliche Regeln, Zertifikate oder Prüfungen durch Datendiskriminierungsstellen sinnvoll. Davon sind wir aber noch ein ganzes Stück entfernt.
EU‑Kommission ist aktiv gewordenEinen ersten Schritt in diese Richtung hat die EU‑Kommission immerhin im Frühjahr getan. So ist in dem KI‑Gesetzesvorschlag nicht nur ein generelles Verbot von Massenüberwachung vorgesehen. Auch Anwendungen, die kritischer Infrastruktur wie der Justiz oder Polizei helfen oder die Bewerberinnen und Bewerbern für einen Job auswählen, sollen verwendete Daten und ihre Nutzung transparent machen und zusätzlich von Menschen überwacht werden.
Matzner hält diesen Schritt für wichtig. „Technologie frühzeitig zu reglementieren, ist enorm wichtig. Das bedeutet ja nicht, sie gleich zu verteufeln. Im Gegenteil, durch KI können wir auch bestehende Diskriminierung ausmachen oder bestimmte Prozesse fairer gestalten", sagt er. So hilft künstliche Intelligenz inzwischen auch dabei, Hassrede im Netz aufzufinden und zu löschen oder Stellenausschreibungen so zu formulieren, dass sich niemand wegen seines Geschlechts, seiner sexuellen Orientierung oder Herkunft abgeschreckt fühlt. Noch sind es vor allem Projekte in der Nische. Um mehr von solchen konstruktiven Lösungen zu entwickeln, müssen wir uns des Problems noch bewusster werden.