Computerprogramme sollen zunehmend menschliche Entscheidungen ersetzen. Das soll zu objektiveren Beurteilungen führen und Gleichbehandlung garantieren. Leider ist das ein Trugschluss.
Von Moritz Müllender
Ist eine Welt, in der Künstliche Intelligenz (KI) über Bewerbungen, Strafverfolgung und Kreditwürdigkeit entscheidet, eine Utopie oder eine Dystopie? Viele argumentieren, dass KI zu mehr Gerechtigkeit führe. Ein neutrales System unbeeinflusst von menschlichen Neigungen, Vorurteilen und diskriminierenden Stereotypen solle zu einer faireren Welt für alle führen, aber ist das wirklich so?
Zunächst einmal ist festzuhalten, dass wir bereits in so einer Welt leben. In den Vereinigten Staaten nutzen beispielsweise Polizei und Justiz Algorithmen – also Rechenmodelle, auf denen die KI basiert – die vorhersagen, wo am wahrscheinlichsten eine Straftat passieren wird, wer ein erhöhtes Risiko für kriminelle Handlungen aufweist und welche Personen nach einer Straftat eher rückfällig werden. In Deutschland sortieren Algorithmen Bewerbungen auf Stellenausschreibungen vor und bewerten die Kandidat*innen. In Banken entscheiden vermehrt Computerprogramme, inwiefern Personen kreditwürdig sind.
Das Problem dabei: Künstliche Intelligenz lernt von Datensätzen und die spiegeln oft bestehende Diskriminierungsstrukturen wider, sind ungenau oder sind nur Näherungswerte, an das, was sie eigentlich messen sollen. Softwares zur Gesichtserkennung zum Beispiel sind besonders schlecht darin, Schwarze Menschen zu erkennen – vor allem Schwarze Frauen – am besten erkennen sie weiße Männer. Das liegt daran, dass die Datensätze, auf denen sie basieren, viel mehr weiße und männliche Gesichter zeigen. Werden solche Programme dann etwa von der Polizei angewendet um gesuchte Verbrecher*innen zu identifizieren, ist die Gefahr für Schwarze Menschen besonders hoch fälschlicherweise identifiziert zu werden. Und nicht erst seit Februar letzten Jahres ist klar, dass Polizeikontakt, für BIPoC (Black, Indigenous and People of Color) immer eine Gefahr sein kann.
Ähnlich diskriminierend wirken sich Vorhersagetools für Verbrechen aus. Viertel, in denen vermehrt BIPoC leben, weisen schon jetzt eine erhöhte Polizeipräsenz auf. Gesellschaftliche Ausgrenzung und geringere Chancen auf dem Arbeitsmarkt führen mit der daraus folgenden Armut zu einer erhöhten Kriminalitätsrate. Die ohnehin stärkere Polizeipräsenz treibt die Statistik darüber hinaus künstlich in die Höhe. Der Algorithmus lernt aus den vergangenen Straftaten Prognosen für zukünftige aufzustellen. So wird die Polizei ihre Streifen in den Vierteln verstärken und es entsteht ein Teufelskreis, der auf einer sich selbst erfüllenden Prophezeiung basiert. In den reichen Vierteln werden Delikte dagegen kaum geahndet, da hier kaum Ordnungshüter*innen präsent sind.
In Bewerbungsverfahren schließen Algorithmen von Daten, wie dem fristgerechten Begleichen von Rechnungen auf die Vertrauenswürdigkeit und Zuverlässigkeit von Kandidat*innen. Ärmere Menschen oder Personen, die Schicksalsschläge erlitten haben bekommen so weniger zweite Chancen oder Möglichkeiten aufzusteigen. Eine Amazon KI sortierte kurzerhand alle Bewerbungen von Frauen aus, da sie in Führungspositionen bei Amazon hauptsächliche Männer vorfand und daraus schlussfolgerte, dass Frauen wohl ungeeigneter für den Job seien.
Menschen diskriminieren, Algorithmen auch, denn sie sind von Menschen gemacht. Im Silicon Valley, der Wiege der KI arbeiten vor allem weiße Männer, die es offensichtlich nicht schaffen andere Lebensrealitäten zu berücksichtigen. Ihre Programme funktionieren am besten für Menschen, die wie sie selbst sind. Dabei laufen sie Gefahr, Diskriminierung durch die propagierte Neutralität und Präzision von Rechenmodellen zu legitimieren und so Fortschritt zu mehr Gerechtigkeit einzufrieren. Die meisten Firmen wollen sich wegen Betriebsgeheimnissen nicht einmal in die Karten schauen lassen und halten so die Funktionsweisen ihrer Algorithmen streng geheim. Während verschiedene Menschen auch aufgrund verschiedener Vorurteile handeln, wird ein flächendeckend eingeführter Algorithmus immer genau gleich diskriminieren. Das bedeutet, dass Personen, die sonst vielleicht bei einem Menschen mehr Glück gehabt hätten als bei einem anderen, vom Algorithmus immer ausgeschlossen würden.
Es braucht also einen proaktiven Umgang mit diesen „Mathevernichtungswaffen“ – so nennt die Autorin und Datenwissenschaftlerin Cathy O’Neil solche Programme. Unabhängige Kontrollstellen, Staaten, die in ihrem Know-How den Software-Schmieden nicht hinterherhinken, eine aufgeklärte Zivilgesellschaft mit scharfen digitalen Rechten und ein funktionierenden Datenschutz müssen den Giganten aus Silicon Valley etwas entgegensetzen können. Ansonsten droht uns und vor allem bereits diskriminierten Menschen eine genauso ungerechte Welt wie es sie bereits heute gibt, mit fortschrittlich anmutenden undurchsichtigen Rechenprozessen als Torwächtern.
Original