1 subscription and 0 subscribers
Article

Künstliche Intelligenz: Wenn Algorithmen den Menschen diskriminieren

Die Finanzbranche setzt enorme Hoffnungen auf die künstliche Intelligenz. Aber die Herrschaft der Maschinen führt zu ernsten ethischen Problemen.


Von Hannah Steinharter und Michael Maisch


Frankfurt. Der Brite John wohnt im selben Stadtteil wie Muhammad, beide verdienen gleich viel, sind im selben Alter und fahren genau das gleiche Auto - der einzige Unterscheid zwischen beiden sind ihre Namen. Ein Unterschied, der Muhammad allerdings viel Geld kostet, wie eine Recherche des britischen TV-Senders BBC zeigt.

Die Reporter holten für zwei fiktive Personen Angebote von Autoversicherungen ein und stellten fest: Mit exakt den gleichen Daten und nur den unterschiedlichen Vornamen schneiderten die Versicherungsalgorithmen völlig unterschiedliche Tarife. Muhammad hätte bis zu 360 Pfund mehr zahlen müssen als John. Die Algorithmen, mit denen die Versicherer ihre Prämien berechnen, scheinen etwas gegen Ausländer zu haben.

Künstliche Intelligenz (KI) rechnet in der Finanzbranche nicht nur Versicherungsbeiträge aus. Mithilfe von Algorithmen überprüfen Banken und andere Finanzdienstleister die Kreditwürdigkeit ihrer Kunden, forschen nach Betrug und automatisieren quasi jeden Geschäftsbereich - von der Vermögensverwaltung bis zur Kontoeröffnung.

Die digitale Revolution verspricht Gewaltiges: Durch den flächendeckenden Einsatz von KI und Algorithmen könnte die Finanzbranche Prognosen der Beratung PwC zufolge zwei Billionen Dollar zusätzlich zur weltweiten Wirtschaftsleistung beitragen.

Doch spätestens die Finanzkrise hat gelehrt, dass große Chancen auch immer mit großen Risiken verbunden sind, und dabei steht weit mehr auf dem Spiel als nur Gewinne und Verluste. Es geht um grundlegende ethische Fragen, die jeden Bürger betreffen.

Welche Entscheidungen wollen wir wirklich den Maschinen überlassen? Wer trägt am Ende die Verantwortung für die Ergebnisse der Algorithmen? Und was, wenn die Entscheidungen der Maschinen zwar Banken und Versicherungen nutzen, vielleicht auch noch ihren Kunden, aber der Gesellschaft insgesamt schaden?

Charles Randell, der Chairman der britischen Finanzaufsicht FCA, warnte kürzlich in einer Rede, dass wir schon bald nicht mehr in einer Demokratie leben könnten, in der die Bürger bestimmen, sondern „in einer Algokratie, in der die Algorithmen entscheiden". Gesellschaft und Politik müssten sich daran messen lassen, „wie wir das Risiko in den Griff bekommen, dass eine Algokratie soziale Ausgrenzung verstärkt und den Zugang zu Finanzdienstleistungen erschwert".

Diese Probleme treiben auch Raúl Rojas um. Der Professor für Informatik an der Freien Universität Berlin widmet sich dem Spezialgebiet künstliche neuronale Netze: „Nehmen wir einmal an, ich möchte einen Kredit beantragen und wohne in Berlin-Neukölln, dann leitet die KI möglicherweise allein aus den Adressinformationen ab, dass ich das Darlehen nicht zurückzahlen kann."

Neukölln gilt als Problembezirk in Berlin. Die Statistik erzählt von Drogen, Kriminalität und Arbeitslosigkeit. „Die KI kennt diese Statistik und berücksichtig bei ihrer Entscheidung nicht, dass ich ja theoretisch dort auch in einem Palast wohnen könnte", warnt Rojas.


Wunsch fairer Vorhersagen

Statistische Vorurteile nennen Experten solche Entscheidungen von KI, die im schlimmsten Fall ganze Bevölkerungsgruppen diskriminieren können. Nicht ohne Grund fordern immer mehr Bankenkritiker Algorithmen, die faire Vorhersagen über verschiedene gesellschaftliche Gruppen hinweg möglich machen.

Hinter den Forderungen nach Fairness und Transparenz der Algorithmen steht auch der Gedanke, dass Unternehmen nicht nur einem betriebswirtschaftlichen, sondern auch einem sozialen Zweck dienen. Versicherungen beruhen zum Beispiel auf dem Gedanken, dass ein möglichst großes Kollektiv die Schäden trägt. Dadurch werden auch Risiken abgefangen, die über dem Durchschnitt liegen. Eine konsequente Personalisierung könnte allerdings das Prinzip des Kollektivs unterhöhlen.

„Die gesamte Gesellschaft sollte von KI-Systemen profitieren, nicht nur die Wirtschaft", betont Oliver Bendel, Professor für Wirtschafts-, Informations- und Maschinenethik an der Fachhochschule Nordwestschweiz. Man müsse Datenquellen verbessern, Vorurteile erkennen und diskutieren und dann die Algorithmen entsprechend anpassen. „Letztlich kommt es darauf an, ob man die Realität abbilden oder erzeugen will. Beides ist möglich, beides hat Folgen."

Doch was passiert, wenn in Zukunft die Algorithmen gar nicht mehr von Menschen entwickelt und getestet werden, sondern von anderen Algorithmen? Maschinen bauen Maschinen, die Maschinen bauen. „Wen werden wir in Zukunft beaufsichtigen?", fragt Felix Hufeld, der Chef der deutschen Finanzaufsicht Bafin völlig zu Recht.

Schon heute können einige Formen des Maschinenlernens, wie zum Beispiel neuronale Netze, Ergebnisse produzieren, die sich nicht ohne Weiteres zurückverfolgen oder rekonstruieren lassen. „Menschen, nicht Maschinen müssen die Ergebnisse und die sozialen Folgen der Technologie verstehen, rechtfertigen und verantworten", betont FCA-Mann Randell. „Wir sollten zumindest über Methoden verfügen, mit denen wir das Funktionieren der Algorithmen sicherstellen und Fehler entdecken können", meint Ethik-Professor Mendel. Der Mensch müsse in der Lage sein, Prozesse und Ergebnisse „noch in irgendeiner Form beurteilen zu können".

Das setzt allerdings voraus, dass der Mensch - beziehungsweise der Banker - das auch will. Denn KI-Kritiker fürchten, dass der Einsatz von künstlicher Intelligenz dazu führen kann, dass die Menschen ihre natürliche Intelligenz vernachlässigen: Weil die Maschine denkt, muss der Banker nicht mehr denken.

So weit soll es nicht kommen. Ausflüchte wie „Ich war's nicht, die Maschine war's" würden die Regulatoren nicht akzeptieren, machte Chefaufseher Hufeld unlängst in einem Gastbeitrag für das „Handelsblatt" klar. Sein Fazit: „Man kann viel automatisieren und an Algorithmen delegieren, aber nicht die Verantwortung."


Original