Lisa Kuner

Freie Journalistin, Leipzig

3 Abos und 6 Abonnenten
Artikel

KI im Bewerbungsprozess: Und raus bist du!

Lebensläufe automatisiert analysieren, Körpersprache und Gesichtsausdruck im Bewerbungsgespräch bewerten - das alles können Algorithmen längst. Immer häufiger wird deshalb Künstliche Intelligenz (KI) im Personalwesen eingesetzt. Sie hat im Bewerbermanagement das Potential, viel Arbeit zu sparen, Menschen fairer zu beurteilen und so für mehr Diversität zur sorgen, sagen ihre Befürworter. Aber auch Gefahren drohen: Immer wieder machten Softwareprogramme Schlagzeilen, die aufgrund der Bewertung durch Algorithmen Menschen diskriminieren. Bei einem Testlauf einer Software für Karrierechancen des österreichischen Arbeitsmarktservices etwa wurden Frauen allein aufgrund ihres Geschlechts weniger Chancen zugerechnet. Grund dafür war unter anderem, dass sie aufgrund von Fürsorgezeiten mehr Lücken im Lebenslauf hatten. Andere Programme agierten rassistisch oder erkannten die Gesichter von schwarzen Menschen erst gar nicht. Statt zu mehr Diversität beizutragen, verstärken Programme Diskriminierungsmuster.

Das muss nicht sein. Wichtig sei, was KI leisten kann und was nicht, sagt die Juristin Victoria Guijarro Santos von Netzforma, einem Verein für feministische Netzpolitik. „Diskriminierung durch KI kommt nicht aus dem Nichts", sagt sie. Urteile durch Algorithmen seien nicht objektiv, sondern die Folge von Entscheidungen der Entwickler. Außerdem mache auch KI Fehler. Häufig würden Anwendungen schon genutzt, wenn sie zu 85 Prozent akkurat sind. Das heißt, dass bis zu 15 Prozent der Entscheidungen falsch sind. „Auch eine Künstliche Intelligenz kann nur begrenztes Wissen abbilden", sagt sie.

„In manchen Situationen sollten die Programme menschliche Entscheider hinzurufen"

Jessica Heesen ist überzeugt, dass das auch anders geht. Sie ist Medienethikerin an der Universität Tübingen und forscht im Projekt „Plattform Lernende Systeme" zu ethischen Fragen rund um Künstliche Intelligenz. Damit KI nicht diskriminiert, muss sie aus ihrer Sicht verantwortungsvoll entwickelt und eingesetzt werden - und das birgt einige Hürden. Die erste liegt laut Heesen in den Datensätzen, mit denen KI trainiert wird. Nicht immer sind darin Minderheiten repräsentiert, manchmal ist schon die Beschriftung der Daten rassistisch oder sexistisch. Außerdem sei Transparenz wichtig, auf welcher Grundlage eine KI Entscheidungen fällt. „Die Algorithmen nehmen Wertungen vor, und die sollten unseren Werten entsprechen."

F.A.Z. Frühdenker - Der Newsletter für Deutschland

Werktags um 6.30 Uhr

ANMELDEN

Einer dieser Werte sollte die Gleichbehandlung der Geschlechter sein. Um hier Diskriminierung abzubauen, muss man laut Guijarro Santos zwischen formaler und materieller Gleichheit unterscheiden. Formale Gleichheit ist Gleichheit auf dem Papier, materielle Gleichheit versucht Barrieren abzubauen. Was das Geschlecht betrifft, ist in Deutschland gesetzlich materielle Gleichheit vorgeschrieben, das Grundgesetz „wirkt auf die Beseitigung bestehender Nachteile hin". Eine Anwendung wie vom Arbeitsmarktservice in Österreich, die Frauen schlechter beurteilt, weil diese gemäß Datenlage in der Vergangenheit seltener erfolgreich waren, würde dem widersprechen. „Solche Anwendungen schaffen es nicht, Frauen individuell im Gegensatz zur Masse zu betrachten", sagt Guijarro Santos. Anstatt Vorurteile zu überwinden, reproduziere KI so Diskriminierung. „Dieses Problem wird es immer geben, solange wir versuchen, mit Daten aus der Vergangenheit die Zukunft vorherzusagen", sagt sie.

Vorstoß der EU

Wenn eine KI gegen Gesetze verstößt, kann man immerhin rechtliche Schritte einleiten. Victoria Guijarro Santos ist das aber nicht genug: „Es müssen schon davor Maßnahmen getroffen werden", sagt sie. „Technische Lösungen allein reichen nicht." Jessica Heesen findet, dass Unternehmen verpflichtend kennzeichnen sollten, wenn sie KI nutzen. Auch Qualitätsstandards seien wichtig. „In manchen Situationen sollten die Programme menschliche Entscheider hinzurufen", sagt sie. Die müssten dann aber auch besser in der Arbeitsweise von Algorithmen geschult werden, damit sie in der Lage sind, gegen KI-Entscheidungen zu argumentieren. Außerdem schlägt Heesen eine Zertifizierung vor. Dafür sollten Anwendungen anhand von Kriterien wie Trainingsdatenqualität, Datenschutz, Robustheit gegenüber Angriffen, Transparenz oder Diskriminierungsfreiheit geprüft werden. „Das gäbe mehr Sicherheit für alle", sagt sie.

Ein erster Schritt zu einer besseren Regulierung von KI ist für sie ein Vorstoß der EU. Darin werden die meisten Anwendungen für den Arbeitsmarkt als Anwendungen mit „hohem Risiko" eingestuft. Für diese sollen besonders hohe Anforderungen gelten, unter anderem sollen sie in einem zentralen Register aufgeführt werden. „Das ist auch richtig, denn solche Programme entscheiden unter Umständen über ganze Karrieren", sagt Heesen. Wenn Qualitätsstandards eingehalten werden, könne KI Diskriminierung abbauen. So könnte man sie nutzen, um viele Frauen oder Menschen mit Migrationshintergrund für bestimmte Positionen vorzuschlagen. Eine Software wie die des österreichischen Arbeitsmarktservices könnte also etwa Lücken im Lebenslauf nicht negativ bewerten, sondern Fürsorgezeiten honorieren.

Zum Original