1 subscription and 0 subscribers
Article

Algorithmen entscheiden nichts

Fragt man Philosophen, „Was ist künstliche Intelligenz (KI)?", so kann es passieren, dass die Antwort lautet: „Eine schlimme Wortschöpfung aus dem Jahr 1956". Anders als der Begriff suggeriert, steckt in dieser Technologie auf der einen Seite mehr Mensch als gedacht und sie ist auf der anderen Seite dümmer als man meint. Die rasanten technologischen Entwicklungen im Bereich der Digitalisierung in den vergangenen Jahren lassen deren kulturelle Einbettung - und damit unser Verständnis dieser Entwicklungen - hinterherhinken. Wenn wir es mit Neuem zu tun haben - sei es als Individuum, als Organisation oder als Gesellschaft - greifen wir zunächst auf Bekanntes zurück, das uns dabei helfen soll, das Neue irgendwie einzuordnen, ihm Sinn zu verleihen, seine Vor- und Nachteile zu diskutieren. Dabei spielen Analogien, besonders auch Begriffsanalogien, eine wichtige Rolle, um sich im Dickicht des Neuen zu orientieren und Trampelpfade des Verständnisses zu schaffen. Unsere Daten liegen in der „Cloud", wir „surfen" im „Netz" und bedienen unser „Smart"-Phone. Mitunter können uns Begriffsanalogien jedoch in die Irre führen. Der Ausdruck „autonom fahrende Autos" lässt uns eine leicht andere Perspektive auf dieselbe Maschine einnehmen als der des „automatisierten Fahrens"; ein Unterschied, der bei der Schuldzuschreibung im Falle eines Unfalls bedeutsam werden kann.

Eine weitere verbreitete Analogie im Kontext der KI betrifft den Begriff der Entscheidung. Algorithmen „entscheiden" beispielsweise, so heißt es oft, welche Werbung uns beim Surfen im Internet angezeigt wird, welche Mitarbeitende in einem Unternehmen eingestellt werden, wer einen Kredit zu welchen Konditionen bekommt, welche Strafgefangene vorzeitig auf eine Bewährung hoffen können. Selbst im Bereich der Intensiv- und Notfallmedizin kommen Algorithmen zum Einsatz und sollen darüber „entscheiden", wer prioritär behandelt werden soll und wer das Nachsehen hat: Triage durch Technik. Die Vorteile durch künstliche Intelligenz scheinen dabei auf der Hand zu liegen: Der Computer arbeitet faktenbasiert und der Output kann nicht durch Emotionen, Eigeninteressen oder andere Formen des „Menschelns" verfälscht werden. Eine Entscheidung des Computers erscheint dadurch neutral und objektiv. Hinzukommt, dass Akteure, beispielsweise Managerinnen und Manager oder Ärztinnen und Ärzte, hinsichtlich der Übernahme von Verantwortung entlastet werden, moralisch schwierige oder risikobehaftete Entscheidungen zu treffen.

Ein Muster für Michaels

Nur: Entscheidet ein Computer eigentlich? Was ist eine Entscheidung? Von einer Entscheidung sprechen wir oft, wenn man zwischen zwei oder mehr Alternativen wählt. Manche Entscheidungen liegen auf der Hand und müssen nicht groß überlegt werden, denn dafür stehen uns bewähre Handlungsskripte zur Verfügung, die wir routinisiert und habitualisiert haben und in unserem kulturellen Kontext bewährt sind. Der amerikanische Psychologe Daniel Kahneman nennt das ein „schnelles Denken". Ganz anders sieht es aus, wenn wir uns in einer nicht so alltäglichen oder sehr spontanen Situation befinden: Laufe ich noch, um den Bus zu bekommen oder nehme ich den nächsten? Streiche ich das Zimmer weiß, grau oder grün? In solchen Situationen überlegen wir Aspekte für und gegen die Alternativen. Das nennt Kahneman analog „langsames Denken". Oft ist in solchen Fällen dann die Rede davon, dass wir „abwägen", also im etymologischen gleichen Sinne etwas auf eine Waage legen, um die Alternative zu bestimmen, für die wir uns dann „entscheiden".

Es mag diese mechanistische Vorstellung vom Entscheiden sein, die uns mitunter auch von „algorithmischen Entscheidungen" sprechen lässt. Denn Algorithmen machen vereinfacht gesagt nichts anderes als einen bestimmten Dateninput über eine Syntax, also vorab definierte Regeln von Zusammenhängen, zu verarbeiten. Der Bereich des Machine Learning der „künstlichen Intelligenz" geht noch einen Schritt weiter, indem die Syntax durch die Systeme im Hinblick auf ein von außen vorgegebenes Optimierungsziel selbst gesetzt wird. Die Bestimmung der syntaktischen Zusammenhänge erfolgt wiederum durch die Analyse von Mustern von Inputdaten (sogenannte Trainingssätze). Ein System kann so in einem Datensatz Muster erkennen, zum Beispiel dass in einem Unternehmen Führungspositionen in der Vergangenheit überwiegend an weiße, männliche Kandidaten mit dem Vornamen Thomas oder Michael vergeben wurden. So trainierte Algorithmen würden dann bei der Analyse von Lebensläufen in künftigen Bewerbungsverfahren nach ähnlichen Konstellationen suchen.

Gekochte Daten

Die hier durchscheinende Problematik wird unter dem Begriff social bias aktuell breit diskutiert. Sie verdeutlicht in einer allgemeineren Perspektive, erstens, dass „es keine ‚Rohdaten' geben kann. Beides, Daten wie Variablen, sind immer schon ‚gekocht', das heißt sie wurden durch kulturelle Operationen erzeugt und in kulturelle Kategorien geformt", schreibt der Medienwissenschaftler Felix Stalder. Und zweitens bilden Algorithmen die Welt nicht nur reduzierend ab, sondern sie erzeugen zugleich auch Ordnungen, hält der Soziologe Steffen Mau fest. Ihnen ist dabei systematisch - und nicht nur zufällig - ein struktureller Konservatismus inhärent, da sie dazu tendieren, gegebene Ordnungsmuster zu reproduzieren. Die Thomasse und Michaels wird das für ihre Bewerbungsverfahren freuen. Die vielfältigen Beispiele sozialer Diskriminierung durch Algorithmen haben dazu geführt, dass inzwischen in milderer Form von „algorithmisch-gestützten Entscheidungen" gesprochen wird, womit signalisiert werden soll, dass der Mensch ein wichtiger Teil der Entscheidung ist, hier vielleicht sogar das letzte Wort hat. „Human in the loop" heißt das dann.

Dazu gilt es jedoch erstens zu bedenken, dass Entscheider:innen das Zustandekommen einer algorithmischen Berechnung in der Regel nicht klar ist, denn dafür sind die unzähligen Versuche der KI zur Optimierung des Outputs zu komplex. Entscheiderinnen und Entscheider können daher meist nur den erzeugten Output in den Blick nehmen und diesen durch ihre Intuitionen und ihre Erfahrungen nochmals normativ bewerten, ihn für sinnvoll oder weniger sinnvoll erachten, mehr aber nicht. Jedoch liegt ein Vorteil der Berechnung durch eine KI gerade darin, dass sie nicht wie ein Mensch Zusammenhänge nach bekannten Mustern sucht, sondern Muster nach rein statistischen Kriterien erstellt - manchmal offenbaren sich hierdurch revolutionär neue Zusammenhänge, manchmal sind es sinnlose Scheinkorrelationen.

Das Leben ist kein Schachspiel

Zweitens kann gerade ein „in the loop"-Denken mit nicht zu unterschätzenden psychologischen Hürden verbunden sein, die man als innerlichen oder äußerlichen Verantwortungstransfer an Künstliche Intelligenz bezeichnen kann. Eine Delegation von Verantwortung an eine Maschine kann zum einem stattfinden, weil metrischen Systemen eine „epistemische Autorität" innewohnt, die - scheinbar neutral und präzise - eine angemessene Entscheidung vorschlägt, die man aus Routine, Unsicherheit oder mangelndem Mut nicht hinterfragt. Zum anderen kann die Befolgung algorithmischer Empfehlungen für die Entscheider:innen oft geradezu geboten erscheinen, um sich bei Schadens- oder Klagefällen (rechtlich) abzusichern. Eine Berechnung ist keine Entscheidung, aber Berechnungen sind wirkmächtig, denn sie erzeugen Sicherheit und Ordnung. Sie wirken im Sozialen, indem sie Wesentlichkeiten und Neutralität vorgeben, die durch einen dominanten Code bestimmt sind, nämlich: den Programmier-Code. Phänomenologisch sind Entscheidungen jedoch ganz im Gegenteil als etwas „outside the code" zu begreifen, und zwar wenigstens in dreierlei Hinsicht:

Wenn wir entscheiden, so überlegen wir gute Gründe für oder wider verschiedene Optionen. Es handelt sich dabei jedoch nicht um eine mechanische „Abwägung" oder mathematische Optimierung. Vielmehr imaginieren wir in diesem Prozess immer auch eine Zukunft: Wir versuchen Dinge zu antizipieren, treffen „Als ob"-Annahmen oder entwerfen „Was wäre, wenn"-Szenarien. Das Leben ist dabei jedoch kein Schachspiel, bei dem die nächsten Züge logisch antizipiert werden können. Unsere Zukunft ist vielmehr ungewiss und hängt von diversen Faktoren ab, die außerhalb unserer Einflusssphäre liegen. Aber die Zukunft ist vorstellbar, phantasierbar, und wir phantasieren über sie im Prozess jeder Entscheidung. Entscheidungen haben im Gegensatz zu Berechnungen daher einen „fiktionalen Überschuss". Der Soziologe Jens Beckert sieht in solchen fiktionalen Erwartungen gar eine besondere Quelle für Dynamiken im Kapitalismus.

Outside the Code

Eine Entscheidung hat damit, zweitens, etwas von einem Sprung in einen neuen Handlungskontext, dessen Ausgangspunkt dann das bildet, wofür man sich entschieden hat. Es ist möglich, spontane und ungewöhnliche, nicht-lineare Entscheidungen gegen jede Erwartung zu treffen. Je nach Situation kann dies von außen durchaus als „pathologisch", „verrückt" oder eben auch „kreativ" oder „genial" angesehen werden - diese Einschätzungen variieren meist auch in Abhängigkeit von den Konsequenzen der Entscheidung. Drittens rückt etwas in den Vordergrund, was für menschliche Entscheidungen und für unser soziales Miteinander fundamental ist, nämlich die Rechtfertigung der Entscheidung - gegenüber sich selbst und gegenüber anderen. Die für die Entscheidung herangezogenen Gründe und Imaginationen tauchen im neuen Handlungskontext als Begründungen der Entscheidung wieder auf. Wir reichern also im besten Fall Möglichkeitsräume der Zukunft um Verantwortungsfragen in Rechtfertigungskontexten an. In unseren Entscheidungen ist Zukunft daher immer schon diskursiv mit Visionen, Rechtfertigungen und Vorstellungen des guten Lebens verbunden; Fragen, die bei Berechnungen gar nicht in den Blick kommen können.

Wir sollten Entwicklungen der künstlichen Intelligenz daher mit mehr Wachsamkeit begegnen und sie immer auch als Fragen nach dem Menschsein und unserem Zusammenleben begreifen. Dazu zählt ein angemessenes Vokabular und eine bedachte Verwendung von Begriffen, bei der wir nicht jeder lebensweltliche Analogie auf den Leim gehen sollten, wie wir dies bei Wortwendungen wie „Künstliche Intelligenz" oder „algorithmische Entscheidungen" vorfinden. Wir sollten uns also nicht vorrangig „in the loop" begeben. Der Mensch gehört nicht in Programmierschleifen mit Wenn-Dann-Bedingungen, sondern „outside the code". Menschliche Entscheidungen und Rechtfertigungen können sich erst dort richtig und vernünftig entfalten. *

Thomas Beschorner ist Professor für Wirtschaftsethik und Direktor des Instituts für Wirtschaftsethik der Universität St. Gallen in der Schweiz. Florian Krause forscht ebendort als Wissenschaftlicher Mitarbeiter.
Original