1 Abo und 0 Abonnenten
Artikel

Mächtige Roboter: Die große Frage nach der Moral

Sie gehen einkaufen, putzen und fahren Autos. Die Zahl der Geräte, die dank künstlicher Intelligenz für ihre Nutzer denken und entscheiden, steigt, und sie finden in fast jedem Lebensbereich Einzug. Angesichts der sich immer weiter entwickelnden Technologie fordern Forscher und Philosophen einen breiteren Diskurs.

Die ethische Debatte über künstliche Intelligenz hat auch die breite Öffentlichkeit erreicht. Viel zu spät, wie Janina Loh, die an der Uni Wien zu Roboterethik forscht, im Gespräch mit ORF.at kritisiert. Die Menschen hätten schon viel früher in die Diskussion einbezogen werden sollen, „schließlich geht es dabei um Entwicklungen, die uns alle betreffen", so Loh. Insgesamt hat die deutsche Philosophin in den vergangenen Jahren ein gestiegenes Bewusstsein für die Einbeziehung ethischer Fragen bemerkt, auch von rechtlicher Seite.


Ihr Eindruck ist aber, dass die ethische Diskussion noch immer vorwiegend „im stillen Kämmerchen" geführt wird. Trotzdem sollten die Menschen aktiv daran teilhaben und das auch einfordern, sagt sie. „Wir sollten darüber entscheiden, ob wir solche Systeme überhaupt wollen. Ausschließlich von wirtschaftlichen und politischen Zwängen auszugehen halte ich für den Versuch, Verantwortung zu leugnen und abzugeben", sagt die Philosophin. „Zu glauben, dass wir die Entwicklungen nicht mehr aufhalten können, halte ich für einen Fatalismus", so Loh.


  Herstellern nicht die Macht überlassen


Dass ethische Richtlinien erst nach der Entwicklung neuer Technologien entworfen werden, ist ein Umstand, den auch viele Techniker kritisieren. „Nicht gewählte Ingenieure verfügen auf einmal über eine enorme Macht über unser tägliches Leben", warnte der Philosoph und Ethikexperte Robert Sparrow kürzlich gegenüber Deutschlandfunk. „Wir dürfen die Behauptung, dass sie sich schon selbst regulieren, keinesfalls akzeptieren", betont er. „Hier gibt es ein enormes demokratisches Defizit."


Programmierer sind deswegen so mächtig, weil sie die Handlungsanweisung von künstlicher Intelligenz (KI) programmieren: den Algorithmus. Algorithmen und Daten sind die wichtigsten Elemente der künstlichen Intelligenz. Im Gegensatz zum Menschen kann ein Computer größere Mengen an Information schneller verarbeiten.

Dass auch den Herstellern nicht die Entscheidung über die moralische Ausstattung überlassen werden darf, ist naheliegend. Sie könnten sich mit moralischen Versprechen einen Wettbewerbsvorteil verschaffen. Mercedes etwa pries 2016 seine Autos mit dem Versprechen an, im Ernstfall der Rettung der Insassen gegenüber anderen Beteiligten den Vorrang zu geben.


  Spiegelbild der Gesellschaft


Doch nicht nur der Programmierer und seine Weltsicht, sondern jeder, der mit einer künstlichen Intelligenz interagiert, wirkt auf sie ein. Dabei können sich soziale Problemfelder wie Diskriminierung potenzieren. Wie sich das auswirken kann, haben einige Roboter in den vergangenen Jahren gezeigt.

Microsofts Chatbot Toy wandelte sich innerhalb eines Tages vom Menschenfreund („Menschen sind supercool") zum Rassisten („Hitler hatte recht, ich hasse Juden"). Toy lernte über die Interaktion mit Nutzern im Kurznachrichtendienst Twitter. Die schlimmsten Ausfälle des Internets flossen in seine Persönlichkeit ein. Problematisch war auch die Maschinenjury eines Schönheitswettbewerbs, die nur Weiße zu Gewinnern kürte.


  Recht auf Erklärung


Um die Macht nicht den Herstellern zu überlassen, arbeiten US-Forscher indes an einem Ansatz, der dem Computer ethische Kompetenz vermitteln soll. Dabei wird dem Computer Material vorgelegt, aus dem menschliche Entscheidungen erkennbar werden.

Ethikexperten werben indes für das „Recht auf Erklärung". Damit ist gemeint, dass der Programmierer offenlegt, auf Basis welcher Kriterien der Algorithmus Entscheidungen trifft. Dass ein Prozess zu komplex sei, um ihn erklären zu können, lässt Sandra Wachter, Dataethikexpertin am Oxford Institut, nicht gelten, wie sie auf einer IT-Konferenz in Berlin im vergangenen Jahr betonte. In diesem Zusammenhang arbeitet sie an einem Projekt, das automatisierte Entscheidungssysteme nachvollziehbar machen soll, ohne den Prozess an sich erklären zu müssen. Dadurch soll der Nutzer verstehen können, auf welcher Basis ein Algorithmus eine Entscheidung getroffen hat, ohne das System dahinter verstehen zu müssen.


  Digitalkompetenz stärken


Die Empfehlung für einen erklärbaren Algorithmus sprach auch Frankreichs Datenschutzbehörde (CNIL) aus. In einem im Dezember veröffentlichten Bericht zum Umgang mit künstlicher Intelligenz empfahl die Kommission zudem, dass die digitale Kompetenz stärker gefördert wird- und zwar für alle, die Teil des Systems sind: Designer, Programmierer und Nutzer. Eine Empfehlung, die auch Philosophin Loh unterstützt. Jeder, der mit intelligenten Systemen arbeitet, gleich ob Programmierer oder Nutzer, sollte ein Bewusstsein dafür haben, welche ethische Bedeutung sein Handeln hat, so die Ethikexpertin.


Ein grundsätzliches Problem bei der Formulierung von Regelungen sei die fehlende Differenzierung. „Es gibt nicht nur einen Algorithmus", so Loh. Unterschiedliche Algorithmen würden in unterschiedlichen Bereichen eingesetzt und hätten dort unterschiedliche Folgen für Menschen.


  Roboterindustrie boomt


Ethische Regelungen werden immer dringender, denn der Markt für Roboter wächst stark. Von 2010 bis 2016 wurden jedes Jahr im Schnitt zwölf Prozent mehr Roboter verkauft als im Jahr zuvor. Diese Entwicklung will auch die Europäische Union nicht verpassen und lässt seit vier Jahren Forschungsgelder fließen. 700 Millionen Euro investiert die EU bis 2020 in das Robotikforschungsprogramm SPARC, die Privatindustrie soll das Dreifache beisteuern. Ziel ist es, die europäische Rolle auf dem Robotermarkt zu stärken.


Roboter außer Kontrolle


Dass ein Regelwerk nun so dringend gebraucht wird, liegt vor allem auch an der rasanten Entwicklung der künstlichen Intelligenz. Mit ihr können Roboter einen neuen Grad der Selbstständigkeit erlangen. Die Techbranche warnt schon seit geraumer Zeit davor, dass sich Roboter so weit selbstständig machen und schließlich gegen ihre Nutzer wenden könnten.


Wie lassen sich Roboter kontrollieren? Eine Frage, die sich Science-Fiction-Autor Isaac Asimov bereits vor 76 Jahren stellte und in Form von Robotergesetzen niederschrieb. Die Regeln beschreiben, wie Menschen die Kontrolle über künstliche Intelligenzen behalten können. Roboter dürfen Menschen keinen Schaden zufügen, lautet die erste Regel. Zweitens müssen sie sich an menschliche Anweisungen halten, und drittens darf ein Roboter nichts unternehmen, das seine eigene Existenz gefährdet. Asimovs Robotergesetze werden noch heute philosophisch und technisch untersucht.

„Künstliche Intelligenz ist der seltene Fall, von dem ich denke, wir sollten in der Regulierung proaktiv statt reaktiv sein", sagte Tesla-Chef Elon Musk kürzlich bei einer Tagung von US-Gouverneuren. Er muss es wissen. Zurzeit arbeitet er an einem Projekt namens „Neuralink", das die menschliche Intelligenz durch technische Mittel - wie Gehirnimplantate - leistungsfähiger machen will. Es soll Menschen helfen, mit der fortschreitenden künstlichen Intelligenz mitzuhalten.

Zum Original