1 Abo und 0 Abonnenten
Artikel

Wer haftet, wenn Roboter töten?

Manche nennen sie auch die „Autoshow". Denn bei der Consumer Electronics Show (CES) in Las Vegas lassen auch dieses Jahr wieder namhafte Autohersteller, darunter Pionier Tesla, VW und viele asiatische Marken, ihre autonomen Modelle auffahren. Doch hinter innovativen Bedienkonzepten und autonomen Fahrkünsten brodelt in der Robotik- und AI-Branche die Debatte über Ethik und Moral.

Dass autonome Autos kommen, gilt als sicher und auch politisch gewollt. Schließlich senken sie nicht nur Fahrkosten und Energieverbrauch, sondern auch die Zahl der Unfälle. Doch ist die ethische Frage ein ernsthaftes Problem für die Ära der selbstfahrenden Autos.


Daimler Chef Dieter Zetsche fand bereits vor drei Jahren direkte Worte, als er bei der CES 2015 eine ethische Debatte über selbstfahrende Autos forderte. Bevor der selbstfahrende Mercedes-Prototyp auf der Straße fahren kann, müssten offene rechtliche und ethische Probleme geklärt werden, so Zetsche. Eine gesetzliche Regelung, wie im Falle eines Unfalls reagiert werden sollte, sollte von Herstellern und dem Gesetzgeber entwickelt werden, führte er später aus. Der Konzern hat bereits seit 2011 eine Kommission eingerichtet, die sich mit Ethik befasst.


  Moralisches Dilemma


Die Philosophie spielt schon seit einigen Jahren eine wichtige Rolle in der Realität der autonomen Autos. Dort wird das Dilemma des Tötens, um Leben zu retten, als „Weichenstellerfall" diskutiert. In dem Szenario gilt es zu entscheiden, ob ein außer Kontrolle geratener Zug, der auf eine Gruppe von fünf Menschen zusteuert, auf ein Nebengleis umgeleitet werden soll, wo nur eine Person überfahren werden würde. In selbstfahrenden Autos entscheidet der „Death Algorithm" darüber, wie sich ein Auto im Notfall verhalten soll.


Doch das Dilemma geht noch viel weiter, wie die „Zeit" kürzlich aufzeigte. Nämlich durch die vorhersagende Analyse, die in der Variante des Predictive Policing (vorhersagende Polizeiarbeit) in den USA bereits weit verbreitet ist. Erkenntnisse aus dem Data Mining - dem systematischen Sammeln und Auswerten von Daten - könnten in Zukunft in die Entscheidung des Computers einfließen.


In diesem Szenario würde der Computer eines autonomen Autos auf Basis von Gesichtserkennung und Data Mining Entscheidungen treffen. Etwa ob das Auto dem Kind ausweicht, das auf die Straße gelaufen ist, und die alte Frau am Gehsteig ansteuert, von der das System weiß, dass sie Ärzten zufolge nur noch wenige Monate leben wird. Oder ob sich das Auto gar eine Brücke hinunterstürzt, um keine anderen Passanten zu verletzten.


  Mensch muss Kontrolle haben


Mit dem Dilemma hat sich auch die Ethikkommission in Deutschland beschäftigt. In ihrem Abschlussbericht erläuterte sie im vergangenen Jahr, dass das Wohl von Personen höher zu bewerten ist als das von Sachen und Tieren. Sollte sich ein Zusammenstoß nicht vermeiden lassen, dürfen mögliche Opfer nicht nach Alter, Geschlecht und anderen Merkmalen unterschieden werden, heißt es weiter. Konkrete Handlungsanweisungen für die kaum lösbare Dilemmasituation fand die Kommission nicht.


Fest steht: Das automatisierte Fahren stellt neue Anforderungen an die Gesetzgebung. Das international verabschiedete Wiener Übereinkommen über den Straßenverkehr lässt dem autonomen Fahren auch heute wenig Spielraum. Zwar wurde das 50 Jahre alte Abkommen 2014 mit Blick auf autonome Systeme überarbeitet und ihr Einsatz erlaubt - das Fahrzeug muss aber immer unter der Kontrolle des Fahrers sein.


  Frage der Haftung

Längst hat sich die philosophische Debatte auch zu einer juristischen entwickelt. Ein zentrales Problem in der Debatte über autonomes Fahren ist die Frage der Haftung. Wer haftet, wenn eine Maschine einen Mensch verletzt? Die Forscher, die einen Roboter entwickelt haben, die Hersteller, Verkäufer oder gar die Nutzer selbst?


In dieser Sache schlug das EU-Parlament Anfang vergangenen Jahres eine Pflichtversicherung für die Hersteller autonomer Roboter vor, weil „im derzeitigen Stadium die Verantwortung bei einem Menschen und nicht bei einem Roboter liegen muss". Da sich das aber ändern könnte, soll der rechtliche Status von Robotern geprüft werden, fordert der Rechtsausschuss. Zur Debatte steht dabei das Konzept der „elektronischen Person". Sie könnte, wie Bürger oder Firmen, verklagt werden. In den Vorschlägen des EU-Parlaments ist auch von einem „Kill"-Schalter die Rede, mit dem der 

Roboter im Notfall abgeschaltet werden kann.


Für die deutsche Strafrechtlerin Susanne Beck wäre ein „symbolischer Adressat für die Menschen hinter der Maschine" denkbar. Wer dann in welchem Umfang haftet, könnte davon abhängen, wer die meiste Kontrolle oder den größten Nutzen von dem Einsatz der Maschine hat, sagte Beck kürzlich gegenüber Deutschlandfunk.

Brauchen Roboter Rechte?


Selbstfahrende Fahrzeuge sind besonders in den Fokus der Ethikdebatte über künstliche Intelligenz geraten, aber auch andere Bereiche werfen ethische Fragen auf. Am Rande der CES ließen dieser Tage zwei poletanzende Roboter vor dem technikbegeisterten Publikum ihre Hüften kreisen. In Barcelona ist man da schon einige Schritte weiter. Seit vergangenem Jahr gibt es dort ein Bordell, bei dem die Sexpuppen laut Anbieter jede Fantasie „ohne jegliche Grenzen" erfüllen sollen.


Aber darf ein Sexroboter auch sexuelle Angebote ablehnen? Je menschlicher Roboter werden, umso drängender die Frage, ob sie nicht auch eigene Rechte haben sollten. Und selbst wenn Robotern keine Rechte zugestanden werden, halten es Forscher der Neurorobotik für denkbar, dass sie diese in Zukunft einfordern werden, schreibt das „profil".


Die Diskussion über ethische Regulierung ist auf der Techmesse CES in diesem Jahr kein Thema. Während die Technik immer größere Fortschritte macht, wirft sie auch immer mehr Fragen auf. Das ethische Regelwerk dafür steckt noch in den Startlöchern.

Zum Original