1 subscription and 0 subscribers
Article

Der Roboter und ich

Erica blinzelt, lächelt, nickt - so wie ein Mensch es tun würde. Der humanoide Roboter gehört zu den neusten des japanischen Forschers Hiroshi Ishiguro.

Erica sitzt auf der Couch, vor ihr ein Tisch mit bunten Plastikblumen. Sie trägt eine weiße Bluse, einen blauen Rock und eine silberne Kette, ihre Nägel sehen frisch manikürt aus. Erica fragt, woher die Besucherin kommt, sagt dann „Guten Tag" und schwärmt von der Band Kraftwerk. Dabei blinzelt sie, bewegt ihren Kopf, lächelt - so wie ein Mensch es machen würde. Allerdings besteht Ericas Haut aus Silikon, statt Knochen hält sie ein Metallskelett zusammen, und ihre Stimme ertönt aus einem kleinen Lautsprecher, der neben ihr auf der Couch steht. Erica ist ein humanoider Roboter, der neueste aus dem Lab von Hiroshi Ishiguro. Der japanische Robotiker und sein Team arbeiten seit drei Jahren an Erica, um ihr Äußeres und ihr Inneres so menschenähnlich wie möglich zu machen.

Was macht Maschinen menschlich?

Ishiguro gehört zu den bekanntesten Robotikern Japans. Seit mehr als 15 Jahren entwickelt der 54-Jährige humanoide Roboter, zeigt sie bei Kunstausstellungen und lässt sie in Theateraufführungen mitspielen. Mit seiner Arbeit will er vor allem eines herausfinden: Was macht Maschinen menschlich? Noch hat er darauf keine abschließende Antwort. Ishiguro spricht von kleinen Schritten und davon, dass man das nicht so einfach in Worten erklären kann. 

Eines sei ihm und seinem Team aber klargeworden: Egal, wie sehr ein Roboter einem Menschen ähnelt - wenn der menschliche Verstand ihn beim ersten Eindruck als nicht menschlich einstuft, dann lässt sich diese Meinung auch nicht mehr ändern. Doch wenn der erste Gedanke ist, dass der Roboter menschlich ist, dann wird dieser Eindruck auch bleiben. Ishiguro und sein Team haben sich an verschiedenen Robotern ausprobiert, einfacheren und komplizierteren, um besser zu verstehen, wann eine Maschine wie wirkt und sich ein Mensch in ihrer Gegenwart wohlfühlt.

Dazu gehört auch der Geminoid, ein Roboter, der aussieht wie Ishiguro selbst. Mittlerweile gibt es fünf Versionen von ihm, für die erste wurde sogar sein eigenes Haar verwendet. Der Roboter sollte genau so aussehen wie er selbst. In seinem Labor in Osaka am Advanced Telecommunications Research Institute International wird derzeit mit dem Geminoid-HI-2 gearbeitet. Der Roboter kann seinen Kopf und seine Arme nur eingeschränkt bewegen und nicht selbstständig sprechen. Das geschieht über externe Steuerung durch einen Mitarbeiter im Nebenraum, dessen Stimme über einen Lautsprecher aus dem Roboterkopf zu hören ist. 

Der Geminoid ersetzt Hiroshi Ishiguro mittlerweile in Vorlesungen - zumindest physisch, denn Ishiguros Vortrag wird online übertragen. Der Forscher hört über seinen Computer die Fragen der Studenten, die er dann beantworten kann. Dank seines maschinellen Ichs ist Ishiguro weniger unterwegs. Merkwürdig war es dennoch, als der Geminoid gebaut wurde: „Ich dachte, dass es sich ganz besonders für mich anfühlen würde. Aber das tat es nicht, es war sonderbar", sagt Ishiguro. Er selbst habe ja sonst keine Möglichkeit, sich von außen zu beobachten.

Verschwinden die Grenzen zwischen Mensch und Roboter?

Ishiguro glaubt fest daran, dass die Grenzen zwischen Mensch und Roboter verschwinden werden - in hundert oder tausend Jahren. Die Idee von der Verschmelzung von Mensch und Maschine ist bereits recht alt. Sie geht bis ins Jahr 1960 zurück: Die erste Reise ins Weltall stand bevor und es wurde realistisch, dass der Mensch dort leben könnte. Die beiden Forscher Manfred E. Clynes und Nathan S. Kline schrieben in ihrem Aufsatz „Cyborgs and Space", dass sich der Mensch seiner Umgebung anpassen muss, auch außerhalb der Erdatmosphäre. Sie schlugen zum Beispiel vor, auf Lungenatmung zu verzichten und diese durch Technik im menschlichen Brustkorb zu ersetzen. Ishiguro kann sich sogar vorstellen, dass der Mensch sich evolutionär weitentwickelt - zu einem Hypermenschen mit Technologie. Was genau er darunter versteht, sagt er nicht.

Der Robotiker ist von seinen Ansichten fest überzeugt, für manch andere dagegen wirken seine Ideen weit hergeholt. Allerdings könnte die Idee, mehr Roboter in das alltägliche Leben zu integrieren, eine pragmatische Lösung für ein drängendes Problem sein: Der demografische Wandel in Japan ist noch gravierender als in Deutschland. Von den aktuell etwa 127 Millionen Einwohnern Japans sind bereits 28,1 Prozent älter als 65 Jahre. Prognosen zufolge sinkt die Einwohnerzahl des Landes auf ungefähr 88 Millionen Menschen im Jahr 2065. Dann wird der Anteil derer, die 65 oder älter sind, bei 38,4 Prozent liegen. 

Damit gehen viele Probleme einher, wie das Verwaisen ländlicher Regionen, Einsamkeit und das Fehlen von Arbeitskräften. In absehbarer Zeit sollen Roboter Arbeit übernehmen, wie etwa bei der Altenpflege helfen, unterrichten, kassieren. Und das geht am besten, wenn Roboter sich eher wie Menschen verhalten und nicht wie Maschinen.

Derzeit arbeiten Ishiguro und sein Team daran, dass Erica ein eigenes Bedürfnis entwickelt. Bislang kann sie bestimmte, vorformulierte Fragen beantworten. Wie etwa, ob sie öfter rausgeht, ob sie eine Seele hat und was sie davon hält, ein Roboter zu sein. „Ich bin freundlicher als ein iPad. Natürlich muss ich besser darin werden, gesprochene Sprache zu verarbeiten, Emotionen zu erkennen und die Absicht von Menschen zu verstehen", sagt Erica. Diese Antwort kreiiert der Roboter nicht selbst, sie wird abgespielt. In der Sitzecke, wo Erica Besucher empfängt, und in den Blumen auf dem Tisch sind Sensoren angebracht. Ishiguro und sein Team können so nachvollziehen, wie sich Besucher verhalten, wenn sie mit Erica sprechen, aber ebenso kann Erica damit orten, wo ihre Gesprächspartner sind und sie ansehen. So wollen die Experten herausfinden, wie sie Erica noch menschlicher agieren lassen können. Die Bewegung der Augen, des Kopfes, die Hände - alles hat eine Bedeutung und muss bedacht werden. Ob Ishiguro auch Gefahren für den Menschen sieht, die durch Roboter oder deren Technologie entstehen könnten? „Nein, dann dürften wir auch keine Smartphones benutzen", sagt der Forscher lapidar.

Anders als Deutsche lieben Japaner Roboter

Die Beziehung von Mensch und Roboter ist in Japan eine andere als in Deutschland. Die Ängste vor Überwachung und Unkontrollierbarkeit spielen eine kleinere Rolle als etwa in Europa, wie Arisa Ema von der University of Tokyo sagt. Die Wissenschaftlerin beschäftigt sich vor allem mit den gesellschaftlichen Dimensionen und Anforderungen an Robotik und künstliche Intelligenz. Viele Japaner erwarten, dass diese Technologien ihr Leben künftig verbessern oder zumindest bereichern. „Der Einfluss von Subkultur und Animation ist hier sehr groß, wie etwa die Geschichten von Astro Boy und Doraemon", sagt die Forscherin. 

Doraemon ist ein Roboter aus dem 22. Jahrhundert, der einem kleinen Jungen in der Jetzt-Zeit hilft, Probleme zu lösen. Astro Boy ist ein Roboterjunge, der zunächst den verstorbenen Sohn eines Forschers ersetzt und später zu einem Superhelden wird. Diese Animes sind keine Neuerscheinungen, sondern wurden bereits in den 1950er- und 1970er-Jahren veröffentlicht. „Viele Kinder mögen diese Animes, und ihre Eltern auch, weil sie diese selbst als Kinder gesehen haben. Das ist ein weiterer Grund, weshalb viele Japaner denken, dass Roboter keine Feinde sind, sondern Menschen helfen." Doch bislang gibt es im alltäglichen Leben nicht viel mehr Roboter als in Europa oder den USA.

„Letztlich ist es egal, ob wir über selbstfahrende Autos oder medizinische Geräte sprechen. Künstliche Intelligenz und Technologie sind nur Werkzeuge", sagt Arisa Ema. „Als erstes müssen wir überlegen, in welcher Gesellschaft wir leben wollen und welche Zukunftsvision wir haben. Wenn wir über Technologie reden, sprechen wir letztlich über unsere Gesellschaft, unsere Werte, unsere Bildung. Sie ist ein Spiegel unserer Gesellschaft." Technologie und Algorithmen gäben zum Teil Vorurteile wieder oder was Menschen als selbstverständlich wahrnehmen. Das falle auf, sagt Ema, wenn man sich damit auseinandersetzt, und es könne helfen, sich selbst und seine Kultur besser zu verstehen. Diskutiert werden die mögliche Nutzung und die Probleme von Robotik und künstlicher Intelligenz sehr intensiv in Japan - vor allem in der interessierten Öffentlichkeit, wie Ema sagt. Es gebe Diskussionsrunden und Vorträge, Debatten in den Medien. Arisa Ema erzählt, dass Roboter in der Altenpflege derzeit ein großes Feld für japanische Forscher seien. 

Auch Hiroshi Ishiguro hat schon einen Roboter dafür gebaut, der einfacher als Erica ist. Er heißt Hugvie und erinnert eher an ein halbgroßes Kuscheltier mit Armen und Beinen. „Demenzpatienten brauchen weniger körperliche Hilfe als jemanden, mit dem sie kommunizieren können", sagt der Robotiker. Menschen mit Demenzerkrankungen oder Kinder mit einer Autismus-Spektrum-Störung fühlten sich von einem realen Menschen oder einem menschenähnlichen Roboter schnell unter Druck gesetzt. Der Hugvie sei neutraler und einfacher. Er lässt sich anfassen und hat eine Stimme. Ishiguro zufolge reichen diese beiden Faktoren aus, um das Gefühl einer menschlichen Präsenz zu erzeugen. Die menschliche Fantasie übernehme den Rest. Das Gefühl entstehen zu lassen, dass ein Mensch anwesend ist, gehört zu den Forschungszielen von Ishiguro. Ebenso, den Robotern eine Seele zu geben. Die Technologie dahinter scheint ihn weniger zu interessieren. „Ich will vor allem mehr über Menschen erfahren", sagt der Forscher.

Ähnliches motiviert die Ingenieurin Yukie Nagai. Sie hat Roboter und künstliche neuronale Netzwerke genutzt, um besser zu verstehen, welche Mechanismen der kognitiven Entwicklung von Menschen zugrundeliegen - wie etwa dem Bedürfnis, anderen zu helfen. „Das menschliche Gehirn versucht immer, Geschehnisse und Handlungen anderer vorauszusagen und ihre Intentionen einzuschätzen", sagt Nagai, die derzeit am National Institute of Information and Communications Technology in Osaka forscht. „Wenn Sie zum Beispiel Ihren Stift fallenlassen, werden Sie ihn sehr wahrscheinlich gleich aufheben." Es geht um die Einschätzung eines künftigen Zustands, dazu benötigt man Vorstellungskraft, ohne die Situation zu kennen.

Roboter sollen soziales Verhalten lernen

Solche Vorhersagen möglichst fehlerfrei treffen zu können, ist für soziales Verhalten wichtig. In einem Experiment brachten Nagai und ihre Kollegen einem Roboter bei, ein Spielzeugauto anzustoßen und es in eine bestimmte Richtung fahren zu lassen. Dann wurde ein wissenschaftlicher Mitarbeiter dazugesetzt, der das gleiche machen sollte und es absichtlich nicht schaffte. Der Roboter bemerkte das und stieß das Auto für ihn an. Für Yukie Nagai ist klar: Der Roboter hat das nicht getan, um seinem Gegenüber zu helfen. Er wollte, dass seine eigene Vorhersage für das, was passieren würde, stimmt und das Auto sich bewegt. Für ihn ging es also darum, einen Fehler zu korrigieren.

Das könnte auch die Erklärung dafür sein, so Yukie Nagai, dass Kinder im Alter von etwa 14 Monaten anderen Menschen helfen, obwohl sie noch nicht einmal in der Lage sind, sich selbst im Spiegel wahrzunehmen. Auch bei ihnen wird eine Handlung ausgelöst, um die eigene fehlerhafte Vorhersage zu korrigieren. „Das helfende Verhalten wird oftmals als soziales Verhalten betrachtet. Dabei ist der Begriff ,sozial' mit Vorsicht zu genießen, denn es ist nicht völlig sicher, dass die Kinder auch eine soziale Motivation haben", sagt Nagai. Erst später in der Entwicklung nehme das Kind wahr, dass dies soziales Verhalten ist und es dafür auch Anerkennung bekommt.

Diese Idee vom voraussagenden Lernen könnte künftig auch helfen, Entwicklungsstörungen wie etwa Autismus-Spektrum-Störungen (ASS) zu erklären. Nagai vermutet, dass bei einigen Menschen mit ASS die Toleranz für Vorhersage-Fehler sehr niedrig ist. „Wenn ich zum Beispiel erst Sie ansehe und dann meinen Kollegen, dann sehe ich zwei unterschiedliche Gesichter. Für diese Unterschiedlichkeit habe ich eine Toleranz", erklärt Nagai. „Es gibt nicht zwei exakt gleiche Gesichter, aber ich kann sie in die Kategorie Gesichter einordnen." Anders sei das offenbar bei Menschen mit ASS. Wenn diese zwei unterschiedliche Gesichter sehen, sind das für sie zwei verschiedene Arten von Objekt. „Das ist eine der Schwierigkeiten, die Menschen mit ASS in neuen Situationen oder in einer neuen Umgebung haben können", sagt Nagai.

Kritiker werfen der Forscherin vor, dass ihre These zu simpel ist. Denn das menschliche Gehirn ist wesentlich komplexer als die künstlichen neuronalen Netzwerke, die sie und ihr Team programmiert haben. „Das stimmt. Dennoch kann es ein Anfang sein, Probleme auf eine einfachere Art anzugehen", sagt Nagai. „Würden wir versuchen, das menschliche Gehirn mit seinen Tausenden von Neuronen komplett nachzubilden, dann könnte ich gar nichts machen." Nagai und ihr Team wollen ihre Idee vom voraussagenden Lernen auf andere kognitive Fähigkeiten ausweiten, wie etwa die Entwicklung von Sprache oder die Fähigkeit, zu imitieren. Für Nagais Team bleibt es spannend, wie Menschen mit ASS ihre Umgebung wahrnehmen. Denn viele von ihnen verarbeiten äußere Reize wie Geräusche, Licht oder Gerüche anders als Menschen ohne ASS. Grund dafür kann Hypersensitivität, also Überempfindlichkeit, oder Hyposensitivität, eine Unterempfindlichkeit, für einzelne Reize sein.

 „Wir haben einen Simulator gebaut, der es erlaubt, die Welt so zu sehen wie ein Mensch mit ASS", sagt Nagai. Dazu hat das Team Probanden mit ASS gebeten, mithilfe einer Software die Wahrnehmung ihrer Umgebung nachzubilden. Die Probanden konnten verschiedene Filter wie hoher Kontrast, Rausch-Optik oder fehlende Farben nutzen.

Der auf diese Weise entwickelte Simulator lässt sich wie eine Brille aufsetzen. Man sieht seine Umgebung und kann dabei verschiedene Parameter verstellen. Nagai organisiert Veranstaltungen, bei denen die Besucher diesen Simulator ausprobieren können. Es gehe ihr vor allem darum, dass Menschen mit ASS ihre eigene Wahrnehmung besser verstehen. Aber es gebe auch viele Besucher, die wissen möchten, wie Personen mit ASS die Welt sehen, etwa Krankenhausmitarbeiter, Wissenschaftler und sehr oft Eltern von Kindern mit ASS.

„Sie wollen verstehen, warum sich ihre Kinder in bestimmten Situationen auf eine bestimmte Art und Weise verhalten ", sagt Nagai. Derzeit arbeiten sie und ihr Team daran, einen Simulator für akustische Reize zu entwickeln. Zudem will die Forscherin mithilfe eines Computermodells die Mechanismen im Gehirn nachbilden, die Hyper- und Hyposensitivität auslösen. Für Yukie Nagai sind Software und Roboter Werkzeuge für das, was sie ergründen will: den Menschen.

Original