Christian Honey

Independent Science Journalist & Translator, Berlin

1 subscription and 2 subscribers
Article

An der Orientierung in unübersichtlichem Gelände scheitert die künstliche Intelligenz regelmässig - doch kristallisiert sich hier eine Lösung heraus

Roboter und Drohnen könnten bald selbständig durch Wälder, Höhlen oder eingestürzte Gebäude fliegen. Künstliche neuronale Netze erleichtern dabei die Orientierung.

Auf einem Waldpfad zu joggen, ist eine kognitive Meisterleistung. Das Gehirn löst dabei eine ganze Reihe schwieriger Navigationsprobleme: nicht ins Unterholz stolpern, Fussgängern ausweichen, wieder nach Hause finden. Kommerzielle Autopiloten oder Lagerhallenroboter wären mit dieser Aufgabe heillos überfordert. Sie verlassen sich auf Karten der Umgebung, GPS und Bodenmarkierungen.

Auf Strassen wimmelt es von Mustern, die klassische Algorithmen mühelos erkennen: Spurlinien, dunkle und helle Flächen, klare Kurven. Naturpfade dagegen sehen alle paar Meter anders aus. Oft sind sie kaum von der Vegetation am Wegrand zu unterscheiden. "Diese beiden Eigenschaften machen es klassischen Algorithmen sehr schwer, Trampelpfade zuverlässig zu erkennen", sagt Alessandro Giusti, Forscher am Institut Dalle Molle für künstliche Intelligenz - einem gemeinsamen Institut der Universität Lugano und der Fachhochschule Südschweiz.

Muster erkennen ist schwierig

Im Jahr 2015 probierten Giusti und seine Kollegen deshalb etwas Neues: Sie trainierten ein künstliches neuronales Netz ("deep neural network") mit Tausenden Bildern von Waldpfaden. Der Vorteil der neuronalen Netze ist, dass sie Muster in Bildern finden, die viel komplexer sind als alles, was die Algorithmen des klassischen Maschinenlernens erkennen können. Und anders als klassischen Algorithmen muss man einem neuronalen Netz auch nicht vorgeben, welche visuellen Eigenschaften einen Waldpfad definieren. Stattdessen gaben die Forscher bei jedem Bild an, welches Steuerkommando in dieser Situation korrekt wäre. Nach dem Training schlug das Netz dann bei Waldpfad-Bildern, die es zuvor nie gesehen hatte, zu 85 Prozent korrekte Steuereingaben vor und war damit ebenso zuverlässig wie zwei menschliche Probanden, die die Aufnahmen sichteten.

Die Bilder hatten die Forscher bei Wanderungen im Gebirge nahe Lugano aufgenommen, mit einem Helm auf dem Kopf, der mit drei GoPro-Kameras bestückt war. Dort folgte dann auch ein Feldtest. Dabei steuerte das neuronale Netz eine Flugdrohne über Hunderte von Metern entlang eines Pfades, ohne dass die Forscher mit der Fernbedienung eingreifen mussten. Ausgeführt wurde das Netzwerk auf einem Samsung-Galaxy-S3-Prozessor an Bord der Drohne. Fehler machte es nur, wenn der Pfad zu schattig oder zu schmal war. Auch diese Probleme sind mittlerweile behoben: Im Jahr 2017 wiederholte die Firma Nvidia den Test mit einem stärkeren Prozessor, besseren Kameras und einem Netz namens Trail Net, das auch die seitliche Drift ausgleicht. Der so bestückten Drohne gelangen vollautonome Waldflüge von bis zu einem Kilometer Länge in den Wäldern bei Redmond im Staat Washington, USA.

Ameisen sind besser

Die Entwicklungen sind beeindruckend. Doch selbst die Wüstenameise Cataglyphis noda würde Giustis Drohne bei der Navigation zweifellos den Rang ablaufen. Immerhin wusste die Drohne zu keinem Zeitpunkt, wo sie war, geschweige denn, wie sie von dort wieder zurück zum Ausgangspunkt finden würde. Die Ameise dagegen findet auch nach langen Wanderungen im Wüstensand stets den direkten Weg zu ihrem Nest. Dabei wendet ihr winziges Gehirn eine Variante der Koppelnavigation an. Das bedeutet, dass die gegenwärtige Position anhand der Bewegungsrichtung und der eigenen Geschwindigkeit bestimmt wird. Die gelaufene Distanz ermittelt die Ameise aus der Schrittzahl. Als Kompass dienen ihr die Polarisation und die Wellenlänge des Sonnenlichts. Diese Informationen kombiniert das Ameisengehirn zu einem Gesamtpfad. Abweichungen bei dieser sogenannten Pfadintegration korrigieren die Ameisen gelegentlich anhand von visuellen Orientierungsmerkmalen, wie der Segler mithilfe eines Leuchtturms.

Mit der Fähigkeit zur Pfadintegration hätte auch die Drohne aus Giustis Feldtest wieder nach Hause gefunden. Genau daran arbeitet heute ihr Konstrukteur, Davide Scaramuzza, Direktor der Robotics and Perception Group an der Universität Zürich. In der Robotik spricht man von Simultaneous Localisation and Mapping - kurz: Slam. Im Prinzip sei das Problem seit Jahren gelöst, sagt Scaramuzza. Wie die Wüstenameisen gleichen heutige Slam-Algorithmen Bewegungs- und Umgebungssignale miteinander ab. Dabei schätzen sie die Eigenbewegung der Drohne oder des Roboters anhand der Daten interner Sensoren wie Beschleunigungs- oder Umdrehungsmesser. Aus der geschätzten Eigenbewegung ermitteln sie, wie sich die Daten aus Umgebungssensoren (Kameras oder Laserscanner) mit der Bewegung hätten verändern müssen. Zur Fehlerkorrektur wird diese Vorhersage mit den tatsächlichen Umgebungsdaten verglichen. Den so ermittelten Weg kann die Maschine später zurückverfolgen, wie ein Höhlentaucher, der seiner Sicherheitsleine zum Ausgang folgt.

Allerdings sind Bewegungsdaten aus Beschleunigungsmessern notorisch ungenau. Daher nutzen immer mehr Forschungsgruppen die Kamerabilder ihrer Drohnen zur Ermittlung der Eigenbewegung. Doch wie die Pfaderkennung fällt auch das klassischen Algorithmen schwer, wenn die Umgebung unstrukturiert ist, etwa in Wäldern, Höhlen oder Ruinen. "Ein neuronales Netz dagegen kann Muster in den Kamerabildern erkennen und sie dem Slam-Algorithmus als Grundlage für die Berechnung der Eigenbewegung zur Verfügung stellen", sagt Scaramuzza. Im Juni 2018 stellte seine Gruppe eine Drohne vor, die mit diesem Ansatz einen Renn-Parcours mit Hindernissen autonom durchfliegen kann.

Neuronale Netze im Einsatz

Ausser zur Pfaderkennung und als Grundlage für die Koppelnavigation werden neuronale Netze heute experimentell auch als Ortsdetektoren eingesetzt, die bereits besuchte Orte wiedererkennen, etwa wenn eine Drohne im Kreis geflogen ist. Oder um einer Person automatisch zu folgen, die die Drohne filmen soll. Werden neuronale Netze also bald die gesamte Navigation in autonomen Systemen übernehmen? Eine neue Forschungsarbeit unterstützt diese Vision.

Im Mai 2018 veröffentlichten Forscher von Google Deepmind und vom University College London eine Studie im Journal "Nature". Darin beschreiben sie ein "tiefes neuronales Netz" (ein LSTM-Netz), das darauf trainiert ist, aus Geschwindigkeit und Bewegungsrichtung eines virtuellen Agenten dessen Position zu ermitteln. Tatsächlich gelang es dem Netzwerk nach dem Training, den Verlauf eines gewundenen Pfads von etwa zwei Metern Länge zu bestimmen, mit einer Abweichung von im Schnitt zwölf Zentimetern. In Kombination mit zwei weiteren neuronalen Netzen (eines zur visuellen Ortserkennung und eines zur Bewegungsplanung) vermochte der virtuelle Agent durch ein simuliertes 3-D-Labyrinth zu navigieren und sogar Abkürzungen zu finden. Dabei war er akkurater als ein menschlicher Computerspieler.

Verblüffende Entdeckung

Die Analyse des Netzwerks ergab zudem etwas Verblüffendes: Seine künstlichen Neuronen hatten beim Training eine Eigenschaft entwickelt, die sonst nur von Säugetiergehirnen bekannt ist: Rasterzellen. Im Jahr 2004 entdeckten die Hirnforscher Edvard und May-Britt Moser diese Zellen im Gehirn von Ratten. Im Jahr 2013 wurden sie auch beim Menschen nachgewiesen.

Rasterzellen ("grid cells") tauften die Mosers diese Neurone, weil ihre Aktivität einem bestimmten Muster folgt: In Experimenten mit Ratten, die in einem Käfig umherliefen, wurden die Zellen nur dann aktiv, wenn sich die Tiere an bestimmten Orten aufhielten. Diese Orte, so stellte sich heraus, sind in einem hexagonalen Raster angeordnet. Heute ist klar, dass Rasterzellen verschieden eng gestrickte Raster produzieren. Und die Kombination dieser Raster gilt als Grundlage für die Ortsbestimmung im Gehirn von Säugetieren. Im Jahr 2014 wurden die Mosers für diese Entdeckung mit dem Nobelpreis ausgezeichnet.

"Vieles spricht dafür, dass die Aktivität von Rasterzellen das Resultat einer Pfadintegration ist", sagt Edvard Moser, heute Direktor des Kavli-Instituts für System-Neurowissenschaft in Trondheim. "Rasterzellen erhalten aus vielen Sinneskanälen Informationen über die Eigenbewegung, darunter propriozeptive Signale aus dem Innenohr." Diese Inputs seien notwendig, um das Rastermuster zu aktivieren. Darüber hinaus werde das Muster immer wieder mithilfe von visuellen Inputs korrigiert.

Dass ein künstliches neuronales Netz wie das der Londoner Forscher so etwas wie Rasterzellen entwickelt hat, nachdem es für die Pfadintegration trainiert wurde, hätte Moser jedoch nicht erwartet. Schliesslich sei die Architektur des künstlichen neuronalen Netzes von der des Rattenhirns sehr verschieden. "Mehr als das aber hat mich erstaunt, dass das Netzwerk aktiv durch eine komplexe Arena navigieren konnte", sagt er.

Neues Zeitalter der Navigation?

Stehen wir also vor dem Zeitalter der neuronalen Navigation? Scaramuzza glaubt nicht, dass es schon so weit ist. Das Problem mit neuronalen Netzen sei, dass man die Korrektheit ihrer Antworten nicht garantieren könne. An welchen Merkmalen der Umgebung sie Pfade, Orte oder die Muster der Eigenbewegung erkennten, liege in den Tiefen der Netzwerke verborgen. Rein neuronale Navigationssysteme seien daher noch nicht sicher genug für den Transport von Menschen oder teuren Gütern.

Kombinierte Neuro-Slam-Systeme dagegen könnten schon in naher Zukunft die autonome Erkundung von Umgebungen ermöglichen, die für Menschen schwer zugänglich oder gefährlich sind. Scaramuzzas Gruppe etwa arbeitet an autonomen Drohnen, die in eingestürzten Gebäuden navigieren können. Sie fliegen durch enge Lücken, kartieren die Umgebung und finden wieder aus dem Gebäude heraus. "Alle Komponenten dafür stehen heute zur Verfügung", sagt Scaramuzza. "Wir müssen sie nur noch robuster machen."

Wie schwierig und gefährlich die Erkundung von Höhlen ist, zeigte kürzlich die Rettung der Fussballmannschaft aus der Tham-Luang-Höhle in Thailand. Autonome Drohnen wären bei Höhlenrettungen ein erheblicher Vorteil, sagt Matthias Leyk vom Verein Höhlenrettung Baden-Württemberg. Vor kurzem habe ein Kollege einen Drohnenflug in einem Dom der Blautopfhöhle bei Ulm unternommen. Dabei habe er wunderbare Bilder der Höhle aufgenommen. Aber er habe immer auf Sicht fliegen und aufpassen müssen, dass er nicht gegen die Wände geknallt sei. Mit einer autonomen Drohne hätten Höhlenforscher und -retter diese Probleme nicht.

Original