Dirk Kunde

Technologie-Journalist, Hamburg

7 Abos und 1 Abonnent
Artikel

Die Erkennung der Welt

Nodar erkennt die Umgebung mit Stereo-Kamera

Auf dem Weg zum Fahren im Level 3 und 4 hat sich eine Sensor-Kombination aus Kamera, Radar und Lidar im Zusammenspiel mit HD-Straßenkarten als Quasi-Standard etabliert. Einige Start-ups wollen diese Kombi ergänzen beziehungsweise neu zusammenstellen.

Von Tesla ist bekannt, dass sie in erster Linie auf Kameras zur Erkennung der Verkehrssituation setzen. Das will auch Nodar, das Unternehmen eines MIT-Absolventen aus Somerville bei Boston. CEO Leaf Jing wählt einen Hammerhai für das Firmenlogo. „Das erklärt bereits die Funktionsweise", sagt Jing. Mit seinen weit auseinander liegenden Augen hat ein Hammerhai nicht nur Rundumsicht, sondern in einem Teilbereich auch Stereosicht, da sich die Bilder beider Augen überlappen.

Nodar vermarktet seine Software unter dem Namen Hammerhead. Sie funktioniert mit allen verfügbaren Infrarot- und RGB-Kameras im Markt. Die Linsen werden mit größtmöglichem Abstand im Autodach montiert. Nodars Algorithmus berechnet über trianguläre Peilung die Position und Entfernung eines jeden der fünf Millionen Bildpunkte (Pixel) der Kameras. Auf der IAA Mobility präsentiert Nodar GridDetect. Damit lassen sich bis zu zehn Zentimeter kleine Objekte auf der Fahrbahn aus bis zu 350 Meter Abstand in Echtzeit erkennen.

Bildergalerie mit 6 Bildern

Bei einer Testfahrt durch die Münchner Innenstadt, zeigen Nodars Ingenieure wie die Bilderkennung in der Praxis aussieht. Dabei errechnet das System ein Bild aus der Vogelperspektive. In Fahrtrichtung ist zu erkennen, in welcher Entfernung Objekte erkannt werden, in welche Richtung und mit welcher Geschwindigkeit sie sich bewegen.

Jing hält sein System für bis zu 30-mal effektiver als Lidar-Sensoren. Das gelte insbesondere bei Nacht. In Dunkelheit nutzen die Kameras eine längere Belichtung. Das erhöhte Bildrauschen könne der Algorithmus herausrechnen. „Kameras liefern mehr Bildpunkte als Lidar. Wie sind daher besser bei schwachem Restlicht, wobei uns nachts die eigenen als auch Scheinwerfer der anderen Autofahrer helfen", sagt Jing. Insbesondere im Level 3 sieht der Unternehmer eine Chance für seine Software, da der Kameraeinsatz deutlich günstiger im Vergleich zu Lidar ist.

Temperatur messen

Raz Peleg möchte das Sensoren-Set um eine weitere Kamera ergänzen. „Die klassische Linse erfasst bei Nacht die Rücklichter der Vorausfahrenden als Referenzpunkte. Aber was macht ein Auto bei Objekten, die kein Rücklicht haben, beispielsweise Menschen?", fragt Peleg. Sein Unternehmen Adasky setzt auf Langwellen-Infrarot-Wärmebildkameras (LWIR). Jeder Pixel einer LWIR liefert zwei Informationen, einen Grauwert sowie den Emissionsgrad. Letzterer beschreibt wie Wärmestrahlung eines Objekts. Mithilfe von künstlicher Intelligenz ermittelt die Software, ob es sich um ein Auto, die Straße, Menschen oder ein Verkehrsschild handelt.

Eine technische Herausforderung bei LWIR ist die Wärmeentwickler der Kamera an sich. Die Software muss den Störeinfluss herausrechnen.

Auf der Messe zeigt Peleg, nach eigenen Worten, die kleinste LWIR-Kamera ohne bewegliche Teile. Das israelische Unternehmen beschäftigt 80 Mitarbeiter. „Wir sind zu klein für einen globalen Vertrieb", ist Peleg überzeugt, der zehn Jahre für Mobileye gearbeitet hat. Darum kooperiert er mit dem US-Unternehmen Gentex. Der Anbieter von Driver Monitoring Systemen nimmt die Wärmebildkamera in sein Produktportfolio auf.

„In den USA passieren 75 Prozent aller tödlichen Unfälle mit Fußgängern bei Nacht. Jedes Jahr gibt es eine Million Wildunfälle", sagt Peleg. Eine Software, die Bildpunkte anhand ihrer Temperatur analysiert, erkennt auch in Dunkelheit Menschen und Tiere auf bis zu 300 Meter. Um so weit schauen zu können, liegt das Sichtfeld der Kamera bei lediglich 18 Grad. Erweitert man es auf 60 Grad sinkt die Reichweite auf 150 Meter. Doch mit größerem Winkel, werden Objekte, die von der Seite kommen, früher erkannt.

Großen Nutzen sieht Peleg beim Einsatz im Winter, bei häufig schlechten Sichtverhältnissen am Tag. Mit seinem Produkt möchte er auch Nutzfahrzeuge ausstatten. „Die Trucks mit den vielen Paketen aus dem eCommerce fahren in der Regel nachts von Hub zu Hub. In den USA geschieht das häufig in ländlichen Gegenden, wo es keine Straßenlaternen gibt", sagt der israelische Unternehmer.

Verzicht auf Straßenkarten

Ebenfalls aus Israel stammt Eran Ofir. Der CEO von Imagry arbeitet seit 2018 am so genannt Mapless Autonomous Driving. Fahren im Level 4 trägt häufig den Zusatz ODD. Das steht für Operational Design Domain und beschreibt ein geschlossenes Gebiet und nur darin arbeitet die Level 4-Fahrfunktion. Mit dem Verzicht auf Kartendaten, sollte jedes Fahrzeug direkt in der Lage sein, in unbekanntem Territorium zurecht zu kommen.

Die Imagry-Ingenieure nutzen ebenfalls KI-Technologie. Videobilder werden mithilfe eines neuronalen Netzes analysiert und auf dieser Grundlage fällt das System Fahrentscheidungen.

In den letzten drei Jahren hat Imagry Fahrzeuge mit dieser Technologie auf öffentlichen Straßen in den USA, Deutschland und Israel getestet. Aktuell werden in drei Projekten autonom fahrende Busse auf öffentliche Straßen eingesetzt. Mit Continental konnte Imagry den ersten Tier 1-Zulieferer für seine Software gewinnen. Erste Praxisanwendung wird der Parkvorgang. Das Auto findet eigenständig einen freien Parkplatz und rangiert in die Parklücke, ohne dass der Fahrer das Lenkrad berühren muss. Ofir zählt als weitere Vorteile für sein System den Verzicht auf Datenverbindungen mit hoher Bandbreite und geringer Latenz auf. Zudem spare man sich die Lizenzkosten für das Kartenmaterial.

Was letztendlich die beste Kombination für fehler- und unfallfreies Fahren ohne menschlichen Fahrer ist, muss sich erst herauskristallisieren. Doch die IAA zeigte, dass in diesem Feld etliche kluge Köpfe mit spannenden Ideen unterwegs sind.

(ID:49693057)

Zum Original