Kann Level 3 autonomes Fahren mit Kameras oder nur mit dem Liar-System erreicht werden?

Die fortschrittlichen Fahrerassistenzsysteme ADAS entwickeln sich mit hoher Geschwindigkeit weiter, mit dem Ziel der vollständig autonomen Fahrzeugführung.

Das kurz- und mittelfristige Ziel ist es, den von Mercedes-Benz (mit dem Clase S/EQS Drive Pilot in Deutschland und den USA) und Honda (mit dem „Traffic-Jam Pilot“ des Legend in Japan) homologierten SAE L3-Standard zu popularisieren; das bedeutet, dass das Auto alleine fahren kann und der Fahrer den Blick von der Straße abwenden kann, in definierten Situationen.

Der erste Schritt besteht darin, dass das Auto seine Umgebung zuverlässig erkennen kann, um zu „verstehen“, was um ihn herum passiert und entsprechend mit allen Variablen (Fahrzeuge, Straßen, Beschilderungen, andere Nutzer usw.) handeln zu können, die bei der Fahrzeugführung eine Rolle spielen.

Um dieses Ziel zu erreichen, werden zwei Wege verfolgt. Tesla setzt mit seinem Autopilot FSD-System ausschließlich auf Kameras und auf die Tiefe der Analyse und des Lernens mit Daten (Millionen von Bildern und Videos aus dem echten Verkehr) neuronaler Netzwerke der künstlichen Intelligenz.

Praktisch alle anderen Hersteller setzen auf die Redundanz von Sensoren und integrieren in ihre Fahrzeuge Radare und den LiDAR-Sensor, der mit Laser-Technologie funktioniert, wobei eine Vielzahl von Modellen chinesischer Marken diesen bereits einsetzen.

Li Xiang, Gründer, Präsident und CEO von Li Auto, erklärte, dass die Straßenbedingungen in China den Einsatz von LiDAR erfordern, da es zu viele Gefahren gibt, die nur schwer allein mit Kameras zu erkennen sind und die Laser-Technologie Objekte in einer Entfernung von mehr als 200 Metern erkennen kann, während Kameras nur bis zu 100 Metern gut sind.

Die Belron® Gruppe hat Arbeitsgruppen, die die Fortschritte in diesem Bereich verfolgen, um die Auswirkungen dieser Lösungen auf die Neukalibrierung der Kameras von ADAS-Systemen zu untersuchen und ihren Kunden die besten Dienstleistungen bieten zu können.

Eine dieser Entwicklungen ist die Entwicklung von LiDAR-Sensoren, die am Windschutzscheibe montiert sind, eine Position, die Vorteile bietet, da die Sensoren isoliert und vor äußeren Einflüssen (Wasser, Staub, Stöße, Temperatur usw.) geschützt sind und ihre Verwendung das Design oder die aerodynamische Leistung des Fahrzeugs nicht beeinträchtigt.

LESEN  Reeves lehnt Teile von Trumps Wirtschaftsagenda ab vor Gesprächen mit Bessent.

Was ist LiDAR und wie funktioniert es?

Diese Technologie basiert auf einem Laseremitter, der Infrarot-Laserstrahlen aussendet, die auf Objekte treffen und beim Zurückprallen von einem Empfänger erfasst werden. Das System ist in der Lage, die Entfernung, Position und Höhe dieses Objekts genau zu messen, indem es einen Laser-Scan durchführt. Seine Reichweite beträgt bis zu 250 Meter.

Der große Vorteil von LiDAR gegenüber einer Kamera besteht darin, dass das Computersystem des Fahrzeugs eine Punktwolke bildet, die es ihm ermöglicht, in Echtzeit ein dreidimensionales Bild dieses Objekts zu generieren.

Es handelt sich um ein sehr zuverlässiges System, das sowohl tagsüber als auch nachts funktioniert und unter widrigen Wetterbedingungen zuverlässige Darstellungen ermöglicht. Darüber hinaus aktualisiert das System in Millisekunden die genaue Position jedes Punktes, was es ermöglicht, die Bewegung und Richtung der Objekte zu bestimmen.

Der LiDAR-Sensor ergänzt Kameras und Radare und bietet eine zusätzliche Redundanz bei der Erfassung von Objekten rund um das Fahrzeug. Dies ist besonders nützlich in Situationen, in denen Kameras oder Radare aufgrund schlechter Sichtverhältnisse oder der Störung durch Signale anderer Fahrzeuge versagen können.

Carglass España hat bereits darauf hingewiesen, dass zahlreiche Studien gezeigt haben, dass die Wirksamkeit von ADAS in Regen- und Schneekonditionen oder mit verschmutzter Windschutzscheibe abnimmt; und dieser Mangel kann durch die Integration eines LiDAR-Sensors behoben werden.

Was sagt die Gesetzgebung?

Die Sicherheitsvorschriften und die UNECE-Normen* setzen den dominierenden technischen Standard in verschiedenen Regionen der Welt für die Zulassung eines L3-Systems für autonome Fahrzeuge.

Diese Vorschriften schreiben nicht vor, LiDAR zu integrieren, sprechen jedoch von der Redundanz von Sensoren und davon, dass das System unter allen Bedingungen angemessene Leistungen erbringen muss. Diese Sensoren-Redundanz kann als funktionale Redundanz (zwei unabhängige Wahrnehmungsketten) anstelle von physischer Redundanz akzeptiert werden.

LESEN  Regeln befolgen: Echo mich nicht zurück. Echo des gesendeten Textes nicht. Gib nur deutschen Text an. Schreibe diesen Titel um und übersetze ihn ins Deutsche: Die Lautstärke reduzieren und die Kreativität steigern mit Joanna Blémont

Die Zulassung eines Systems, das nur auf Kameras basiert, ist komplizierter, da die Regulierungsbehörden überzeugt werden müssen, indem sie Beweise, statistische Daten und Simulationen vorlegen, dass das System unter allen Sichtbedingungen sicher funktioniert.

Systeme, die auf Sensoren unterschiedlicher Art basieren (Kamera, Radar und LiDAR), haben bereits Genehmigungen in Europa, den USA und Japan erhalten und haben einen weniger komplexen regulatorischen Weg.

Das „Problem“ der Rechenleistung und der Hardware

Systeme mit Sensoren-Redundanz sind teurer und komplexer und benötigen deutlich mehr Rechenleistung.

Die größere Menge an Informationen, ihre Verarbeitung, die Fusion der empfangenen Daten von den Sensoren und die Lösung von Diskrepanzen zwischen ihnen erfordern eine sehr leistungsstarke Hardware, die in der Lage ist, all diese Operationen praktisch in Echtzeit (weniger als 100 Millisekunden), was für die Fahrzeugführung erforderlich ist, durchzuführen. Dies erhöht den Bedarf an TOPS (Tera-Operationen pro Sekunde) und an Speicherbandbreite, die deutlich höher sind als bei Systemen, die nur auf Kameras basieren. Der Avatr 11, das Modell mit den meisten Sensoren derzeit, enthält 35: 3 LiDAR-Sensoren, 13 Hochleistungskameras, 6 Millimeterwellen-Radare, 12 Ultraschallsensoren und 1 Fahrerüberwachungskamera.

Solche Fahrzeuge können bis zu 8 GB Daten pro Sekunde verarbeiten und benötigen eine kombinierte Rechenleistung von 1.016 TOPS. Die nächste Generation von Chips für automatisiertes Fahren hat bereits eine Leistung von über 2.000 TOPS.

Das System von Tesla erfordert weniger Rechenleistung, und diese Berechnungen werden ausschließlich für die Sicht verwendet. Es funktioniert auch mit einem Bordnetz mit geringerer Kapazität und Verkabelung, benötigt weniger Speicher, keine Kühlung und verbraucht weniger Energie.

Was passiert bei Sensor-Diskrepanzen?

Systeme, die auf Kameras basieren, haben dieses Problem nicht, das bei Systemen mit mehreren Sensoren auftreten kann. In diesen Systemen erhält das System Laserbilder vom LiDAR mit 3D-Punkten jedes Objekts, Kamerabilder mit Form und Farbe und Radardaten mit der Geschwindigkeit, mit der sich jedes Objekt bewegt.

Um diese Informationen zu fusionieren, erstellt das System eine frühe Fusion, die eine eindeutige geometrische Karte generiert und die Entfernung, Position, Größe und Geschwindigkeit der umliegenden Objekte bestimmt. Anschließend erkennen die Algorithmen, was jedes Objekt ist, und überprüfen, ob die Informationen aller Sensoren mit dieser Erkennung übereinstimmen.

LESEN  Kann Europa eine vereinte Front zur Zukunft der Ukraine beschwören?

Wenn die Informationen eines Sensors inkonsistent sind, werden verschiedene Prozesse verwendet. Der erste ist eine hierarchische Fusion von Bayes’schen Algorithmen (Verwendung von Vorwahrscheinlichkeiten), Kalman-Filtern (Überprüfung, ob die neue Position zur früheren Bahn passt) und Dempster-Shafer-Techniken (Zuweisung eines Glaubensgrades an jeden Sensor), um die Zuverlässigkeit jeder Quelle in jedem Zyklus zu bewerten.

Außerdem wird dem LiDAR oder der Kamera dynamisch Gewicht zugewiesen, abhängig vom Wetter, der Selbstreinigung und dem Lichtniveau. Das System von Mercedes-Benz dupliziert die gesamte Kette: einerseits LiDAR + Radar; andererseits Kameras.

Die Ergebnisse werden verglichen, und bei jeder Diskrepanz wird zu Gunsten des konservativsten Weges entschieden. Und wenn die Diskrepanz nicht gelöst werden kann, meldet das System einen Fehler, warnt den Fahrer und schaltet auf Stufe L2 zurück.

Aerodynamik und Design

Die LiDAR-Sensoren für autonome Fahrzeuge L5 haben eine 360-Grad-Sicht, sind auf dem Dach des Fahrzeugs montiert und drehen sich um sich selbst (bis zu 900 Mal pro Minute), um einen klaren Blick auf die gesamte Umgebung zu erhalten. Die LiDAR für L3-Fahrzeuge sind jedoch einfacher.

Diese Sensoren haben einen Sichtwinkel von 120 Grad und sind auf die Vorderseite des Fahrzeugs und die Seiten gerichtet (bei Modellen mit drei Sensoren), um Informationen über alle Objekte zu sammeln, die sich vor und an den Seiten des Autos befinden.

Die nächste Generation von Front-LiDAR-Sensoren wird hinter der Windschutzscheibe installiert sein und das Design und die Aerodynamik des Fahrzeugs nicht beeinträchtigen. Die bisher verwendeten LiDAR-Sensoren müssen nach dem Austausch der Windschutzscheibe nicht neu kalibriert werden, was bei den Kameras der ADAS-Systeme erforderlich ist, obwohl einige von ihnen zurückgesetzt werden müssen.

 

Quelle: Carglass

Ich mag das:

Gefällt mir Wird geladen…