Sichere Umfelderkennung

Urbane sowie l?ndliche Szenarien stellen teil-, hoch- und vollst?ndig automatisierte Fahrzeuge vor gro?e Herausforderungen. Insbesondere die Vielzahl an unterschiedlichen, komplexen Umgebungen, Verkehrsteilnehmern und Umweltbedingungen erfordert eine genaue und zuverl?ssige Umfelderfassung durch die fahrzeuginternen Umfeldsensoren Kamera, LiDAR und Radar. Zus?tzlich zum Einsatz für Fahrerassistenzsysteme und Systeme des automatisierten Fahrens kann die vorausschauende Umfeldwahrnehmung auch dazu verwendet werden, die Robustheit von Systemen der Passiven und Integralen Sicherheit weiter zu verbessern und ihre Funktionalit?t zu erweitern. Ist eine Kollision unvermeidlich, werden reversible und irreversible Sicherheitssysteme frühzeitig ausgel?st, um Verletzungen oder Todesf?lle von allen Verkehrsteilnehmern zu vermindern bzw. zu vermeiden. Umfassende Anforderungen an die Umfeldwahrnehmung im Nahfeld wie minimale Fehlerquote und hohe Genauigkeit sind hierfür zwingend notwendig. Infolgedessen ist es essenziell, eine schnelle, zuverl?ssige und vertrauenswürdige Umfelderfassung in allen Verkehrssituationen zu realisieren. Herausforderungen liegen dabei unter anderem bei einer genauen und detaillierten Objekterkennung, der Minimierung von Zykluszeiten sowie der Absicherung der Umfelderkennung, wenn einzelne Sensoren beispielsweise durch Regen gest?rt werden.

Umfeldsensorik

Mit Hilfe von Radar, Kamera und LiDAR k?nnen moderne Fahrzeuge das Umfeld des Fahrzeugs wahrnehmen. Alle drei Sensortechnologien arbeiten dabei mit unterschiedlichen Messprinzipien, wodurch sie unterschiedliche St?rken und Schw?chen aufweisen. So ist der Radar beispielsweise robust gegenüber Witterungseinflüssen, die Objekterkennung kann aber durch Mehrfachreflektionen und hierdurch erzeugte Geisterobjekte gest?rt werden. Die Kamera ist unter anderem sehr gut geeignet für die Objektklassifikation, allerdings ist sie anf?llig für ?ber- und Unterbelichtung, etwa bei tiefstehender Sonne. Der LiDAR erm?glicht beispielsweise eine genaue Abstandsmessung, wird jedoch gest?rt durch Witterung. C-ISAFE nutzt die spezifischen Eigenschaften und forscht an Methoden zur Verbesserung der Performance der einzelnen Sensoren sowie von Sensorsystemen. Der Fokus liegt hierbei auf der robusten und detaillierten Erkennung im Nahfeld für Fahrzeugsicherheitssysteme.

Detaillierte Objekterkennung in der Pre-Crash Phase

Die stetig steigende Aufl?sung und Performance von Umfeldsensoren erm?glicht eine fortschreitende Verbesserung der Objekterkennungsgüte und -details. Gerade in der Pre-Crash Phase, in der der Abstand von Sensoren und den potenziellen Kollisionsobjekten gering ist, k?nnen zus?tzliche Informationen gesammelt und ausgewertet werden. Beispielsweise ist bei einem (potenziellen) Crash mit einem anderen Fahrzeug eine genaue Bestimmung relevanter Parameter wie Gr??e, Entfernung, Ann?herungswinkel und Geschwindigkeit erforderlich, um eine sichere Pr?diktion des Unfallgeschehens zu erm?glichen. Von besonderem Interesse sind Objektmerkmale, deren Position sich statisch innerhalb des Objekts befindet, z.B. die Position der Fahrzeugr?der. Diese markanten Punkte erm?glichen eine sichere und genaue Objekterkennung und -verfolgung. In C-ISAFE wurde eine radarbasierte Methode entwickelt und patentiert, mit der die Position und Geschwindigkeit von rotierenden Fahrzeugr?dern auf Basis des Mikro-Doppler Effekts ermittelt und getrackt werden k?nnen. Dieses Vorgehen der Ermittlung von markanten Teilbereichen eines Fahrzeuges wurde durch eine feature-basierte Extraktionsmethodik mittels eines KI-Verfahrens für die Kamerasensorik adaptiert und erweitert. Kombinatorisch k?nnen hieraus crashrelevante Objektparameter des Gesamtfahrzeugs bestimmt werden. Mittels LiDAR k?nnen erg?nzende Informationen über die Geometrie von Objekten ermittelt werden, wie beispielsweise eine Konturbestimmung von Fahrzeugen. Neben der Erfassung von Fahrzeugen in Hinsicht auf Pkw-Pkw-Crashs werden weitere Verkehrsteilnehmer objektspezifisch betrachtet. Ein Schwerpunkt des Forscherteams liegt hierbei auch im Fu?g?ngerschutz.

Robuste Objekterkennung

Um künftige Sicherheitssysteme durch vorausschauende Sensoren aktivieren zu k?nnen, muss das nahe Fahrzeugumfeld sicher und kontinuierlich erkannt werden. Zus?tzlich stellt die Aktivierung von irreversiblen, passiven Sicherheitssystemen eine fahrsicherheitskritische Entscheidung dar und wird in der h?chsten Absicherungsstufe eingeordnet. Neben der Entwicklung von sensorspezifischen Methoden ist ein Schwerpunkt des Forscherteams daher auch durch Sensorfusion die Objekterkennung, insbesondere hinsichtlich der Robustheit, zu verbessern. Mit Hilfe von KI-Algorithmen k?nnen Sensoren auf verschiedenen Ebenen fusioniert werden. Insbesondere wird in C-ISAFE eine Deep-Learning Architektur für eine frühe Fusion entwickelt, um die unterschiedlichen Wirkungen von St?rgr??en auf die einzelnen Sensoren optimal berücksichtigen zu k?nnen. Aktuelle Forschungsthematik ist hierbei die Sicherheit unter widriger Witterung. Darüber hinaus werden zur Robustheits- und Sicherheitssteigerung Absicherungskonzepte und unabh?ngige Plausibilisierungsmethoden von vorausschauenden Sensoren entwickelt.

Knapp jeder sechste Unfall eines Personenkraftwagens mit verletzten Insassen weist trotz moderner ESP-Systeme ein Schleudern in der Pre-Crash Phase auf. Ursachen hierfür sind z. B. unkoordinierte Fahrereingriffe in sicherheitskritischen Fahrsituationen oder eine rutschige Fahrbahn durch Schnee und Eis. Schleudern stellt eine spezielle, nichtlineare Fahrzeugbewegung dar, welche stark von externen Umweltbedingungen abh?ngt, etwa dem Reibwert der Fahrbahnoberfl?che.  

In C-ISAFE werden neue Methoden der Objekterkennung und -verfolgung in kritischen Fahrsituationen wie Schleudern erforscht, diese in Prototypenfahrzeuge implementiert und unter realen Umweltbedingungen getestet.

Laufende Projekte

SimuSens

Entwicklung eines mobilen Prüfstands für optische Sensoren von Fahrerassistenz- und Sicherheitssystemen

SAVE-ROAD

Safe vision-based estimation of crash severity and reference system for autonomous driving

MIAMy

Accelerate Market Introduction of Autonomous Mobility

Abgeschlossene Projekte

SAFIR

Safety for all – Innovative Research Partnership on Global Vehicle and Road Safety Systems

TEPS

Test und Entwicklung einer passiven Sicherheitsfunktion

Ausgew?hlte Publikationen

2022
  • R. Huber, K. Schneider, A. Wetzel, E. Neitzel, and T. Brandmeier, "Light Analysis for Optimized Object Detection with Cameras for Integrated Safety Systems," in 2022 International Conference on Electrical, Computer and Energy Technologies (ICECET), Prague, Czech Republic, 2022, pp. 1–6, doi: 10.1109/ICECET55527.2022.9872761.
  • D. M. Mothershed, R. Lugner, S. Afraj, G. J. Sequeira, K. Schneider, T. Brandmeier, and V. Soloiu, "Comparison and Evaluation of Algorithms for LiDAR-Based Contour Estimation in Integrated Vehicle Safety," IEEE Trans. Intell. Transport. Syst., vol. 23, no. 5, pp. 3925–3942, 2022, doi: 10.1109/TITS.2020.3044753.
2021
  • A. Kamann, D. Steinhauser, F. Gruson, T. Brandmeier, and U. Schwarz, "Extended Object Tracking Using Spatially Resolved Micro-Doppler Signatures," IEEE Transactions on Intelligent Vehicles, vol. 6, no. 3, pp. 440–449, 2020, doi: 10.1109/TIV.2020.3035433.
  • D. Vriesman, M. E. Pederiva, J. Mario De Martino, A. B. Junior, A. Zimmer, and T. Brandmeier, "A Fusion Approach for Pre-Crash Scenarios based on Lidar and Camera Sensors," in 2021 IEEE 93rd Vehicular Technology Conference (VTC2021-Spring), Helsinki, Finland, 2021, pp. 1–5, doi: 10.1109/VTC2021-Spring51267.2021.9449039.
  • G. J. Sequeira, B. Harlapur, D. O. Ortegon, R. Lugner, T. Brandmeier, and V. Soloiu, "Investigation of Influence from Variation in Color on LiDAR Sensor for Perception of Environment in Autonomous Vehicles," in 2021 International Symposium ELMAR, 2021, Zadar, Croatia, pp. 71–76, doi: 10.1109/ELMAR52657.2021.9550943.
  • P. Held, D. Steinhauser, A. Koch, T. Brandmeier, and U. T. Schwarz, "A Novel Approach for Model Based Pedestrian Tracking Using Automotive Radar," IEEE Trans. Intell. Transport. Syst., vol. 23, no. 7, pp. 7082–7095, 2022, doi: 10.1109/TITS.2021.3066680.
2020
  • G. J. Sequeira, M. Surve, S. Afraj, and T. Brandmeier, “A novel concept for validation of pre-crash perception sensor information using contact sensor,” in 2020 IEEE 23rd International Conference on Intelligent Transportation Systems (ITSC), Rhodes, Greece, 2020, pp. 1-7, doi: 10.1109/ITSC45102.2020.9294242.
  • G. J. Sequeira, S. Afraj, M. Surve, and T. Brandmeier, “LiDAR point cloud analysis for vehicle contour estimation using polynomial approximation and curvature breakdown,” in 2020 IEEE 92nd Vehicular Technology Conference (VTC2020-Fall), Victoria, BC, Canada, 2020, pp. 1-6, doi: 10.1109/VTC2020-Fall49728.2020.9348457.
  • R. Lugner, D. Vriesman, M. Inderst, G. J. Sequeira, N. Pasupuleti, A. Zimmer, and T. Brandmeier, “Evaluation of Sensor Tolerances and Inevitability for Pre-Crash Safety Systems in Real Case Scenarios,” in 2020 IEEE 3rd Connected and Automated Vehicles Symposium (CAVS), Victoria, BC, Canada, 2020, pp. 1-6, doi: 10.1109/CAVS51000.2020.9334578.
  • D. Vriesman, B. Thoresz, D. Steinhauser, A. Zimmer, A. Britto, and T. Brandmeier, "An Experimental Analysis of Rain Interference on Detection and Ranging Sensors," in 2020 IEEE 23rd International Conference on Intelligent Transportation Systems (ITSC), Rhodes, Greece, 2020, pp. 1-5, doi: 10.1109/ITSC45102.2020.9294505.
2019
  • P. Held, D. Steinhauser, A. Kamann, A. Koch, T. Brandmeier, and U. T. Schwarz, “Normalization of Micro-Doppler Spectra for Cyclists Using High-Resolution Projection Technique,” in 2019 IEEE International Conference on Vehicular Electronics and Safety (ICVES), Cairo, Egypt, 2019, pp. 1-6, doi: 10.1109/ICVES.2019.8906495.
  • K. Schneider, R. Lugner, and T. Brandmeier, “LiDAR-Based Contour Estimation of Oncoming Vehicles in Pre-Crash Scenarios,” in 2019 IEEE Intelligent Vehicles Symposium (IV), Paris, France, 2019, pp. 2272-2277, doi: 10.1109/IVS.2019.8813825.
  • P. Zaumseil, D. Steinhauser, P. Held, A. Kamann, and T. Brandmeier, “Radar-based Near Field Environment Perception using Back Projection Algorithm,” in 2019 16th European Radar Conference (EuRAD), Paris, France, 2019, pp. 257-260, Paris, France.
  • G. J. Sequeira, S. Afraj, R. Lugner, and T. Brandmeier, “LiDAR Based Prediction and Contact Based Validation of Crash Parameters for a Preemptive Restraint Strategy,” in IEEE International Conference of Vehicular Electronics and Safety (ICVES), Cairo, Egypt, 2019, pp. 1-7, doi: 10.1109/ICVES.2019.8906354.
  • P. Held, D. Steinhauser, A. Kamann, A. Koch, T. Brandmeier, and U. T. Schwarz, "Micro-Doppler Extraction of Bicycle Pedaling Movements Using Automotive Radar," in 2019 IEEE Intelligent Vehicles Symposium (IV), Paris, France, 2019, pp. 744-749, doi: 10.1109/IVS.2019.8813828.
2018
  • G. J. Sequeira, K. Schneider, R. Lugner, and T. Brandmeier, “Concepts for Validation Sensor for Pre-Crash Information from Forward-Looking Sensors,” in Sensors and Measuring Systems; 19th ITG/GMA-Symposium, Nuremburg, Germany, 2018, pp. 1-5.
  • A. Kamann, P. Held, F. Perras, P. Zaumseil, T. Brandmeier, and U. T. Schwarz, “Automotive Radar Multipath Propagation in Uncertain Environments,” in 2018 21st International Conference on Intelligent Transportation Systems (ITSC), Maui, HI, USA, 2018, pp. 859-864, doi: 10.1109/ITSC.2018.8570016.

Ansprechpartner

Wissenschaftlicher Leiter CARISSMA-ISAFE, Forschungsprofessor für Fahrzeugsicherheit und Fahrzeugmechatronik
Prof. Dr.-Ing. Thomas Brandmeier
Tel.: +49 841 9348-3840
Raum: H023
E-Mail:
Wissenschaftliche Mitarbeiterin CARISSMA
Dr. rer. nat. Dagmar Steinhauser
Tel.: +49 841 9348-3375
Raum: H120
Fax: +49 841 9348-993375
E-Mail: