Absicherungsf?higkeit und Interpretation von maschinellen Lernverfahren für automatisiertes Fahren durch Entwurf (VbD)

Das automatisierte Fahren geht mit einer drastisch zunehmenden Komplexit?t auf verschiedenen Ebenen einher. Dies beruht im Wesentlichen auf der Notwendigkeit, dass Fahrzeuge w?hrend des automatisierten Betriebs nicht nur den eigenen Zustand, sondern zus?tzlich den Zustand unterschiedlicher, h?ufig unbekannter Objekte im Fahrzeugumfeld berechnen bzw. sch?tzen müssen. Um die dafür unvermeidlich hohe Komplexit?t auf algorithmischer Ebene zu adressieren, wird vermehrt maschinelles Lernen(ML) im Bereich der Wahrnehmung, der Situationsinterpretation und der Trajektorienplanung eingesetzt. Dies ist insbesondere den Vorzügen von ML-Methoden in der Verarbeitung sehr gro?er Datenmengen zu verdanken. ML-Methoden, wie etwa tiefe neuronale Netze, Ensemble Methoden oder verst?rkendes Lernen werden h?ufig als Blackbox-Algorithmen angesehen, da die durch die Verfahren resultierenden mathematischen Abbildungen im Regelfall nicht auf physikalischen Modellen beruhen, sondern rein datenbasiert generiert werden. Dadurch ist eine Interpretation der Algorithmen nicht wie gewohnt m?glich und eine Absicherung nach dem so genannten V-Modell der ISO 26262 aufgrund der nicht vollst?ndigen Funktionsspezifikation nicht leicht durchführbar.

H?ufig wird Interpretierbarkeit und Nachweisbarkeit durch Abstriche in der Modellkomplexit?t erkauft. In dem Projekt soll ein Ansatz für Freigabeprozesse von sicherheitskritischen Funktionen geschaffen werden, welche auch komplexe Algorithmen des maschinellen Lernens beinhalten k?nnen. Beispielsweise kann ML zur Identifikation relevanter interpretierbarer Merkmale eingesetzt werden, um eine validierbare Klassifikation zu erm?glichen.

F?rdermittelgeber

Audi AG

Poster