Projekt »KI Absicherung«

Wie autonomes Fahren sicherer wird

Ein autonomes Fahrzeug verfügt über eine Umfelderkennung, mit der es seine Umwelt wahrnimmt und auf diese reagiert. Diese muss die Bewegungen anderer Verkehrsteilnehmender, etwa von Fußgängern, interpretieren und daraus Intentionen für deren weiteres Verhalten ableiten können. Diese Aufgabe wird in hochautomatisierten Fahrzeugen zunehmend von Künstlicher Intelligenz (KI) in sogenannten KI-Funktionsmodulen übernommen.

KI-Funktionsmodule beobachten, prüfen und zuverlässig absichern

Eine große Herausforderungen bei der Integration der KI-Technologien in hochautomatisiert fahrende Autos ist es, die gewohnte funktionale Sicherheit aller Systeme zu gewährleisten und diese Sicherheit auch transparent nachweisen zu können.

Um diese Herausforderung zu lösen, wurde das vom BMWi geförderte Forschungsprojekt »KI Absicherung« ins Leben gerufen. Unter der Leitung der Volkswagen AG und des Fraunhofer IAIS arbeiteten 25 Partnerunternehmen und -institutionen in dem Projekt daran, einen Industriekonsens zur Absicherung der KI-Funktionsmodule zu schaffen. Dazu gehörten führende Expert*innen aus Industrie und Wissenschaft aus bisher weitgehend unabhängig voneinander agierenden Fachrichtungen der KI-Algorithmen, der 3D-Visualisierung und Animation sowie der funktionalen Sicherheit. Sie erarbeiteten Lösungen, um KI-Funktionsmodule gezielter beobachten, bewerten, prüfen und entsprechend zuverlässig und transparent absichern zu können.

Das Projekt wurde im Rahmen der Leitinitiative »Autonomes und vernetztes Fahren« des Verbandes der Deutschen Automobilindustrie (VDA) durchgeführt und ist Teil der KI-Strategie der Bundesregierung. Neben der Beteiligung im Projekt als stellvertretender Konsortialleiter war das Fraunhofer IAIS der größte Forschungspartner.

Zur Projektwebsite

 

Über das Projekt

Laufzeit: 1. Juli 2019 bis 30. Juni 2022, 36 Monate

Gesamtbudget: 41 Mio. EUR

Literatur-Datenbank

Um den Austausch zu relevanter Literatur und einschlägigen Konferenzen zwischen den Projektpartnern zu fördern und diese Erkenntnisse der Öffentlichkeit zugänglich zu machen, wurde eine Literatur-Datenbank angelegt. (Sprache: Englisch)

Fachbuch

»Deep Neural Networks and Data for Automated Driving«
In dem Fachbuch geht es um Robustheit, Quantifizierung von Unsicherheiten und Einblicke in die Sicherheit. Mehrere IAIS-Experten sind Co-Autoren.

Forschungsschwerpunkte des Fraunhofer IAIS

© Fraunhofer IAIS
Die Konfidenz der neuronalen Netzwerks muss sich realistisch den Eingaben anpassen.

Tiefe neuronale Netzwerke können eine hervorragende Prädiktionsgüte auf einer breiten Palette von Aufgaben erreichen, hierbei überschätzen sie allerdings in der Regel ihre Konfidenz. Auch in Situationen, in denen die Ausgaben tendenziell falsch sind, geben die Modelle eine hohe Sicherheit zurück.

Für den Einsatz im autonomen Fahren und insbesondere für eine Sicherheitsargumentation ist es aber nötig, dass das Fahrzeug Situationen erkennt, die es nicht behandeln kann oder in denen Vorhersagen nicht sicher möglich sind (bspw. die Erkennung eines Fußgängers in der Dämmerung). Das Fraunhofer IAIS forscht daher an Verfahren, die neuronalen Netzwerken eine realistischere Unsicherheitsschätzung ermöglichen. Hierbei wird das Training der Netzwerke so verändert, dass die Konfidenz korrekt vorhergesagt werden soll. Eine weitere Möglichkeiten ist die Nutzung impliziter Ensembles, also einer teilweise unabhängigen Menge von Netzwerken, die auf denselben Eingaben unterschiedliche Ausgaben erzeugen können.

Fachpublikationen zur Unsicherheitsschätzung:

Sicking, J., Akila, M., Wirtz, T., Houben, S., Fischer, A., »Characteristics of Monte Carlo Dropout in Wide Neural Networks«, International Conference on Machine Learning, Workshop for Uncertainty and Robustness in Deep Learning, 2020.

Sicking, J., Kister, A., Fahrland, M., Eickeler, S., Hueger, F., Rueping, S., Schlicht, P., Wirtz, T., »Towards More Realistic Neural Network Uncertainties«, Neural Information Processing Systems, Workshop Machine Learning for Autonomous Driving ML4AD, 2019.

© Fraunhofer IAIS
Ein leicht interpretierbares Machinenlernmodell (Student) imitiert ein komplexeres (Teacher) und erlaubt so, Erkenntnisse über dessen Arbeitsweise abzuleiten.

Tiefe neuronale Netzwerke haben eine mit anderen Methoden unerreichte Güte bei der Bilderkennung ermöglicht und sind daher für die Umgebungswahrnehmung eines autonomen Fahrzeugs die erste Wahl. Allerdings ist die Entscheidungsfindung innerhalb eines neuronalen Netzwerks nicht gut nachvollziehbar, so dass Situationen, in denen sie versagen, kaum vorhergesagt werden können. Am Fraunhofer IAIS werden Methoden zur Interpretierbarkeit neuronaler Modelle entwickelt, mit denen Regeln, die zu einer bestimmten Entscheidung geführt haben, aus dem neuronalen Netzwerk abgeleitet werden.

Hierzu werden Student-Teacher-Ansätze verwendet, bei denen ein leicht interpretierbares Modell an den Prädiktionen des zu untersuchenden neuronalen Netzwerks trainiert wird. Die Arbeiten am Fraunhofer IAIS befassen sich mit der automatischen Detektion von semantischen Schwachstellen, d.h. der Identifikation von Objekten in Bildern, die das neuronale Netzwerk verwirren aber nicht mit der eigentlichen Aufgabe zusammenhängen.

© Mackevision Medien Design GmbH
Angepasste Tools ermöglichen eine schnelle Erfassung möglicher Schwächen von Maschinenlernmodellen, z.B. bei einer semantischen Segmentierung.

Um robustere und genauere Vorhersagen, beispielsweise bei der Detektion von Fußgängern, treffen zu können, werden verschiedene neuronale Netzwerke miteinander kombiniert. Hierfür dürfen die Modelle allerdings nicht in den gleichen Situationen Schwächen zeigen, da sich diese im Zusammenspiel sonst verstärken. Die Erkennung solcher ähnlicher Situationen, in Kombination mit einer automatischen Analyse und unter geschickter Einbindung eines Experten wird im Forschungsgebiet »Visual Analytics« untersucht.

Am Fraunhofer IAIS werden Softwaremodule zum einfachen Vergleich einzelner oder mehrerer neuronaler Netze, die auf Bilddaten arbeiten, entwickelt. Ziel ist es, bestimmte semantische Situationen beim autonomen Fahren schnell zu erfassen und untersuchen zu können (z.B. alle Szenen, in denen Fußgänger mit grauer Kleidung zu sehen sind), sowie die statistische Unabhängigkeit dieser Situationen nachzuweisen.

© Fraunhofer IAIS
Fehler von Maschinenlernmodellen sollten sich nicht für eine bestimmte semantische Dimension häufen (bspw. dürfen Fußgänger mit Hut nicht systematisch schlechter erkannt werden als Fußgänger ohne Hut)

Auch wenn neuronale Netze im Mittel eine hervorragende Prädiktionsgüte erreicht haben, ist es wichtig sicherzustellen, dass sie nicht in bestimmten Situationen systematisch versagen. Beispielsweise könnte ein KI-System Personen mit einem Hut tendenziell schlechter erkennen. Obwohl dies selten Auftritt und daher nicht in der Gesamtstatistik erkennbar ist, stellt es ein Sicherheitsrisiko dar.

Das Fraunhofer IAIS entwickelt systematische Tests neuronaler Modelle anhand von akribisch annotierten Bilddaten, mit denen sich Performance-Indikatoren in Beziehung zu diesen semantischen Merkmalen (wie etwa Hut / kein Hut) ganz automatisch untersuchen lassen. Die Entdeckung solcher Schwachstellen kann zu einer nachträglichen Änderung der KI-Funktion verwendet werden. Finden sich solche Probleme nicht, ist dies ein wichtiger Baustein einer Sicherheitsargumentation.

Projektfilm zu Inhalten und Ergebnissen

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Der englischsprachige Film stellt die Projektinhalte und -ergebnisse von »KI Absicherung« vor. Mehr Informationen finden Sie auf der Projektwebsite