Monitoring-Methoden zur Absicherung von KI-basierter Software innerhalb automatisierter Fahrfunktionen

  • Künstliche Intelligenz (KI) ermöglicht das Lösen von komplexen Aufgaben, die nicht oder nur eingeschränkt manuell zu spezifizieren sind. Anstatt Software auf Basis konkreter Regeln zu programmieren, lernt die KI komplexe Zusammenhänge eigenständig aus einer Vielzahl von Daten. Ein bekanntes Anwendungsbeispiel aus der Industrie ist die Umgebungswahrnehmung beim automatisierten Fahren mithilfe von tiefen neuronalen Netzen. Die Vorteile des datengetriebenen Entwicklungsansatzes gehen jedoch im Kontext der funktionalen Sicherheit mit großen Herausforderungen einher. Bekannte Unzulänglichkeiten von KI, wie bspw. die mangelnde Interpretierbarkeit oder die mangelnde Repräsentation von Unsicherheiten, erschweren den Einsatz in sicherheitsrelevanten Systemen. Ein bedeutsamer Sicherheitsmechanismus stellt in diesem Zusammenhang die Überwachung von KI-basierter Software zur Laufzeit dar. Durch zusätzliches Monitoring können falsche Vorhersagen der KI erkannt werden, um Fail-Safe-Strategien und nachträgliche System-Verbesserungen zu unterstützen. In dieser Dissertation wird die Laufzeit-Überwachung von KI innerhalb automatisierter Fahrfunktionen unter Berücksichtigung etablierter Sicherheitsstandards im Automobilbau betrachtet. In diesem Zusammenhang wird ein generisches Monitor-Modell zur Überwachung unterschiedlicher KI-spezifischer Unzulänglichkeiten entwickelt. Hierzu werden heterogene Monitore zur Anomalie-Erkennung, Plausibilisierung, Erklärung, Eingangsrauschen-Erkennung und Unsicherheits-Berechnung in einem Metamodell kombiniert. Im Rahmen der experimentellen Untersuchung am Anwendungsfall der Verkehrszeichen-Erkennung wird eine zuverlässige Detektion von KI-bedingten Fehlern durch das Monitor-Modell demonstriert.
  • Artificial Intelligence (AI) enables the solving of complex tasks, which cannot be specified manually or only to a limited extent. Instead of programming software on the basis of specific rules, the AI learns complex tasks independently from a variety of data. A well-known application example from the industry is the environmental perception in automated driving using deep neural networks. However, the advantages of the data-driven development approach are associated with major challenges in the context of functional safety. Known insufficiencies of AI, such as black-box characteristics or the lack of uncertainty representation, make it difficult to use in safety-relevant systems. An important safety mechanism in this context is the monitoring of AI-based software during runtime. Additional monitoring enables the detection of false AI predictions in order to support fail-safe strategies and subsequent system improvements. This doctoral thesis investigates the runtime monitoring of AI within automated driving functions taking into account established automotive safety standards. In this context, a generic monitor model is developed to observe different AI-specific insufficiencies. Therefore, heterogeneous monitors for anomaly detection, plausibility checks, explanation, input noise detection, and uncertainty estimation are combined in a metamodel. As part of the experimental evaluation on traffic sign recognition use case, a reliable detection of AI-related faults by the monitor model is demonstrated.

Download full text files

Export metadata

Metadaten
Author:Lukas HackerORCiD
URN:urn:nbn:de:hbz:386-kluedo-92351
DOI:https://doi.org/10.26204/KLUEDO/9235
ISBN:978-3-95974-248-1
Series (Serial Number):Berichte aus dem Lehrstuhl für Messtechnik und Sensorik (19)
Advisor:Jörg Seewig
Document Type:Doctoral Thesis
Cumulative document:No
Language of publication:German
Date of Publication (online):2025/10/09
Year of first Publication:2025
Publishing Institution:Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Granting Institution:Rheinland-Pfälzische Technische Universität Kaiserslautern-Landau
Acceptance Date of the Thesis:2025/04/28
Date of the Publication (Server):2025/10/10
Tag:Automatisiertes Fahren; Funktionale Sicherheit; KI-Sicherheit; Künstliche Intelligenz; Machine Learning; Sicherheit der Sollfunktion
Page Number:XXVIII, 204
Faculties / Organisational entities:Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik
DDC-Cassification:6 Technik, Medizin, angewandte Wissenschaften / 620 Ingenieurwissenschaften und Maschinenbau
Licence (German):Creative Commons 4.0 - Namensnennung, nicht kommerziell, keine Bearbeitung (CC BY-NC-ND 4.0)