Zuverlässige KI – Prüfung, Absicherung und Zertifizierung

Die rasante Entwicklung von Künstlicher Intelligenz (KI) ist einer der größten Treiber von Digitalisierungsprozessen: Massives Datenwachstum, höhere Konnektivität und immer schnellere Rechenleistungen haben die Fähigkeiten maschineller Lernverfahren so gesteigert, dass sie in Spezialgebieten wie etwa der Radiologie bereits menschliche Expert*innen übertreffen. KI-Anwendungen entlasten den Menschen bei Routinetätigkeiten und können zunehmend autonom Entscheidungen treffen.

Für die Akzeptanz und das Voranschreiten solcher KI-Systeme spielt deren Verlässlichkeit eine wesentliche Rolle. In einigen Einsatzgebieten ist die ordnungsgemäße Funktionalität von KI-Systemen sogar kritisch, um finanziellen oder personellen Schäden vorzubeugen. Daher ist es essenziell, KI-Risiken frühzeitig zu verstehen und zu bewerten und die Systeme nach Möglichkeit abzusichern. Ein Qualitätssiegel kann das Vertrauen in die korrekte und sichere Funktionalität von KI-Anwendungen fördern.

Unsere Expert*innen übernehmen gemeinsam mit Ihnen die Prüfung von KI-Risiken, die Absicherung Ihrer KI-Systeme und die Vorbereitung einer KI-Zertifizierung. Sie werden von uns vom Design bis zum Einsatz zuverlässiger Systeme umfassend unterstützt. Dabei werden neueste Forschungsergebnisse stetig mit einbezogen.

Kontaktieren Sie uns für Ihre individuelle Beratung zum Thema zuverlässige KI.

Vortrag zur Absicherung und Zertifizierung von Künstlicher Intelligenz

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: http://www.youtube.com/t/privacy_at_youtube

Dr. Michael Mock, stv. Konsortialführung und wissenschaftlicher Projektkoordinator, auf den Fraunhofer Solution Days 2020

KI-Anwendungen kommen zunehmend in Dienstleistungen, industrieller Produktion oder unserem Alltagsleben zum Einsatz. Da die KI immer verantwortungsvollere Aufgaben übernimmt, stellt sich die Herausforderung, KI-Anwendungen robust, transparent und verlässlich im Hinblick auf Sicherheitsanforderungen und ethisch begründete Anforderungen zu gestalten. Der Vortrag stellt die für die Absicherung und Zertifizierung von KI-Anwendungen relevanten Handlungsfelder vor und gibt einen Einblick in aktuelle Forschung im Bereich der Automobilindustrie.

Mögliche Risiken beim Einsatz von Künstlicher Intelligenz

Transparenz

Wenn Entscheidungsgrundlagen in kritischen Bereichen nicht nachvollziehbar sind, kann es zu folgenschweren Fehlentscheidungen kommen. Beispielsweise sollte ein KI-System im Medizinbereich so abgesichert sein, dass Expert*innen die Ergebnisse nachvollziehen und verifizieren können, bevor weitere Schritte eingeleitet werden.

Verlässlichkeit

Wenn ein KI-System nicht zuverlässig und robust funktioniert, kann dies in Produktionsanlagen kostenschwere Ausfälle verursachen, weil z.B. durch Schmutzpartikel auf Sensoren Mängel nicht erkannt werden. Es muss gewährleistet sein, dass trotz rauschenden Inputdaten valide Ergebnisse produziert werden und der Anwender Unsicherheiten im Modell erkennt.

Sicherheit

Datenmanipulation (z.B. gezielte Angriffe) oder falsches Lernen bei Anwendung des KI-Systems können zu Unfällen und Fehlern führen. Wenn beispielsweise die Steuerung von Geräten in Betrieben manipuliert wird oder fehlerhafte Inputdaten durch Ausfall von Sensorik entstehen und keine wirkungsvollen Sicherheitsmaßnahmen für diesen Fall eintreten, kann es zu Unfällen wie Personenschäden kommen.

Datenschutz

Im Modell enthaltene vertrauliche Trainingsdaten sowie die Modelle selbst können ausspionier- oder rückverfolgbar sein. Wenn sensible Daten und Modelle nicht ausreichend geschützt sind, können bspw. durch Hacking-Angriffe Geschäftsgeheimnisse preisgegeben werden oder Leaks von Kundendaten zu Rufschädigung, Klagen und weiteren Kosten führen.

Unser Leistungsportfolio

Wir unterstützen Sie bei der Entwicklung von individuellen Produkten und Dienstleistungen. In Zusammenarbeit mit Ihren Teams identifizieren, prüfen und bewerten wir mögliche KI-Risiken beim Einsatz oder in der Entwicklung von KI-Systemen, sichern Ihre KI-Systeme technisch zuverlässig ab und bereiten Sie auf künftige Zertifizierungsverfahren vor. Wir beraten und unterstützen Sie beim Aufbau neuer Geschäftsmodelle im Bereich der KI-Prüfung und -Zertifizierung.

Prüfung

Beratung – Identifizierung und Einschätzung von KI-Risiken

4-Augen-Prüfung – Evaluierung interner/externer KI-Lösungen

Tech Due Diligence – Bewertung von KI-Risiken im Rahmen von Unternehmenskäufen  

Training – Schulungen (z.B. Data Scientist Specialized in Trustworthy AI) , Online-Kurse und Workshops

Entwicklung von Prüftools z.B. zur Durchführung von KI-Stresstests

 

Absicherung

Bereitstellung von Methoden und Tools zur Mitigation von KI-Risiken  

Entwicklung technisch zuverlässiger KI-Systeme

Upgrades bestehender KI-Systeme

Vorbereitung der

Zertifizierung

Neue Geschäftsmodelle – z.B. Aufbau von KI-Prüflaboren
 

Qualität – Gütesiegel für Kriterien eines KI-Systems (z.B. Robustheit, Verlässlichkeit)
 

Vorbereitung auf zukünftige Zertifizierungsverfahren

Unsere Forschungsprojekte für zuverlässige KI-Systeme

 

KI-Zertifizierung

Im Rahmen einer strategischen Kooperation entwickeln Expert*innen des Bundesamtes für Sicherheit in der Informationstechnik BSI und des Fraunhofer IAIS Prüfverfahren für KI-Systeme. Ziel der Kooperation ist es, technische Produkt- und Prozessprüfungen von KI-Systemen in der Wirtschaft zu etablieren und die Entwicklung einer KI-Zertifizierung »made in Germany« voranzubringen.

 

KI-Absicherung für autonomes Fahren

Im Projekt KI-Absicherung arbeitet im Rahmen der VDA-Leitinitiative »Autonomes und vernetztes Fahren« ein Team von Expert*innen der KI-Algorithmik, der 3D-Visualisierung und -Animation sowie der funktionalen Sicherheit daran, beispielhaft eine stringente und nachweisbare Argumentationskette aufzubauen, mit der sich KI-basierte Funktionsmodule (KI-Module) für das autonome Fahren prinzipiell absichern und freigeben lassen.

Künstliche Intelligenz am Fraunhofer IAIS

Publikationen und Studien