KI-Management

Studie »Management System Support for Trustworthy Artificial Intelligence«

Künstliche Intelligenz bietet enormes Innovationspotenzial für Wirtschaft und Gesellschaft. Besonders leistungsstarke KI-Systeme, die anspruchsvolle Aufgaben z. B. beim Autonomen Fahren erfüllen sollen,  basieren auf Machine Learning-Verfahren und damit auf der Verarbeitung großer Datenmengen. Dies stellt insbesondere Unternehmen und Entwickler*innen vor neue Herausforderungen: Sie müssen die damit verbundenen Risiken überblicken, eine sichere Nutzung gewährleisten und bestenfalls KI-Lösungen entwickeln, die weltweit einsetzbar sind.

Neue Standards zum Management von Künstlicher Intelligenz

Um diesen Anforderungen zu entsprechen, arbeiten verschiedene Organisationen derzeit an behördlichen Richtlinien und internationalen Standards, an denen sich Unternehmen bei der Nutzung und Entwicklung neuer KI-Technologien orientieren können. Dabei geht es u. a. um Standards für sogenannte Managementsysteme, die bisher in anderen sensiblen Bereichen Unternehmen erfolgreich unterstützen, wie z. B. zum Management von Informationssicherheit.

Aktuell entwickelt eine gemeinsame Arbeitsgruppe der Internationalen Normungsorganisation (ISO) und der Internationalen Elektrotechnischen Kommission (IEC) einen internationalen Standard für KI-Managementsysteme (engl. AI Management Systems, kurz AIMS).  

Eine Untersuchung zur Rolle von Management-Systemen für KI

© Alex – stock.adobe.com/Fraunhofer IAIS
Auf über 60 Seiten vergleichen die Fraunhofer-Wissenschaftler*innen die ISO/IEC WD 42001 mit bestehenden KI-Leitlinien.

Doch welche Rolle spielen Managementsysteme im Kontext von Künstlicher Intelligenz und können sie die Gestaltung und Nutzung vertrauenswürdiger KI fördern? Dieser Frage sind die Wissenschaftler*innen des Fraunhofer IAIS nachgegangen.

In der Studie »Management System Support for Trustworthy Artificial Intelligence« haben sie den bisherigen Entwurf dieses Standards gesichtet und mit den aktuellen Anforderungen und Empfehlungen für vertrauenswürdige Künstliche Intelligenz verglichen, die bisher von der Europäischen Kommission, der von ihr beauftragten Expertengruppe High-Level-Expert Group on AI (HLEG) sowie dem Bundesamt für Sicherheit in der Informationstechnik (BSI) gestellt wurden.

Die Studie des Fraunhofer IAIS zeigt, dass ein KI-Managementsystem vertrauenswürdige KI gleich auf zwei Weisen fördern kann: Einerseits hilft es Unternehmen, geeignete Strategien und Prozesse für die vertrauenswürdige Entwicklung und Nutzung von KI-Technologien zu definieren. Andererseits ist es ein wichtiger Baustein, um das Vertrauen von u. a. Nutzer*innen in KI-Systeme zu stärken.

Vertrauenswürdige KI am Fraunhofer IAIS

Schon gewusst? Als eines der führenden Forschungsinstitute im Bereich Künstlicher Intelligenz in Europa befasst sich das Fraunhofer IAIS mit der Vertrauenswürdigkeit und Zuverlässigkeit von KI-Systemen. Hier finden Sie einen Auszug aus aktuellen Projekten und Angeboten.

Projekt

»KI-Absicherung«

Wie kann man sicherstellen und nachweisen, dass KI-Module im autonomen Fahrzeug funktionieren? Daran arbeiten Partner aus Wirtschaft und Forschung im Projekt »KI-Absicherung«.

 

Projekt

»Zertifizierte KI«

Das Projekt fördert die Entwicklung und Standardisierung von Prüfkriterien, -methoden und -werkzeugen für technisch zuverlässige KI-Systeme, um einen verantwortungsvollen Umgang zu sichern.

 

Whitepaper

Vertrauenswürdige KI

Das Whitepaper erläutert die Handlungsfelder aus philosophischer, ethischer, rechtlicher und techno­logi­scher Sicht. Es bildet die Grundlage für die weitere Entwicklung der KI-Zertifizierung.

 

AI Trustworthiness Check

Wir analysieren Ihre KI-Anwendung im Hinblick auf Vertrauenswürdigkeit und Einsatzfähigkeit – schon vor der Einführung im konkreten Use Case.

 

Leitfaden

KI-Prüfkatalog

Der KI-Prüfkatalog ist ein strukturierter Leitfaden für die Gestaltung, Evaluation und Qualitätssicherung vertrauenswürdiger Künstlicher Intelligenz für Entwickler*innen und Prüfer*innen.

 

Zertifizierte Schulung

»Certified Data Scientist Specialized in Trustworthy AI«

Ethik, Recht, Transparenz – vertrauenswürdige KI sollte entlang bestimmter Handlungsfelder entwickelt werden. Diese Schulung vermittelt die Grundlagen dafür.