Leitfaden zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz
Von Sprachassistenzsystemen über die Analyse von Bewerbungsdokumenten bis hin zum autonomen Fahren – als Schlüsseltechnologie der Zukunft kommt Künstliche Intelligenz (KI) überall zum Einsatz. Umso wichtiger ist es, KI-Anwendungen so zu gestalten, dass sie verlässlich und sicher agieren und transparent und zuverlässig mit Daten umgehen. Dies ist eine notwendige Voraussetzung dafür, dass KI auch in sensiblen Bereichen zum Einsatz kommen kann und Nutzer*innen nachhaltig Vertrauen in die Technologie haben.
Qualität und Vertrauen als Wettbewerbsvorteile
Um hochwertige KI-Produkte und -Dienstleistungen zu entwickeln, ist es für Unternehmen und Entwickler*innen demnach unerlässlich, die Vertrauenswürdigkeit eines KI-Systems sicherzustellen und nachzuweisen: Entweder von Entwicklungsstart an (by design) oder durch objektive Prüfungen im Laufe des Anwendungsbetriebs.
So erfüllen KI-Anwendungen nicht nur entsprechende Richtlinien und schaffen Vertrauen und Akzeptanz, sondern können auch einen wertvollen Beitrag zur Markenbildung leisten und somit Wettbewerbsvorteile schaffen.
Strukturierter Leitfaden mit anwendungsspezifischen Prüfkriterien
Um Risiken einzugrenzen und ein grundlegendes Vertrauen der Gesellschaft in die Künstliche Intelligenz zu sichern, haben die EU-Kommission, die High Level Expert Group on AI (HLEG) und die Datenethikkommission der Bundesregierung allgemeine Leitlinien für die Entwicklung von KI-Anwendungen geschaffen. Diese sind jedoch oftmals zu abstrakt und enthalten kaum konkrete Anforderungen an Unternehmen und Entwickler*innen. Zudem zeigt die kürzlich veröffentlichte Normungsroadmap KI überdeutlich einen großen Bedarf an konkreten Qualitätsvorschriften und Standards für KI-Anwendungen auf.
Der KI-Prüfkatalog des Fraunhofer IAIS setzt genau daran an und bietet einen strukturierten Leitfaden, mithilfe dessen abstrakte Qualitätsmaßstäbe zu anwendungsspezifischen Prüfkriterien konkretisiert werden können.