Neues Whitepaper analysiert EU-Vorschlag zur KI-Regulierung

Vertrauenswürdige KI: Whitepaper beleuchtet Kritikalität von KI-Systemen

News /

Künstliche Intelligenz (KI) und Vertrauenswürdigkeit: Die Plattform Lernende Systeme hat das neue Whitepaper »Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten« veröffentlicht. Darin analysieren Expertinnen und Experten, darunter auch Prof. Dr. Stefan Wrobel, Institutsleiter Fraunhofer IAIS, und Dr. Maximilian Poretschkin, Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS, den Vorschlag der Europäischen Kommission zur Regulierung von KI mittels Risikostufen. Ihre Auswertung zeigt, dass dieser Ansatz notwendig ist, um vertrauenswürdige KI-Systeme zu schaffen. Die Expert*innen benennen dabei zusätzliche Kriterien, um das Gefahrenpotenzial eines KI-Systems beurteilen zu können und zeigen, wie die Vertrauenswürdigkeit von KI-Lösungen mit systematischen Prüfungen sichergestellt werden kann. Das Whitepaper steht ab sofort zum kostenfreien Download zur Verfügung.

© Plattform Lernende Systeme
Im nun veröffentlichten Whitepaper geben Expert*innen verschiedener Branchen wichtige Anregungen für die Regulierung von KI in Europa.

Künstliche Intelligenz verbessert Prozesse und ermöglicht neue Geschäftsmodelle, birgt aber auch Risiken. Damit sichere Anwendungen zum Einsatz kommen, will die Europäische Kommission KI-Systeme entsprechend ihres Gefahrenpotenzials regulieren und klassifiziert sie in vier Risikostufen, von minimalem Risiko (kein Regulierungsbedarf) bis inakzeptablem Risiko (Verbot der Anwendung). Im nun veröffentlichten Whitepaper »Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten. Ein notwendiger, aber nicht hinreichender Baustein für Vertrauenswürdigkeit« analysieren Expertinnen und Experten der Plattform Lernende Systeme diesen Vorschlag zur KI-Regulierung.

Sie gehen dabei auch auf die Herausforderungen ein, die eine für Unternehmen und Entwickler*innen praxistaugliche Regulierung und Zertifizierung von Künstlicher Intelligenz leisten muss. So sollte neben der Sicherstellung von Qualität und Vertrauenswürdigkeit gleichzeitig eine Überregulierung vermieden und Innovationen gefördert werden: »Hierzu ist es wichtig, Risiken, welche mit dem Einsatz von KI-Systemen verbunden sein können, systematisch zu bewerten. Weiterhin sollten branchenspezifische Regulierungen wie beispielsweise im Bereich Medizin und Medizinprodukte und technologische Anforderungen mitberücksichtigt werden. Hierbei ist es wichtig, dass unkritische Systeme nicht überreguliert werden und KI-Prüfverfahren marktfähig sind«, erklärt Dr. Stefan Wrobel im Whitepaper, der als Mitglied in der Arbeitsgruppe »Technologische Wegbereiter und Data Science« der Plattform Lernende Systeme mitwirkt.

Wie kritisch ein System zu bewerten ist und wie stark es reguliert werden sollte, will die EU-Kommission im Vorhinein durch bestimmte Kriterien festlegen. Das Whitepaper empfiehlt, folgende Fragen stärker in den Blick zu nehmen: ob die Empfehlungen oder Entscheidungen eines KI-Systems Menschenleben oder Rechtsgüter wie die Umwelt gefährden und wieviel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten. Nach Ansicht der Autorinnen und Autoren müssen die Kontroll- und Entscheidungsmöglichkeiten der Nutzer von KI-Systemen bei der Bewertung der Kritikalität stärker berücksichtigt werden.  

Im Whitepaper konkretisieren die Expert*innen die Kriterien, anhand derer sich die Risiken von KI-Systemen beurteilen lassen und betonen, dass KI-Systeme immer als Einzelfall und vor dem Hintergrund ihres jeweiligen Anwendungskontextes bewertet werden müssen. Darüber hinaus geben sie konkrete Anweisungen, wie die Prüfung von KI-Systemen praktisch umgesetzt werden kann: »Wie auch für andere Software- und IT-Systeme ist eine Prüfung von KI-Systemen ein Zusammenspiel aus der Validierung von zugesicherten Produkteigenschaften und der Auditierung von Prozessen. In einem ersten Schritt der Prüfung muss zunächst der Prüfgegenstand inklusive der Spezifikation des Einsatzkontextes bestimmt werden. Als Nächstes sind die Ziele der Prüfung festzulegen – das heißt, welche Qualitätsstandards sollen geprüft werden und welche Anforderungen an das KI-System ergeben sich aus dem konkreten Einsatzkontext? Schließlich erfolgt die eigentliche Prüfung, bei der Entwicklungsdokumentationen begutachtet und wichtige Systemeigenschaften mithilfe von KI-Prüfwerkzeugen getestet werden«, so Dr. Maximilian Poretschkin im Whitepaper.  

Das Whitepaper steht ab sofort hier zum kostenfreien Download zur Verfügung.