Fachleute aus Wirtschaft und Wissenschaft diskutierten über Tools, Ökosysteme und Geschäftsmodelle rund um KI-Bewertung
Gebündelte KI-Expertise auf Symposium: Prüfungsangebote für Künstliche Intelligenz skalieren
Prüfung, Konformität, Zertifizierung – auf dem Symposium »Scaling AI Assessments«, veranstaltet durch das Flagship-Projekt »ZERTIFIZIERTE KI«, haben Forschende, Unternehmen und Rechtsexpert*innen Lösungsansätze und neueste Entwicklungen für die Operationalisierung von Prüfungen Künstlicher Intelligenz (KI) vorgestellt und diskutiert. Im Fokus stand hierbei die Umsetzung der Europäischen KI-Verordnung (engl. »AI Act«), die einen dringenden Bedarf nach skalierbaren Angeboten zur KI-Qualitätssicherung mit sich bringt.
Auf dem Symposium »Scaling AI Assessments« kamen Fachleute aus den Bereichen Testing, Inspection, Certification – kurz: TIC – sowie Forschende, Unternehmensvertreter und Rechtsexpert*innen rund um vertrauenswürdige Künstliche Intelligenz zusammen. Die durch das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS organisierte internationale Konferenz sucht Lösungen für die Frage, wie marktreife Bewertungen und Zertifizierungen für vertrauenswürdige KI umgesetzt werden können – auch im Hinblick auf die Klärung des rechtlichen Rahmens. »KI-Prüfungen schaffen Vertrauen und sind durch die kürzlich in Kraft getretene KI-Verordnung für Hochrisikosysteme auch verpflichtend vorgeschrieben«, erklärt Dr. Maximilian Poretschkin, Teamleiter KI-Absicherung und -Zertifizierung am Fraunhofer IAIS und Co-Organisator des Symposiums. »Damit solche Prüfungen effizient operationalisiert und marktfähig angeboten werden können, müssen sie gut skalierbar sein.«
Nach einer Begrüßung durch Prof. Dr. Stefan Wrobel, Institutsleiter des Fraunhofer IAIS, referierten in den Design Offices Dominium in Köln am 30. September und 1. Oktober 2024 mehr als 20 Expert*innen im Rahmen ausgewählter Themensessions, die durch das Programmkomitee moderiert und in Paneldiskussionen gemeinsam mit allen Teilnehmenden vertieft wurden. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) präsentierte zum Beispiel eine Definition für Transparenz von KI-Systemen. Die Deutsche Akkreditierungsstelle (DAkkS) zeigte auf, wie bereits vorhandene Konformitätsbewertungsstrukturen für KI-Anwendungen verwendet werden können. In den Sessions »Governance and regulations« und »Safeguarding and assessment methods« gaben Unternehmensvertreter Einblicke, wie sie vertrauenswürdige KI systematisch in Organisationsstrukturen implementieren.
Andere Sessions legten den Fokus auf praktische Erfahrungen bei der Entwicklung von Tools oder dem Aufbau spezifischer Beratungsangebote im Bereich der KI-Prüfung. Zudem stellten Wissenschaftler*innen spannende Erkenntnisse aus praxisorientierten Forschungsprojekten vor, zum Beispiel das Projekt »certAInty« der ZHAW Zürcher Hochschule für Angewandte Wissenschaften, das gemeinsam mit Industriepartnern ein Zertifizierungsschema für KI-Systeme entwickelt hat, ebenso wie die Initiative »MISSION KI«, die einen freiwilligen KI-Qualitätsstandard erarbeitet.
In einem rechtswissenschaftlichen Panel setzten sich außerdem die Rechtsexperten Dr. Andreas Engel, Prof. Dr. Dimitrios Linardatos und Prof. Dr. Mark Cole unter anderem mit den Fragen auseinander, welche Anforderungen der AI Act an Generative KI stellt und wie ihre Einhaltung sichergestellt werden kann. Auch das Zusammenspiel zwischen der KI-Verordnung und anderen komplementären Rechtsrahmen wie der DSGVO wurden diskutiert.
Zwei Keynotes rundeten das Programm ab: Prof. Dr. Bertrand Braunschweig, wissenschaftlicher Koordinator von Confiance.ai, und Prof. Dr. Roberto V. Zicari, Leiter der Initiative Z-Inspection, setzen sich seit vielen Jahren mit vertrauenswürdiger und ethischer KI in der Praxis auseinander. Bertrand Braunschweig stellte die Ergebnisse aus vier Jahren gemeinsamer Arbeit von Industrie und Wissenschaft im französischen Forschungsprogramm Confiance.ai vor, welches Industrieunternehmen dabei helfen soll, vertrauenswürdige KI in ihre kritischen Systeme zu integrieren. Roberto V. Zicari veranschaulichte in seinem Vortrag, wie hochrangige Richtlinien für ethische und vertrauenswürdige KI in der Praxis angewendet werden können. Dabei nahm er Bezug auf den unter seiner Leitung von einem internationalen Expert*innen-Team entwickelten KI-Bewertungsprozess »Z-Inspection«, der in einer Vielzahl von Bereichen wie Wirtschaft, Gesundheitswesen und dem öffentlichen Sektor angewendet wird.
»Das Inkrafttreten der KI-Verordnung hat zu einem deutlichen Schub geführt, sodass sich die Unternehmen derzeit intensiv mit der Umsetzung beschäftigen. Das Symposium hat hierzu wichtige Akteure aus der Wissenschaft und dem TIC-Sektor zusammengebracht, die praktikable und effiziente Lösungen präsentierten«, resümiert Fabian Malms, Projektleiter ZERTIFIZIERTE KI. »Die beiden Tage haben gezeigt, wie eng die Wissenschaft und Industrie in diesem Bereich zusammenarbeiten, damit Europa in Zukunft eine führende Rolle im Bereich der qualitätsgesicherten KI einnehmen kann.«
Das Projekt ZERTIFIZIERTE KI
Seit 2021 entwickelt das Fraunhofer IAIS gemeinsam mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI), dem Deutschen Institut für Normung (DIN) und weiteren Forschungspartnern im Projekt ZERTIFIZIERTE KI Prüfverfahren für die Zertifizierung von Systemen der Künstlichen Intelligenz. Ziel ist es, die technische Zuverlässigkeit und einen verantwortungsvollen Umgang mit der Technologie zu gewährleisten. Hierbei werden industrielle Bedarfe durch die aktive Einbindung von zahlreichen assoziierten Unternehmen und Organisationen berücksichtigt, die unterschiedliche Branchen wie etwa Telekommunikation, Banken, Versicherungen, Chemie und Handel repräsentieren.
ZERTIFIZIERTE KI ist eines der KI-Leuchtturmprojekte der Kompetenzplattform KI.NRW und wird vom Ministerium für Wirtschaft, Industrie, Klimaschutz und Energie des Landes NRW gefördert.