Foundation-Modelle haben ein großes Potenzial für Wirtschaft und Gesellschaft – aber wie können KI-Anwendungen damit nicht nur innovativ, sondern auch sicher und vertrauenswürdig gestaltet werden? Diese Frage treibt gerade viele Expertinnen und Experten in Politik, Forschung und Unternehmen um. Das neue Whitepaper »Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln« gibt hierauf Antworten und erläutert, wie sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und stellt eine risikobasierte Systematik vor, mit der die Vertrauenswürdigkeit solcher KI-Anwendungen bewertet und sichergestellt werden kann.
Die weltweit erste, umfassende Regulierung von Künstlicher Intelligenz ist die europäische KI-Verordnung (AI Act), die zum Zeitpunkt der Veröffentlichung des Whitepapers kurz vor der formellen Verabschiedung steht und eine KI-Konformitätsbewertung von Hochrisikosystemen fordert. Vor diesem Hintergrund zeigt das Whitepaper auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Dafür wird die Vorgehensweise, wie sie im »KI-Prüfkatalog zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« des Fraunhofer IAIS entwickelt worden ist, in den Kontext von Foundation-Modellen übertragen. Dabei wird besonders berücksichtigt, dass sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und zusätzlich bei der Prüfung der Vertrauenswürdigkeit beachtet werden müssen.
Erschienen ist die Publikation im Rahmen des KI.NRW Flagship-Projekts Zertifizierte KI.
Download PDF (Deutsch) Download PDF (Englisch)