Neues Whitepaper erläutert einen systematischen Umgang mit spezifischen Risiken von Foundation-Modellen
KI-Anwendungen mit Foundation-Modellen sicher und vertrauenswürdig gestalten
Foundation-Modelle haben ein großes Potenzial für Wirtschaft und Gesellschaft – aber wie können KI-Anwendungen damit nicht nur innovativ, sondern auch sicher und vertrauenswürdig gestaltet werden? Die europäische KI-Verordnung (AI Act) steht derzeit kurz vor der formellen Verabschiedung und fordert eine KI-Konformitätsbewertung von Hochrisikosystemen. Vor diesem Hintergrund erläutert das neue Whitepaper »Vertrauenswürdige KI-Anwendungen mit Foundation-Modellen entwickeln« wie sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können. In dem Whitepaper zeigen die Autor*innen auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Erschienen ist die Publikation im Rahmen des KI.NRW Flagship-Projekts »Zertifizierte KI«. Hier entwickelt das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS gemeinsam mit Forschungspartnern Prüfverfahren für die Zertifizierung von Systemen der Künstlichen Intelligenz (KI).
Das Erscheinen von Foundation-Modellen im Bereich der Text-, Sprach- und Bildverarbeitung leitete eine neue Zeitrechnung der Entwicklung von Künstlicher Intelligenz (KI) ein. Diese Modelle ermöglichen es KI-Anwendungen zu entwickeln, die bislang mit herkömmlichen Methoden nur schwer realisierbar schienen. Neben diesem großen Innovationspotenzial, welches Foundation-Modelle für Wirtschaft und Gesellschaft mit sich bringen, verschärfen sich jedoch auch die Herausforderungen hinsichtlich der Sicherung und des Nachweises der Qualität dieser KI-Anwendungen. Entsprechend rückte in den vergangenen Jahren zunehmend die Notwendigkeit von Regulierung in den Fokus. Die weltweit erste, umfassende Regulierung von Künstlicher Intelligenz ist die europäische KI-Verordnung (AI Act), die zum Zeitpunkt der Veröffentlichung dieses Whitepapers kurz vor der formellen Verabschiedung steht und eine KI-Konformitätsbewertung von Hochrisikosystemen fordert. Vor diesem Hintergrund zeigt dieses Whitepaper auf, wie die Vertrauenswürdigkeit einer mit Foundation-Modellen entwickelten KI-Anwendung bewertet und sichergestellt werden kann. Dafür wird in diesem Whitepaper die Vorgehensweise, wie sie im »KI-Prüfkatalog zur Gestaltung vertrauenswürdiger Künstlicher Intelligenz« des Fraunhofer IAIS entwickelt worden ist, in den Kontext von Foundation-Modellen übertragen. Dabei wird besonders berücksichtigt, dass sich spezielle Risiken der Foundation-Modelle auf die KI-Anwendung auswirken können und zusätzlich bei der Prüfung der Vertrauenswürdigkeit beachtet werden müssen.
Das Whitepaper erläutert zunächst den grundsätzlichen Zusammenhang zwischen Foundation-Modellen und auf ihnen basierenden KI-Anwendungen in Bezug auf die Vertrauenswürdigkeit. Es gibt eine Einführung in die technische Konstruktion von Foundation-Modellen und wie darauf aufbauend KI-Anwendungen entwickelt werden können. Neben einem Überblick über die dabei entstehenden Risiken, wird auch gezeigt, welche Anforderungen an KI-Anwendungen und Foundation-Modelle aus der bevorstehenden KI-Verordnung der Europäischen Union zur erwarten sind. Schließlich werden die Systematik und Vorgehensweise aufgezeigt, um Anforderungen an die Vertrauenswürdigkeit zu erfüllen.
Das Whitepaper steht zum kostenfreien Download zur Verfügung.