Vertrauenswürdige KI
»Scaling AI Assessments« – Symposium zu marktfähigen KI-Prüfungen: Call for Papers läuft bis zum 22. Juli
Am 30. September und 1. Oktober 2024 veranstaltet das KI.NRW-Flagship-Projekt ZERTIFIZIERTE KI ein Symposium zum Thema »Scaling AI Assessments. Tools, Ecosystems and Business Models« in den Design Offices Dominium in Köln. Die englischsprachige Veranstaltung richtet sich insbesondere an Fachleute aus dem TIC-Sektor, Tech-Start-ups, Forschende aus dem Bereich der vertrauenswürdigen Künstlichen Intelligenz (KI) sowie junge Wissenschaftler und Wissenschaftlerinnen als auch Rechtsexperten und -expertinnen auf dem Gebiet der KI. Gemeinsam sollen marktfähige KI-Prüfungen für vertrauenswürdige KI vorangetrieben werden. Bis zum 22. Juli 2024 besteht die Möglichkeit, wissenschaftliche Paper für das Symposium einzureichen. Insbesondere sind Beiträge und Präsentationen aus den Perspektiven der Operationalisierung, des Prüfökosystems und der technischen Werkzeuge erwünscht.
»Die in Kürze in Kraft tretende KI-Verordnung schafft einen Rechtsrahmen für KI, der dafür sorgen soll, dass diese Zukunftstechnologie vertrauenswürdig und verlässlich in Europa eingesetzt wird. Ein wichtiger Baustein dieses Gesetzes sind Konformitätsbewertungen von KI-Systemen. Angesichts der großen Anzahl von KI-Systemen kommt es nun darauf an, solche KI-Prüfungen möglichst marktfähig zu gestalten. Hierzu gehört unter anderem die Entwicklung von Prüfwerkzeugen und der Automatisierung der entsprechenden Prüfabläufe. Unser Symposium bringt Wissenschaft und Praxis zusammen, um Bedarfe zu identifizieren, Lösungen zu diskutieren und von Best Practices zu lernen«, sagt Konsortialleiter Dr. Maximilian Poretschkin vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS. Bereits im vergangenen Jahr fand im Rahmen des Projekts ZERTIFIZIERTE KI ein Forum statt, in dem sich Fachpublikum aus der deutschen KI-Prüflandschaft vernetzen konnte. Das im Herbst 2024 geplante Symposium bietet erneut einen Rahmen, um sich kollektiv mit den Themen vertrauenswürdige KI und KI-Prüfung auseinanderzusetzen.
Call for Papers: Einreichung von wissenschaftlichen Beiträgen und Praxisberichten zu vertrauenswürdiger KI bis 22. Juli
Wie können grundlegende Konzepte von KI-Prüfungen standardisiert spezifiziert werden? Welche Methoden können eingesetzt werden, um potenzielle Risiken und Schwachstellen wirksam zu charakterisieren und zu bewerten? Und welche Ansätze gibt es, um die Prüfprozesse so weit wie möglich zu automatisieren? Spannende Key Notes sowie interessante Papervorstellungen und Panels widmen sich diesen und weiteren Themen. Zudem wird es Networking-Möglichkeiten durch interaktive Austauschformate und Social Events geben.
Die Teilnahme an dem Symposium ist auf drei verschiedene Arten möglich: Es wird ein konventioneller wissenschaftlicher Track angeboten, der Vollbeiträge akzeptiert sowie ein anwendungsbezogener Track, der sich besonders für Vertreter und Vertreterinnen der Industrie oder für Start-ups eignet. Gleichzeitig besteht auch die Möglichkeit, sich ohne eigenen Beitrag teilzunehmen, um sich über den neuesten Stand der Forschung zu informieren und diesen in Bezug auf praktische Herausforderungen und mögliche Lösungsansätze gemeinsam zu diskutieren, welche Ansätze sich eignen, neue Erkenntnisse aus der Wissenschaft auf die Praxis zu übertragen.
Der Call for Papers für wissenschaftliche Arbeiten, insbesondere zu den Perspektiven Operationalisierung von marktfähigen KI-Prüfungen sowie Testwerkzeuge und Implementierungsmethoden für vertrauenswürdige KI-Produkte ist bis zum 22. Juli 2024 offen.
ZERTIFIZIERTE KI: Qualität sichern. Fortschritt gestalten.
Das Projekt ZERTIFIZIERTE KI verfolgt die Vision Künstliche Intelligenz mit europäischen Qualitätsstandards sicher und vertrauenswürdig zu gestalten. In diesem Sinne werden Qualitätskriterien für vergleichbare KI-Prüfungen entwickelt. Zudem möchte ZERTIFIZIERTE KI den gesellschaftlichen Diskurs zu rechtlichen, ethischen und gesellschaftlichen Aspekten von Künstlicher Intelligenz anregen. Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS leitet das Konsortium des Projekts und baut ein Prüfökosystem mit Demonstratoren und prototypischen Prüfwerkzeugen auf. Dazu erarbeitet das Fraunhofer IAIS zusammen mit weiteren Projektpartnern Prüfgrundlagen für KI-Anwendungen und gestaltet Anwenderkreise, wo der Transfer der Ergebnisse in die industrielle Praxis erfolgt.