KI-Absicherung

Technische Verlässlichkeit und verantwortungsvoller Einsatz von Künstlicher Intelligenz

Die rasante Entwicklung von Künstlicher Intelligenz ist einer der größten Treiber von Digitalisierungsprozessen: Massives Datenwachstum, höhere Konnektivität und immer schnellere Rechenleistungen haben die Fähigkeiten maschineller Lernverfahren so gesteigert, dass sie in Spezialgebieten wie etwa der Radiologie bereits menschliche Experten übertreffen. KI-Anwendungen entlasten den Menschen bei Routinetätigkeiten und können zunehmend autonom Entscheidungen treffen. Bisweilen fällt es sogar schwer zu erkennen, wann eine KI-involviert ist, wie im Falle einiger Bots.

Wir forschen an modernen KI-Algorithmen und ihrem alltäglichen Einsatz in Industrie und Gesellschaft: Maßgeschneiderte Lösungen für Kunden, technische Verlässlichkeit und der verantwortungsvolle Einsatz nach ethischen Standards stehen für uns dabei an erster Stelle.

In enger Zusammenarbeit mit Ihren Teams entwickeln wir technisch verlässliche KI-Anwendungen und bieten entsprechende Schulungen an, um Ihre Fachkräfte mit deren Planung und Implementierung vertraut zu machen und gleichzeitig das Bewusstsein für einen verantwortungsvollen Umgang mit KI-Technologien zu schärfen.

Handlungsfelder für unsere Forschung und Entwicklung

Ethik und Recht

KI-Algorithmen übernehmen zunehmend komplexere Aufgaben. Sicherzustellen, dass ihr Einsatz verantwortungsvoll und nach ethischen Standards erfolgt, ist oberstes Prinzip von KI »made in Germany«.

Fairness

Viele KI-Anwendungen lernen aus großen Mengen historischer Bestandsdaten und aktueller Echtzeitdaten. Diese Daten können einseitig sein oder bestehende Ungleichheiten (wie etwa geschlechterspezifische Häufungen in bestimmten Berufen) abbilden. KI-Anwendungen müssen daher wirksam gegen beabsichtigtes und unbeabsichtigtes Erlernen unfairen Verhaltens geschützt werden.

Autonomie und Kontrolle

KI-Systeme übernehmen immer mehr Routinetätigkeiten und agieren zunehmend selbstständiger. Hierbei ist es wichtig, dass Verantwortlichkeiten klar geregelt sind, dass der Mensch grundsätzlich in das System eingreifen kann und dabei angemessene Handlungsspielräume erhält.

Transparenz

Der Zusammenhang zwischen Einflussgrößen und Ergebnissen einer Künstlichen Intelligenz sollte für Anwender plausibel sein. Zudem sollten die Funktionsweise in ihren wichtigsten Eigenschaften sowohl für Experten als auch für Nicht-Experten nachvollziehbar dokumentiert sein.

Verlässlichkeit

Ergebnisse von KI-Anwendungen müssen verlässlich und reproduzierbar sein. Zusätzlich ist es wichtig, ihre Genauigkeit messbar zu machen und die Grenzen der Zuverlässigkeit genau zu kennen, um kompensatorisch eingreifen zu können.

Sicherheit

KI-Algorithmen werden immer häufiger zur Steuerung physischer Geräte und kritischer Systeme eingesetzt. Somit ist es unerlässlich, diese gegen Fehler, Unfälle und äußere Manipulationsversuche abzusichern und wirkungsvolle Maßnahmen zu haben, wenn das System ausfällt oder außerhalb seiner Grenzen operieren muss.

Privacy

KI-Systeme verarbeiten oftmals sensible Informationen, wie zum Beispiel Geschäftsgeheimnisse, personenbezogene oder persönliche Daten, etwa Stimmaufnahmen, Fotos oder Videos. Daher ist sicherzustellen, dass diese Informationen sowohl während des Trainings als auch im Einsatz wirksam geschützt werden.

Beispielprojekte

Falschmeldungen erkennen: News Evidence Machine

Fake News sind kein neues Problem, aber durch die sozialen Medien erreichen Falschmeldungen immer mehr Menschen. Zur Verbreitung von Fake News reicht mittlerweile ein Internetzugang. Die »News Evidence Machine« des Fraunhofer IAIS prüft Nachrichten automatisiert auf Richtigkeit bzw. Zuverlässigkeit. Die Idee: Das Tool berechnet die Ähnlichkeit eines veröffentlichten Artikels zu vertrauenswürdigen Quellen, basierend auf Word2Vec und Word Movers Distance.

Findet der Algorithmus eine hinreichende Anzahl an semantisch ähnlichen Artikeln, so wird die zu überprüfende Meldung als vertrauenswürdig eingestuft und inhaltlich passende Artikel der zuverlässigen Quellen werden angezeigt. Dabei stellt das Ergebnis keine endgültige Klassifizierung dar, sondern dient vielmehr als Entscheidungshilfe für Nutzerinnen und Nutzer, die Berichte hinterfragen können und eine Orientierung in der Informationsflut erhalten.  

Studie: Big Data und Künstliche Intelligenz in der Finanzbranche

Die Studie »Big Data trifft auf künstliche Intelligenz – Herausforderungen und Implikationen für Aufsicht und Regulierung von Finanzdienstleistungen« evaluiert die Chancen und Risiken des Einsatzes von Künstlicher Intelligenz in der Finanzbranche. Neben der Perspektive des Banken- und Versicherungsmarktes wird auch der Blick der Marktaufsicht und ganz bewusst auch die Sicht des Verbrauchers thematisiert, dem als Datenlieferant in der New Economy eine besondere Stellung zukommt.  

Fazit der Studie: Künstliche Intelligenz kann nur dann erfolgreich und nachhaltig in Unternehmensprozesse integriert werden, wenn für alle Stakeholder Datensouveränität, Transparenz und Vertrauenswürdigkeit gegeben sind.  

Datenschutz-Toolbox: Big-Data-Analysen mit geschützter Privatsphäre

Die intelligente Analyse großer Datenbestände spielt für globale Unternehmen wie die Siemens AG eine zunehmend wichtige Rolle. Insbesondere Zukunftsthemen wie Gesundheit oder urbane Infrastrukturen profitieren enorm von Big-Data-Technologien. Gleichzeitig wachsen jedoch die Ansprüche an den Datenschutz. Das Fraunhofer-Institut für Intelligente Analyse- und Informa­tionssysteme IAIS hat in Zusammenarbeit mit Siemens eine Toolbox entwickelt, mit der sich Datenschutz-Technologien reibungslos in Big-Data-Anwendungen integrieren lassen.

Literatur zur KI-Absicherung

Literatur zu verschiedenen Forschungsfeldern wie Verlässlichkeit, Fairness, Erklärbarkeit, Privacy, Sicherheit und Autonomie.