Dimension: Fairness – Reweighing33, – Faire Datenrepräsentationen34, aufbereitet. In der Dokumentation muss auch festgehalten sein, warum die ergriffenen Maßnahmen in Bezug auf die gewählte Fairness-Metrik sinnvoll sind, und inwiefern sie dazu beitragen, die Fairness der KI-Anwendung zu gewährleisten oder zu verbessern. Falls keine solche Vorverarbeitung stattfindet, so muss auch dies begründet werden. 4.1.3.2 KI-Komponente [FN-R-FN-MA-03] Faire Modellbildung Anforderung: Do Es liegt eine Dokumentation vor, die Angaben zum verwendeten Modell macht und beschreibt, wie durch das implementierte Lernverfahren35 und insbesondere die gewählten Verlustfunktion(en)36 die Fairness der KI-Anwendung gefördert wird. [FN-R-FN-MA-04] Faire Adaption und Nachverarbeitung Anforderung: Do Es liegt eine Dokumentation vor, die beschreibt, welche Maßnahmen ergriffen werden, falls die Ergebnis- se des ML-Modells im Lernprozess unfair werden (Faires In-Processing, Optimization at Training Time). Zur Beurteilung werden dabei die Zielintervalle gemäß [FN-R-FN-KR-01] zugrunde gelegt. Die Maßnahmen müssen begründet sein. Es liegt eine Dokumentation vor, die beschreibt, welche Maßnahmen ergriffen werden, falls die Ergebnisse nach dem Training unfair werden (Faires Post-Processing37). Zur Beurteilung werden die Zielintervalle gemäß [FN-R-FN-KR-01] zugrunde gelegt. Diese Maßnahmen müssen begründet sein. Falls keine solchen Maßnahmen ergriffen werden, so muss auch dies begründet werden. 33 Für Data Massaging, Uniform/Preferential Sampling und Reweighing siehe auch: Kamiran, F., Calders, T. (Dezember 2011). Data prepro- cessing techniques for classification without discrimination. Springer, Knowledge and Information Systems 33, 1–33 (2012). https://doi. org/10.1007/s10115-011-0463-8 (letzter Aufruf: 30.06.2021) 34 Siehe auch: Zemel, R., Wu, Y., Swersky, K., Pitassi, T. und Dwork, C. (2013). Learning fair representations. In Proceedings of the 30th International Conference on Machine Learning, PMLR 28(3):325-333, 2013. http://proceedings.mlr.press/v28/zemel13.pdf (letzter Aufruf: 30.06.2021) sowie Lahoti, P., Gummadi, K. und Weikum, G. (2019). ifair: Learning individually fair data representations for algorithmic decision making. In 35th IEEE International Conference on Data Engineering, 2019. https://doi.org/10.1109/ICDE.2019.00121 (letzter Aufruf: 30.06.2021) 35 Für eine mögliche Methode zur fairen Modellbildung siehe beispielsweise: Zhang, B., Lemoine, B. und Mitchell, M. (2018). Mitigating Unwanted Biases with Adversarial Learning. In Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society (AIES ‚18). Asso- ciation for Computing Machinery, New York, NY, USA, 335–340. https://doi.org/10.1145/3278721.3278779 (letzter Aufruf: 30.06.2021) 36 Für mögliche Modifikationen der Verlustfunktion zur fairen Modellbildung siehe beispielsweise: Zafar, M., Valera, I., Gomez Rodriguez, M. und Gummadi, K. (2017). Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment. In Proceedings of the 26th International Conference on World Wide Web (WWW ‚17). International World Wide Web Conferences Steering Committee, Republic and Canton of Geneva, CHE, 1171–1180. https://doi.org/10.1145/3038912.3052660 (letzter Aufruf: 30.06.2021) 37 Siehe hierzu auch: Hardt, M., Price, E. und Srebro, N. (2016). Equality of opportunity in supervised learning. In Advances in Neural Informa- tion Processing Systems 29, 2016. https://papers.nips.cc/paper/2016/file/9d2682367c3935defcb1f9e247a97c0d-Paper.pdf (letzter Aufruf: 30.06.2021) sowie F. Kamiran, A. Karim and X. Zhang (2012), »Decision Theory for Discrimination-Aware Classification,« 2012 IEEE 12th International Conference on Data Mining, pp. 924-929, https://doi.org/10.1109/ICDM.2012.45 (letzter Aufruf: 30.06.2021) 43