KI-Systeme werden zunehmend in kritischen Infrastrukturen eingesetzt und lernen dort teilweise kontinuierlich im laufenden Betrieb. Diese Eigenschaft macht sie zu einem attraktiven Ziel für Cyberangriffe – nicht nur durch klassische Hacker, sondern auch durch Data-Poisoning-Attacken oder korrumpierte Trainingsdaten, die den Output eines Modells gezielt manipulieren. Solche Angriffe gerichtsfest nachzuweisen, ist eine große Herausforderung.