Gepostet am 21. Juli 2025 von
Die regulatorische Behandlung von KI-Systemen muss im Zusammenspiel zweier Rechtsrahmen erfolgen: Dem European AI Act und der DORA-Verordnung. Der AI Act legt die inhaltlichen Anforderungen an den Einsatz von KI-Systemen, besonders im Hinblick auf die Risikoklassifizierung, Transparenz, Kontrollen und Kompetenz, fest. DORA regelt die organisatorische und prüferische Einbettung digitaler Assets in den IKT-Risikomanagementrahmen von Finanzinstituten. Die Klassifizierung von KI-Anwendungen als IKT-Asset gemäß DORA hat zur Folge, dass sämtliche zum Einsatz kommenden KI-Systeme in das Risikomanagement, die IKT-Governance sowie in das interne Kontrollsystem (IKS) mit entsprechender Dokumentation, Verantwortungszuordnung und Prüfbarkeit integriert werden müssen. Zugleich ergeben sich aus dem AI Act eine Reihe weiterer Pflichten, deren Einhaltung objektiv nachgewiesen werden muss. Dazu gehören insbesondere eine systematische Bestandsaufnahme im Hinblick auf Vollständigkeit der Erhebung und Risikoklassifizierung aller eingesetzten KI-Systeme sowie der Nachweis darüber, dass keine verbotenen KI-Praktiken gemäß Artikel 5 AI Act eingesetzt werden.
Neben der DORA-Verordnung, die den Governance-Rahmen zur Integration von KI in die Organisation vorschreibt, regelt der bestehende aufsichtsrechtliche Rahmen auf nationaler Ebene, vor allem § 25a KWG in Verbindung mit den Mindestanforderungen an das Risikomanagement (MaRisk), die Anforderungen an eine ordnungsgemäße Geschäftsorganisation. Danach sind Institute verpflichtet, sämtliche wesentlichen Risiken aus ihren Geschäftsaktivitäten zu identifizieren, zu bewerten, zu steuern und zu überwachen. Der Einsatz von KI, insbesondere wenn er wesentliche und kritisch/wichtige Geschäftsprozesse, die Kundeninteraktion oder (teil-)automatisierte Entscheidungen betrifft, unterliegt somit dem allgemeinen Organisations- und Kontrollregime und ist in das IKS einzubetten. Mit der vollständigen Anwendung der DORA-Verordnung am 17. Januar 2025 und dem schrittweisen Inkrafttreten des AI Act seit Februar 2025 ist eine vollständige und prüfbare Verankerung von KI-Systemen in die institutsweite Governance, das IKT-Risikomanagement sowie die interne und externe Berichterstattung sicherzustellen. Die Erwartungshaltung der Aufsicht und der Abschlussprüfer richtet sich hierbei auf die dokumentierte Nachvollziehbarkeit, Risikosteuerung und Überwachung aller eingesetzten KI-Systeme, einschließlich solcher, die ausgelagert oder als Komponenten in Drittanwendungen bei eingesetzten Dienstleistern enthalten sind.
Vor dem Hintergrund der angekündigten Prüfung von KI-Systemen im Rahmen der Jahresabschlussprüfung 2025 unter DORA besteht für Finanzinstitute akuter Handlungsbedarf. Wir empfehlen im Rahmen eines strukturierten Umsetzungsprojekts systematisch die benötigten prüfungsrelevanten Evidenzen zu schaffen. Dabei sollten folgende Handlungsfelder abgedeckt werden:
Im nächsten Beitrag widmen wir uns der Frage, wie Finanzinstitute ihre bestehenden und unter DORA neu geschaffenen Strukturen sinnvoll und effizient nutzen können, um den Anforderungen an eine KI-Governance zu entsprechen. Dabei legen wir den Fokus darauf, wie die vorhandenen Prozesse und Mechanismen des IKT-Risikomanagements gezielt um KI-Spezifika erweitert werden können, um eine nachhaltige und prüfungssichere Integration von KI im der der institutsweiten Governance sicherzustellen.
Wir unterstützen Sie bei der strukturierten und prüfungsfesten Umsetzung der regulatorischen Anforderungen an den Einsatz von KI entlang der Vorgaben des AI Act und der DORA-Verordnung. Unser Leistungsportfolio umfasst u.a.:
Bitte geben Sie Ihre E-Mail-Adresse an. Wir senden Ihnen eine E-Mail zum Zurücksetzen Ihres Passwortes.