Gepostet am 24. Juni 2025 von
Der AI-Act folgt einem risikobasierten und rollenzentrierten Ansatz. Die Einordnung eines KI-Systems in eine der vier Risikokategorien bildet dabei die Grundlage. Die jeweils geltenden regulatorischen Anforderungen richten sich unmittelbar nach dem Risiko, das ein KI-System im konkreten Anwendungsfall begründet, sowie der Rolle, die das Institut entlang der KI-Wertschöpfungskette einnimmt. Dabei gilt: Je höher das inhärente Risiko, das mit dem KI-System einhergeht, desto umfangreicher sind die zu erfüllenden Pflichten. Der AI-Act klassifiziert KI-Systeme anhand ihres inhärenten Risikos in vier Risikoklassen:
1. Unannehmbares Risiko
KI-Systeme mit einem unannehmbaren Risiko sind in der EU gesetzlich verboten, da sie nach Auffassung des Gesetzgebers eine erhebliche Bedrohung für die öffentliche Ordnung, Sicherheit oder Grundrechte darstellen. Beispiele sind Systeme zur Emotionserkennung am Arbeitsplatz oder Social Scoring. Finanzinstitute müssen revisionssicher nachweisen können, dass keine verbotenen Praktiken im Einsatz sind.
2. Hohes Risiko
Hochrisiko-KI-Systeme sind unter strengen Auflagen erlaubt. Dazu zählen unter anderem Systeme zur Kreditwürdigkeitsprüfung, Bonitätsbewertung oder zur Risikobewertung und Preisbildung von Lebens- und Krankenversicherungen. Insbesondere die Rollenträger „Anbieter“ und „Betreiber“ müssen strenge Anforderungen in Bezug auf Datenqualität, menschliche Aufsicht, Resilienz, Risikomanagement, Qualitätsmanagement sowie Transparenz und Dokumentation umsetzen.
3. Geringes Risiko
KI-Systeme mit geringem Risiko unterliegen Transparenz-, Kennzeichnungs- und Offenlegungspflichten. Typische Beispiele sind Chatbots oder KI-gestützte Text- und Bilderstellungstools. In Banken und Versicherungen kommen solche Systeme etwa im Kundenservice zum Einsatz – sie erfordern eine klare Kennzeichnung für Nutzer und Betroffene.
4. Minimales Risiko
Systeme mit minimalem Risiko – wie etwa KI-unterstützte Spamfilter oder Empfehlungssysteme in unkritischen Bereichen – unterliegen keinen speziellen regulatorischen Anforderungen. Auch in der Finanzbranche werden solche Anwendungen eingesetzt, etwa zur Filterung interner Kommunikation oder Inhaltsmoderation.
Die nachfolgende Grafik gibt einen Überblick über alle relevanten Risikoklassen:
Ergänzend zur Risikoeinstufung muss auch die Rolle des Instituts entlang der KI-Wertschöpfungskette für jedes KI-System ermittelt werden. Der AI-Act definiert sechs grundsätzliche Akteure: Anbieter, Betreiber, Einführer, Händler, Bevollmächtigte und nachgelagerte Anbieter, wobei jedem Akteur eigene Pflichten zugewiesen sind. Grundsätzlich gilt, dass ein Institut für ein KI-System auch mehrere Rollen gleichzeitig innehaben kann und demnach die Pflichten aller relevanten Rollen kumuliert beachten muss. Dem Anbieter und dem Betreiber misst der AI-Act die umfangreichsten Pflichten und Anforderungen zu. Diese beiden Rollen sind auch deshalb für Finanzinstitute von besonderer Relevanz, da die gängigsten Praxisfälle entweder eine Eigenentwicklung bzw. die Beauftragung einer Entwicklung (Anbieter) und/oder die Nutzung/Integration von Drittanbieterlösungen (Betreiber) darstellen.
Regulatorische Einordnung und aufsichtliche Relevanz
Wie bereits angesprochen, stellt die Risikoklassifizierung den zentralen Bezugspunkt für die Ausgestaltung der gesamten Governance und Compliance rund um den KI-Einsatz dar. Eine fehlerhafte oder unterlassene Klassifizierung kann dazu führen, dass wesentliche gesetzliche Pflichten nicht erfüllt werden. Im Rahmen von Prüfungen wird erwartet, das Institute nachweisen können, wie sie ihre KI-Systeme klassifiziert haben, welche Maßnahmen sie auf welche Weise umgesetzt haben und dass sie keine verbotenen Praktiken im Einsatz haben. Ohne eine klare Einordnung des Risikos und der eigenen Rolle im KI-Systemlebenszyklus ist eine gesetzeskonforme Anwendung nicht möglich. Unternehmen müssen frühzeitig prüfen und dokumentieren, welcher Risikokategorie ihre eingesetzten Systeme zuzuordnen sind. Dies schützt auch vor den gesetzlich definierten Bußgeldern, Haftungsrisiken oder gar dem Verlust des Marktzugangs.
In vielen Instituten herrscht aktuell große Unsicherheit, wie eine systematische und regulatorisch konforme Risikoklassifizierung vorzunehmen ist. Dabei betrifft die Hochrisiko-Kategorie oft genau jene Anwendungsfelder, in denen Finanzdienstleister verstärkt KI-Technologie einsetzen – etwa bei der Bonitätsprüfung im Rahmen der Kreditvergabe, der Risikoanalyse und Tarifgestaltung in der Lebens- und Krankenversicherung sowie in KYC-Prozessen.
Eine Hochrisiko-Klassifizierung geht mit weitreichenden regulatorischen Anforderungen und Pflichten einher: Finanzinstitute müssen umfassende Prüf- und Dokumentationsprozesse aufsetzen, Transparenz über die Funktionsweise ihrer KI-Systeme schaffen sowie technische und organisatorische Maßnahmen zur Sicherstellung von Sicherheit, Datenqualität und Kontrollfähigkeit implementieren. Diese Anforderungen gelten unabhängig davon, ob ein KI-System intern entwickelt oder extern bezogen wird, die regulatorische Verantwortung verbleibt stets beim jeweiligen Institut.
Besonderes Augenmerk gilt dabei Anhang III des AI-Act, in welchem die EU-Kommission spezifische Einsatzbereiche definiert, bei denen ein „hohes Risiko“ grundsätzlich anzunehmen ist. Dazu zählen unter anderem:
Diese Anwendungsfälle sind für Finanzinstitute direkt relevant. Die Herausforderung besteht darin, insbesondere zugekaufte Drittanbieter-Systeme korrekt zu erfassen und zu klassifizieren. Oftmals sind Trainingsdaten, Modelllogik oder Risikobewertungen solcher externen KI-Lösungen nicht ausreichend transparent oder dokumentiert.
Ein strukturiertes, dokumentiertes und replizierbares Verfahren zur Risikobewertung ist essenziell, um (Dritt-)Anwendungen regulatorisch konform einordnen zu können – und damit langfristig den sicheren Einsatz und Betrieb von KI-Systemen zu gewährleisten.
Eine strukturierte Risikoklassifizierung beginnt mit dem gezielten Aufbau von KI-Kompetenz im Unternehmen. Nur wer Funktionsweise, Einsatzkontexte und Auswirkungen von KI-Systemen versteht, kann diese verlässlich bewerten. Darauf folgt eine strukturierte Bestandsaufnahme aller eingesetzten KI-Systeme – inklusive externer Lösungen. Auf dieser Grundlage erfolgt die eigentliche Risikoeinstufung gemäß AI-Act.
Lesen Sie hierzu auch die ersten beiden Teile unserer Blogserie:
KI-Bestandsaufnahme – Die Voraussetzung für wirksame Compliance
Aufbau von KI-Kompetenz – Eine gesetzliche Pflicht für Finanzinstitute
Im ersten Schritt der konkreten Risikoklassifizierung muss der Prüfungsgegenstand klar festgelegt werden. Prüfungsgegenstand kann ein KI-System, ein zugrundeliegendes KI-Modell oder das Ergebnis, das aus der KI-Anwendung hervorgeht, sein. Im zweiten Schritt erfolgt die Identifikation der durch das Institut durchgeführten Handlungen, etwa ob das Unternehmen ein KI-System entwickelt, entwickeln lässt, betreibt, in Verkehr bringt oder in Betrieb nimmt. Dies bildet die Grundlage, für die Identifizierung der eigenen Rolle(n) gemäß AI-Act (z. B. Anbieter oder Betreiber). Im dritten Schritt erfolgt die Bewertung des Prüfungsgegenstands im Hinblick auf verbotene Praktiken und die Einordnung in eine der vier Risikoklassen. Ein systematisches Vorgehen – idealerweise mithilfe von Checklisten – sorgt hier für Konsistenz und Nachvollziehbarkeit. Zusätzlich sind mögliche Ausnahmeregelungen zu prüfen, etwa für Hochrisiko-KI-Systeme, die nur vorbereitende Aufgaben ausführen (vgl. Artikel 6 Absatz 3 a)–d)). Abschließend wird auf Basis der identifizierten Rolle und der Risikoeinstufung ein Maßnahmenkatalog abgeleitet und in konkrete Umsetzungsmaßnahmen übersetzt.
Ein solches strukturiertes Vorgehen ist für Finanzinstitute entscheidend, um vor Compliance-Verstößen und Haftungsrisiken geschützt zu sein. Wer frühzeitig klassifiziert, schafft die Basis für einen rechtssicheren und verantwortungsvollen KI-Einsatz in der EU.
Die Risikoklassifizierung legt zwar den Grundstein für die Konformität mit den Anforderungen des AI Act, doch die operative Implementierung von konkreten Maßnahmen beginnt erst danach. Im nächsten Beitrag zeigen wir, welche konkreten Maßnahmen Unternehmen jetzt ergreifen müssen und welche Aufgaben sich kurzfristig, mittelfristig und langfristig daraus ableiten. Dabei legen wir den Fokus auf die bis Ende 2025 für die Prüfung des Jahresabschlusses zwingend zu ergreifenden Maßnahmen.
Die Risikoklassifizierung von KI-Systemen ist eine komplexe Aufgabe, die technisches Know-how, tiefgreifendes Verständnis der regulatorischen Anforderungen sowie ein systematisches und aufsichtlich bewährtes Vorgehensmodell erfordert. Wir unterstützen Sie dabei, Ihre KI-Systeme systematisch zu bewerten und rechtskonform zu klassifizieren durch:
Bitte geben Sie Ihre E-Mail-Adresse an. Wir senden Ihnen eine E-Mail zum Zurücksetzen Ihres Passwortes.