Feedback

Gepostet am 24. Juni 2025 von  Michelle Lizenberger; Senior Consultant bei Severn Consultancy 🕐 5 min Lesezeit

KI-Risikoklassifizierung: Der nächste Schritt zur sicheren KI-Nutzung

Die Risikoklassifizierung von KI-Systemen ist der fundamentale Grundbaustein des AI-Act und zentraler Ausgangspunkt für deren Anwendung und Umsetzung im Lebenszyklus eines KI-Systems. Die regulatorische Einordnung eines jeden KI-Systems in eine der vier Risikoklassen des AI-Act entscheidet über alle nachgelagerten Compliance-Pflichten. Die Einstufung ist damit nicht nur ein formaler Akt, sondern eine aufsichtsrechtlich relevante Weichenstellung, die unmittelbare Auswirkungen auf die Gestaltung der Governance, den Ressourceneinsatz sowie die KI-Prüfungsfähigkeit eines Instituts hat.

In der aktuellen Unternehmenspraxis zeigt sich oft, dass viele KI-Anwendungen nur schwer eindeutig zugeordnet werden können. Unsicherheiten bestehen, insbesondere bei unterstützenden oder teilautomatisierten Systemen, bei der Nutzung von Drittanwendungen sowie bei Fällen, in denen menschliche Entscheidungen auf KI-Ergebnissen basieren. Fehleinschätzungen können dabei nicht nur zu erhöhtem Aufwand führen, sondern auch weitreichende aufsichtsrechtliche oder haftungsrelevante Konsequenzen nach sich ziehen. In diesem dritten Teil unserer Blogreihe erläutern wir, welche Risikokategorien der AI-Act vorsieht, wie die Klassifizierung in der Praxis erfolgt und welche Anwendungsfälle in Finanzinstituten besondere Aufmerksamkeit erfordern.

Eine fundierte Bestandsaufnahme – wie in Teil 2 dieser Reihe beschrieben – ist dabei die unabdingbare Voraussetzung für eine belastbare und prüfungsfeste Einordnung.

Rechtslage: Systematik und Bedeutung der Risikoklassifizierung gemäß AI-Act

Der AI-Act folgt einem risikobasierten und rollenzentrierten Ansatz. Die Einordnung eines KI-Systems in eine der vier Risikokategorien bildet dabei die Grundlage. Die jeweils geltenden regulatorischen Anforderungen richten sich unmittelbar nach dem Risiko, das ein KI-System im konkreten Anwendungsfall begründet, sowie der Rolle, die das Institut entlang der KI-Wertschöpfungskette einnimmt. Dabei gilt: Je höher das inhärente Risiko, das mit dem KI-System einhergeht, desto umfangreicher sind die zu erfüllenden Pflichten. Der AI-Act klassifiziert KI-Systeme anhand ihres inhärenten Risikos in vier Risikoklassen:

1. Unannehmbares Risiko

KI-Systeme mit einem unannehmbaren Risiko sind in der EU gesetzlich verboten, da sie nach Auffassung des Gesetzgebers eine erhebliche Bedrohung für die öffentliche Ordnung, Sicherheit oder Grundrechte darstellen. Beispiele sind Systeme zur Emotionserkennung am Arbeitsplatz oder Social Scoring. Finanzinstitute müssen revisionssicher nachweisen können, dass keine verbotenen Praktiken im Einsatz sind.

2. Hohes Risiko

Hochrisiko-KI-Systeme sind unter strengen Auflagen erlaubt. Dazu zählen unter anderem Systeme zur Kreditwürdigkeitsprüfung, Bonitätsbewertung oder zur Risikobewertung und Preisbildung von Lebens- und Krankenversicherungen. Insbesondere die Rollenträger „Anbieter“ und „Betreiber“ müssen strenge Anforderungen in Bezug auf Datenqualität, menschliche Aufsicht, Resilienz, Risikomanagement, Qualitätsmanagement sowie Transparenz und Dokumentation umsetzen.

3. Geringes Risiko

KI-Systeme mit geringem Risiko unterliegen Transparenz-, Kennzeichnungs- und Offenlegungspflichten. Typische Beispiele sind Chatbots oder KI-gestützte Text- und Bilderstellungstools. In Banken und Versicherungen kommen solche Systeme etwa im Kundenservice zum Einsatz – sie erfordern eine klare Kennzeichnung für Nutzer und Betroffene.

4. Minimales Risiko

Systeme mit minimalem Risiko – wie etwa KI-unterstützte Spamfilter oder Empfehlungssysteme in unkritischen Bereichen – unterliegen keinen speziellen regulatorischen Anforderungen. Auch in der Finanzbranche werden solche Anwendungen eingesetzt, etwa zur Filterung interner Kommunikation oder Inhaltsmoderation.

Die nachfolgende Grafik gibt einen Überblick über alle relevanten Risikoklassen:


Ergänzend zur Risikoeinstufung muss auch die Rolle des Instituts entlang der KI-Wertschöpfungskette für jedes KI-System ermittelt werden. Der AI-Act definiert sechs grundsätzliche Akteure: Anbieter, Betreiber, Einführer, Händler, Bevollmächtigte und nachgelagerte Anbieter, wobei jedem Akteur eigene Pflichten zugewiesen sind. Grundsätzlich gilt, dass ein Institut für ein KI-System auch mehrere Rollen gleichzeitig innehaben kann und demnach die Pflichten aller relevanten Rollen kumuliert beachten muss. Dem Anbieter und dem Betreiber misst der AI-Act die umfangreichsten Pflichten und Anforderungen zu. Diese beiden Rollen sind auch deshalb für Finanzinstitute von besonderer Relevanz, da die gängigsten Praxisfälle entweder eine Eigenentwicklung bzw. die Beauftragung einer Entwicklung (Anbieter) und/oder die Nutzung/Integration von Drittanbieterlösungen (Betreiber) darstellen.

Regulatorische Einordnung und aufsichtliche Relevanz

Wie bereits angesprochen, stellt die Risikoklassifizierung den zentralen Bezugspunkt für die Ausgestaltung der gesamten Governance und Compliance rund um den KI-Einsatz dar. Eine fehlerhafte oder unterlassene Klassifizierung kann dazu führen, dass wesentliche gesetzliche Pflichten nicht erfüllt werden. Im Rahmen von Prüfungen wird erwartet, das Institute nachweisen können, wie sie ihre KI-Systeme klassifiziert haben, welche Maßnahmen sie auf welche Weise umgesetzt haben und dass sie keine verbotenen Praktiken im Einsatz haben. Ohne eine klare Einordnung des Risikos und der eigenen Rolle im KI-Systemlebenszyklus ist eine gesetzeskonforme Anwendung nicht möglich. Unternehmen müssen frühzeitig prüfen und dokumentieren, welcher Risikokategorie ihre eingesetzten Systeme zuzuordnen sind. Dies schützt auch vor den gesetzlich definierten Bußgeldern, Haftungsrisiken oder gar dem Verlust des Marktzugangs.

Status-Quo: Hochrisiko-KI erfordert ganzheitliche Governance und Verantwortung

In vielen Instituten herrscht aktuell große Unsicherheit, wie eine systematische und regulatorisch konforme Risikoklassifizierung vorzunehmen ist. Dabei betrifft die Hochrisiko-Kategorie oft genau jene Anwendungsfelder, in denen Finanzdienstleister verstärkt KI-Technologie einsetzen – etwa bei der Bonitätsprüfung im Rahmen der Kreditvergabe, der Risikoanalyse und Tarifgestaltung in der Lebens- und Krankenversicherung sowie in KYC-Prozessen.

Eine Hochrisiko-Klassifizierung geht mit weitreichenden regulatorischen Anforderungen und Pflichten einher: Finanzinstitute müssen umfassende Prüf- und Dokumentationsprozesse aufsetzen, Transparenz über die Funktionsweise ihrer KI-Systeme schaffen sowie technische und organisatorische Maßnahmen zur Sicherstellung von Sicherheit, Datenqualität und Kontrollfähigkeit implementieren. Diese Anforderungen gelten unabhängig davon, ob ein KI-System intern entwickelt oder extern bezogen wird, die regulatorische Verantwortung verbleibt stets beim jeweiligen Institut.

Besonderes Augenmerk gilt dabei Anhang III des AI-Act, in welchem die EU-Kommission spezifische Einsatzbereiche definiert, bei denen ein „hohes Risiko“ grundsätzlich anzunehmen ist. Dazu zählen unter anderem:

  • Bewertung der Kreditwürdigkeit von natürlichen Personen oder die Festsetzung von Versicherungsprämien,
  • Zugang zu und Nutzung von wesentlichen privaten oder öffentlichen Dienstleistungen, etwa im Bereich der Finanzdienstleistungen,
  • Betrugserkennung und Bekämpfung von Geldwäsche, insbesondere im Zahlungsverkehr,
  • Personalauswahl und -bewertung, beispielsweise durch KI-gestützte automatisierte Screeningverfahren,
  • Biometrische Identifikation und Kategorisierung, etwa im Rahmen von Kundenverifikation (z. B. KYC).

Diese Anwendungsfälle sind für Finanzinstitute direkt relevant. Die Herausforderung besteht darin, insbesondere zugekaufte Drittanbieter-Systeme korrekt zu erfassen und zu klassifizieren. Oftmals sind Trainingsdaten, Modelllogik oder Risikobewertungen solcher externen KI-Lösungen nicht ausreichend transparent oder dokumentiert.

Ein strukturiertes, dokumentiertes und replizierbares Verfahren zur Risikobewertung ist essenziell, um (Dritt-)Anwendungen regulatorisch konform einordnen zu können – und damit langfristig den sicheren Einsatz und Betrieb von KI-Systemen zu gewährleisten.

Unsere Empfehlung: Durchführung einer risikobasierten und rollenzentrierten KI-Risikoklassifizierung

Eine strukturierte Risikoklassifizierung beginnt mit dem gezielten Aufbau von KI-Kompetenz im Unternehmen. Nur wer Funktionsweise, Einsatzkontexte und Auswirkungen von KI-Systemen versteht, kann diese verlässlich bewerten. Darauf folgt eine strukturierte Bestandsaufnahme aller eingesetzten KI-Systeme – inklusive externer Lösungen. Auf dieser Grundlage erfolgt die eigentliche Risikoeinstufung gemäß AI-Act.

Lesen Sie hierzu auch die ersten beiden Teile unserer Blogserie:

KI-Bestandsaufnahme – Die Voraussetzung für wirksame Compliance

Aufbau von KI-Kompetenz – Eine gesetzliche Pflicht für Finanzinstitute

Im ersten Schritt der konkreten Risikoklassifizierung muss der Prüfungsgegenstand klar festgelegt werden. Prüfungsgegenstand kann ein KI-System, ein zugrundeliegendes KI-Modell oder das Ergebnis, das aus der KI-Anwendung hervorgeht, sein. Im zweiten Schritt erfolgt die Identifikation der durch das Institut durchgeführten Handlungen, etwa ob das Unternehmen ein KI-System entwickelt, entwickeln lässt, betreibt, in Verkehr bringt oder in Betrieb nimmt. Dies bildet die Grundlage, für die Identifizierung der eigenen Rolle(n) gemäß AI-Act (z. B. Anbieter oder Betreiber). Im dritten Schritt erfolgt die Bewertung des Prüfungsgegenstands im Hinblick auf verbotene Praktiken und die Einordnung in eine der vier Risikoklassen. Ein systematisches Vorgehen – idealerweise mithilfe von Checklisten – sorgt hier für Konsistenz und Nachvollziehbarkeit. Zusätzlich sind mögliche Ausnahmeregelungen zu prüfen, etwa für Hochrisiko-KI-Systeme, die nur vorbereitende Aufgaben ausführen (vgl. Artikel 6 Absatz 3 a)–d)). Abschließend wird auf Basis der identifizierten Rolle und der Risikoeinstufung ein Maßnahmenkatalog abgeleitet und in konkrete Umsetzungsmaßnahmen übersetzt.

Ein solches strukturiertes Vorgehen ist für Finanzinstitute entscheidend, um vor Compliance-Verstößen und Haftungsrisiken geschützt zu sein. Wer frühzeitig klassifiziert, schafft die Basis für einen rechtssicheren und verantwortungsvollen KI-Einsatz in der EU.

Ausblick: Handlungsfelder bis Ende 2025

Die Risikoklassifizierung legt zwar den Grundstein für die Konformität mit den Anforderungen des AI Act, doch die operative Implementierung von konkreten Maßnahmen beginnt erst danach. Im nächsten Beitrag zeigen wir, welche konkreten Maßnahmen Unternehmen jetzt ergreifen müssen und welche Aufgaben sich kurzfristig, mittelfristig und langfristig daraus ableiten. Dabei legen wir den Fokus auf die bis Ende 2025 für die Prüfung des Jahresabschlusses zwingend zu ergreifenden Maßnahmen.

Unser Angebot an Sie

Die Risikoklassifizierung von KI-Systemen ist eine komplexe Aufgabe, die technisches Know-how, tiefgreifendes Verständnis der regulatorischen Anforderungen sowie ein systematisches und aufsichtlich bewährtes Vorgehensmodell erfordert. Wir unterstützen Sie dabei, Ihre KI-Systeme systematisch zu bewerten und rechtskonform zu klassifizieren durch:

  • Bestandsaufnahme der eingesetzten KI-Systeme und ihrer Anwendungsbereiche
  • Entwicklung eines maßgeschneiderten Risikoklassifizierungsprozesses
  • Bereitstellung von Checklisten zur sicheren Klassifizierung ihrer KI-Systeme
  • Moderation von Workshops mit relevanten Fachbereichen und Schlüsselfunktionen
  • Erstellung einer transparenten und prüfungsfesten Risikoklassifizierung
  • Strukturierte Ableitung eines individuellen Maßnahmenkatalogs zur Erfüllung der für Ihr Unternehmen relevanten AI Act-Anforderungen

Gemeinsam ins Gespräch kommen – Kontaktformular



kostenlos anfordern: Whitepaper- KI in der Finanzindustrie



KI in der Finanzbranche


Passwort zurücksetzen

Bitte geben Sie Ihre E-Mail-Adresse an. Wir senden Ihnen eine E-Mail zum Zurücksetzen Ihres Passwortes.


Abbrechen

Newsletter abonnieren


















Captcha*

Bitte beachten Sie, dass Sie zur Anmeldung eine dienstliche E-Mail benötigen. Außerdem können wir Anmeldungen von Branchendienstleistern nicht berücksichtigen.