Wirtschaftsprüfer ✓Rechtsanwälte ✓ Steuerberater ✓ und Unternehmensberater ✓: Vier Perspektiven. Eine Lösung. …
Wirtschaftsprüfung und prüfungsnahe Beratung von Unternehmen ✓ Erfahrene Prüfer ✓ Exzellente Beratung ✓ …
Rechtsberatung für Unternehmen ✓ Erfahrene Rechtsanwälte ✓ Exzellente juristische Beratung ✓ Maßgeschneiderte …
Steuerberatung für Unternehmen und Familienunternehmen ✓ Erfahrene Steuerberater ✓ Exzellente Beratung ✓ …
Unternehmensberatung für Unternehmen ✓ Erfahrene Consultants ✓ Exzellente Beratung ✓ Maßgeschneiderte Lösungen » …
Kz. 500 ab 2026 – der neue ‘Bitte nicht automatisch’-Knopf (nur leider mit Begründungspflicht)
IKT-Risiken beim Einsatz von KI: Neue BaFin-Orientierungshilfe
EU-Taxonomie: Delegierter Rechtsakt im EU-Amtsblatt veröffentlicht
Baker Tilly auf der Structured FINANCE: Expertise für Ihre Finanzierungsstrategie
Baker Tilly baut Beratung im Bereich Immobilienbewertung weiter aus
Bündelung von Fachkompetenz und klare Zuständigkeiten im Vergaberecht
Energy Sharing: EnWG-Novelle schafft neuen rechtlichen Rahmen
Betriebsratswahl 2026: Minderheitenquote richtig berücksichtigen
Wie die Steuerstruktur den Kaufpreis bei GmbH & Co. KG beeinflusst
Steueränderungsgesetz 2025 final verabschiedet
Ein Jahr DORA: So geht es für Finanzunternehmen weiter
Wer trägt das Risiko bei E-Mail-Betrug im Geschäftsverkehr?
Branchenübergreifende Expertise für individuelle Lösungen ✓ Unsere interdisziplinären Teams kombinieren Fachwissen …
Baker Tilly berät Klinikum Chemnitz bei strategischem Verbund mit DIAKOMED-Krankenhaus
Deutschlandfonds startet: Neuer Rahmen für private Investitionen
Carve-out oder Kollaps? So retten sich Automobilzulieferer
Individuelle Beratung ✓ maßgeschneiderte Lösungen von Experten aus Wirtschaftsprüfung, Steuer-, Rechts- & …
Baker Tilly bietet ein breites Spektrum individueller und innovativer Beratungsdienstleistungen in an. Erfahren …
Baker Tilly startet mit vier neuen Partnern in das Jahr
Neuer Partner im Bereich Forensic Services: Baker Tilly baut Beratung aus
Baker Tilly in Deutschland erneut mit zweistelligem Umsatzwachstum
Algorithmen im regulatorischen Korsett: Die Finanzaufsicht BaFin hat mit einer neuen Orientierungshilfe Leitplanken für den Einsatz von Künstlicher Intelligenz in Finanzunternehmen gesetzt.
Die Finanzindustrie steht an der Schwelle einer der tiefgreifendsten Veränderungen ihrer Geschichte. Die Integration von Künstlicher Intelligenz (KI) in Kernbankprozesse verspricht Effizienzgewinne, präzisere Risikomodelle und hyper-personalisierte Kundeninteraktionen.
Doch mit der technologischen Potenz steigt die Verwundbarkeit. Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) hat mit ihrer „Orientierungshilfe zu IKT-Risiken beim Einsatz von KI in Finanzunternehmen“ ein klares Signal gesendet: Die Zeit der unregulierten Experimente ist vorbei. KI ist kein abstraktes Zukunftsthema mehr, sondern ein konkretes IKT-Asset, das ebenfalls den strengen Anforderungen des Digital Operational Resilience Act (DORA) unterliegt.
Dieser Beitrag fasst wichtige Aspekte aus der am 18. Dezember 2025 veröffentlichten Orientierungshilfe zusammen. Wir beginnen mit einer Veranschaulichung der modernen, KI-gestützten Kreditvergabe, um die operativen Risiken verständlich zu machen. Anschließend analysieren wir die Anforderungen der BaFin entlang des gesamten KI-Lebenszyklus – von der Governance über die Entwicklung bis zur Stilllegung. Abschließend stellen wir dar, welchen Beitrag eine unabhängige Prüfung leisten kann, um einen belastbaren Nachweis für ein umsichtiges Risikomanagement mit KI-Risiken und operativer Resilienz zu erlangen.
Um die regulatorischen Anforderungen der BaFin in ihrer Tiefe zu verstehen, ist es unerlässlich, zu verdeutlichen, worauf diese Regeln überhaupt angewendet werden.
Klassische Kreditvergabeprozesse basierten auf kausalen Zusammenhängen und linearen Regeln nach dem Schema: „Wenn das Einkommen > X und die Schulden < Y, dann Kredit = Ja“. Dieses deterministische Weltbild wird durch KI fundamental herausgefordert.
Moderne Systeme, oft basierend auf Machine Learning (ML), suchen nicht primär nach Kausalitäten, sondern nach komplexen, nicht-linearen Korrelationen in riesigen Datensätzen. Sie transformieren die Frage „Kann der Kunde zahlen?“ in eine statistische Wahrscheinlichkeitsprognose, die eine Vielzahl von Variablen (Features) in Sekundenbruchteilen gegeneinander abwägt.
Der Lebenszyklus einer KI-basierten Kreditentscheidung lässt sich technisch in fünf kritische Phasen unterteilen. Jede dieser Phasen birgt spezifische IKT-Risiken, auf die die BaFin-Orientierungshilfe abzielt.
Phase 1: Intelligente Datenaufnahme und Extraktion (Input Management)
Der Prozess beginnt am „Point of Sale“ – sei es in einer App oder am Bankschalter.
Phase 2: Feature Engineering und Datenanreicherung
Die Rohdaten werden nun in verarbeitbare Signale transformiert.
Phase 3: Die Risikoprognose (Inferenz)
Dies ist das Herzstück des Systems – die „Black Box“.
Phase 4: Entscheidungsfindung und Erklärbarkeit (XAI)
Ein Score allein erfüllt noch keine regulatorischen Anforderungen.
Phase 5: Kontinuierliches Monitoring und Betrugserkennung
Nach der initialen Kreditentscheidung endet der Lebenszyklus der KI nicht. Vielmehr beginnt eine dauerhafte Betriebs- und Überwachungsphase, die aus aufsichtsrechtlicher Sicht eine der kritischsten Phasen im Hinblick auf IKT-Risiken darstellt.
Diese massive Automatisierung und die Abhängigkeit von komplexen, oft undurchsichtigen Algorithmen schaffen neue Angriffsflächen. Was passiert, wenn das Modell auf diskriminierenden historischen Daten trainiert wurde (Bias)? Was, wenn Angreifer das Modell durch minimale Änderungen an den Eingabedaten täuschen (Adversarial Attacks)? Was, wenn das Modell durch Änderungen im makroökonomischen Umfeld (z. B. Pandemie, Inflation) plötzlich falsche Prognosen liefert (Model Drift)? Genau hier setzt die BaFin mit ihrer Orientierungshilfe an. Sie betrachtet das KI-System nicht als magische Glaskugel, sondern als kritisches IKT-Asset, das gemanagt, gesichert und überwacht werden muss.
Die Orientierungshilfe beruht u. a. auf Gesprächen mit Finanzunternehmen und stellt keine verbindliche DORA-Auslegung der BaFin dar. Insgesamt verdeutlicht die Aufsicht, dass der Umgang von KI-Risiken unter Beobachtung steht. Finanzunternehmen, die von der Orientierungshilfe abweichen, setzen sich neben IKT-Risiken auch Compliance-Risiken aus. Im Folgenden analysieren wir das Dokument Kapitel für Kapitel, um die Tiefe der Anforderungen darzustellen.
Der Rechtscharakter
Die BaFin stellt klar: Es handelt sich um eine „nicht verpflichtende Hilfestellung“. In der Praxis der Finanzaufsicht bedeutet dies jedoch regelmäßig eine Beweislastumkehr. Wer die Orientierungshilfe ignoriert, muss im Prüfungsfall detailliert nachweisen, dass seine alternativen Maßnahmen ein mindestens gleichwertiges Schutzniveau bieten. Zielgruppe der Orientierungshilfe sind primär CRR-Institute (Kreditinstitute) und Solvency-II-Versicherer, die den vollen IKT-Risikomanagementrahmen nach Art. 5-15 DORA anwenden müssen.
Begriffsbestimmung eines KI-Systems
Die BaFin erfindet das Rad nicht neu, sondern verweist auf die Definitionen der EU-KI-Verordnung (AI Act). Entscheidend für die IT-Aufsicht ist jedoch die Einordnung als „maschinengestütztes System“. Diese Definition verankert KI fest im Begriff der „Netzwerk- und Informationssysteme“ nach DORA. Damit gelten alle allgemeinen DORA-Anforderungen automatisch auch für KI-Systeme – ergänzt um KI-spezifische Risiken, wie etwa der Stochastik.
Governance und Strategie
Unterstützten KI-Anwendungen kritische oder wichtige Funktionen, sollte laut der Orientierungshilfe eine KI-Strategie formuliert werden. Diese kann eigenständig sein oder in die IT-/DORA-Strategie integriert werden. Die Strategie muss klären, warum KI eingesetzt wird (Effizienz, Risikominimierung), welche Risiken akzeptabel sind (Risikoappetit) und wie die Ressourcenplanung aussieht. Eine Strategie, die KI-Innovation fordert, aber keine Budgets für Cloud-Infrastruktur oder spezialisiertes Personal bereitstellt, ist inkonsistent.
Die BaFin betont die Letztverantwortung der Geschäftsleitung (Art. 5 Abs. 2 DORA). Vorstände können sich nicht auf Unwissenheit berufen. DORA fordert explizit, dass Mitglieder des Leitungsorgans ausreichende IKT-Kenntnisse erwerben. Im KI-Kontext bedeutet das: Ein Bankvorstand muss zwar keinen Code schreiben können, er muss aber verstehen, was „Model Drift“ ist, warum „Halluzinationen“ bei LLMs ein Risiko darstellen und wo die Grenzen der Automatisierung liegen.
Integration in den Risikomanagementrahmen
KI-Risiken dürfen nicht isoliert betrachtet werden, fordern die Finanzaufseher in der Orientierungshilfe. Finanzunternehmen müssen eine vollständige Inventur ihrer KI-Systeme durchführen. Dies schließt „Schatten-KI“ und KI-Komponenten in zugekaufter Standardsoftware (z. B. HR-Tools, Ticketing-Systeme) ein.
Ferner gibt die BaFin vor, dass Risikobehandlungsmaßnahmen spezifisch sein müssen, d.h. konkret ein Risiko adressieren. Wenn ein Risiko im Bereich „Adversarial Attack“ identifiziert wurde, muss die Maßnahme technischer Natur sein (z. B. Adversarial Training) und nicht nur organisatorisch.
Bereitstellung von KI: Entwickeln und Testen
Hier dringt die BaFin in die technische Umsetzung ein und überträgt Prinzipien der Software-Entwicklung auf die Disziplin der Datenwissenschaften.
Software-Entwicklung
Die BaFin betrachtet das Training eines Modells analog zur Kompilierung von Software.
Das Test-Paradigma
Das Testen von stochastischen Systemen (die auf Wahrscheinlichkeiten basieren) ist fundamental anders als das Testen deterministischer Software.
Betrieb und Stilllegung von KI
Ein KI-Modell ist kein „Fire and Forget“-System. Es altert ab dem Moment seiner Inbetriebnahme.
Monitoring und Drift
Die Realität ändert sich ständig, das trainierte Modell bleibt statisch. Diese Diskrepanz nennt man Model Drift.
Cloud-Spezifika und Exit-Strategien
Da moderne KI (insb. GenAI) skalierbare Rechenleistung benötigt, ist die Cloud oft alternativlos. Die BaFin warnt mit Bezug auf Vendor Lock-in vor der Abhängigkeit von proprietären KI-Diensten (z. B. Nutzung von AutoML-Features eines Hyperscalers).
Finanzunternehmen müssen Strategien entwickeln, wie sie den KI-Betrieb aufrechterhalten können, wenn der Cloud-Provider ausfällt oder den Vertrag kündigt. Dies beinhaltet die technische Möglichkeit, Daten und Modelle zu portieren. Bei proprietären Modellen (wie GPT-4) ist ein Modellexport grundsätzlich unmöglich. Hier müssen funktionale Alternativen (z. B. Fallback auf ein Open-Source-Modell) geplant werden. Darüber hinaus betont die BaFin, dass die Aufsichtsmitteilung zu Auslagerungen an Cloud-Anbieter zu beachten ist.
KI-Systeme sind attraktive Ziele für Cyberkriminelle, u. a. weil sie mit sensiblen und wertvollen Daten arbeiten und zudem in die Entscheidungsfindung einbezogen sind.
Spezifische Angriffsvektoren
Die BaFin fordert daher Schutzmaßnahmen gegen KI-spezifische Angriffe:
Datensicherheit
Hier treffen DORA und DSGVO aufeinander. Integrität und Vertraulichkeit der Datenflüsse sind zu gewährleisten. Daten müssen nicht nur „at rest“ und „in transit“ verschlüsselt sein. Die BaFin deutet auch den Schutz „in use“ an, was den Einsatz von Confidential Computing (Verschlüsselung im Arbeitsspeicher/Prozessor) nahelegt, insbesondere in Cloud-Umgebungen.
Der Beitrag hat deutlich gemacht: Der Einsatz von KI steht bei den beaufsichtigten Unternehmen bei der BaFin unter scharfer Beobachtung. Die Anforderungen sind komplex, technisch tiefgreifend und organisatorisch weitreichend. Ein Fehler in der Implementierung oder Dokumentation kann nicht nur regulatorische Sanktionen nach sich ziehen, sondern auch die operative Resilienz Ihres Unternehmens gefährden.
Wir sind ein interdisziplinäres Team aus mit den aufsichtlichen Vorgaben vertrauten Cyber- und IT-Kontroll-Experten. Wir prüfen, ob Ihr Umgang mit dem eingesetzten KI-System die Anforderungen aus der BaFin-Orientierungshilfe erfüllt. Hierüber berichten wir in einem verständlichen und umfassenden Bericht, der alle Aspekte aus der Orientierungshilfe entlang des KI-Lebenszyklus erläutert.
Die Prüfung wird gemäß IDW PS 860 („IT-Prüfung außerhalb der Abschlussprüfung“) durchgeführt. Dieser Standard des Instituts der Wirtschaftsprüfer in Deutschland e.V. (IDW) ist speziell dafür konzipiert, IT-gestützte Systeme, Prozesse oder Anwendungen losgelöst von der Jahresabschlussprüfung einer objektiven Beurteilung zu unterziehen. Er bietet den idealen methodischen Rahmen für KI-Audits, da er flexibel auf spezifische Kriterienkataloge (wie hier DORA und die BaFin Orientierungshilfe) anwendbar ist.
Selbstverständlich unterstützen wir unsere Mandanten gerne auch außerhalb einer formellen Prüfung nach IDW PS 860. Mögliche Ansätze reichen von kompakten Erst- und Reifegrad-Assessments über themenspezifische Reviews (z. B. Governance, Risikomanagement, Datenqualität, Modellsteuerung oder Kontrollkonzepte) bis hin zu fachlichen Würdigungen einzelner KI-Anwendungsfälle. Diese Formate eignen sich insbesondere zur internen Einordnung des aktuellen Umsetzungsstands, zur gezielten Vorbereitung auf aufsichtsrechtliche Prüfungen oder zur schrittweisen Weiterentwicklung Ihrer KI-Governance entlang des Lebenszyklus. Sprechen Sie uns hierzu gerne an.
Daniel Boms
Director
Certified Information Systems Auditor (CISA)
Dr. Christoph Wronka, LL.M. (London)
Director, Head of Anti-Financial Crime Audit & Advisory
Certified Anti-Money Laundering Specialist (CAMS), Certified Internal Auditor (CIA)
Kilian Trautmann
Manager
Certified Information Systems Auditor (CISA), Certified Information Security Manager (CISM)
Sprechen Sie mit uns – einfach unverbindlich
Jetzt Kontakt aufnehmen
Alle Beiträge anzeigen