Präzision trifft Prognosekraft: Wie die Schweiz Künstliche Intelligenz im Finanzsektor prüft. FINMA analysiert – und Dr. Thomas Schulte fragt: Reicht der regulatorische Rahmen noch aus, wenn Algorithmen über Milliarden entscheiden?
In der Schweiz geht man traditionell vorsichtig, bedacht – und dennoch zukunftsgewandt vor. Das zeigt sich auch im Umgang mit der vielleicht größten Umwälzung des Finanzsektors seit der Digitalisierung: der Einführung von Künstlicher Intelligenz. Was anderswo noch in Strategiepapieren schlummert, ist im Alpenland bereits Alltag: Laut einer aktuellen FINMA-Erhebung setzen 47 Prozent der befragten Finanzinstitute KI-Systeme bereits aktiv ein, weitere 25 Prozent stehen kurz vor der Umsetzung.
Doch was auf Effizienz und Automatisierung zielt, wirft tiefgreifende juristische Fragen auf: Wer haftet, wenn ein Algorithmus falsch entscheidet? Wie transparent sind die Entscheidungswege, wenn neuronale Netze statt Analysten handeln? Und wie lässt sich verhindern, dass Maschinen zu Black Boxes in einem hochregulierten Markt werden?
Dr. Thomas Schulte, Rechtsanwalt aus Berlin und erfahrener Spezialist im Bank- und Kapitalmarktrecht, wirft einen kritischen Blick auf die Schweizer Entwicklung – nicht um zu bremsen, sondern um zu schützen. Denn eins ist klar: Der Fortschritt braucht klare Regeln, wenn Vertrauen und Haftung nicht unter die Räder geraten sollen.
Transparenz trifft auf Technologie: Die Schweizer Regulierungspraxis
Die Schweizer Finanzaufsicht verfolgt einen bemerkenswert ausgewogenen Ansatz: Sie bekennt sich zur Technologieneutralität in ihrer Aufsichtspraxis. Das Motto „Same business, same risks, same rules“ ist richtungsweisend. Es bedeutet, dass nicht die Technologie im Mittelpunkt der Regulierung steht, sondern die Risiken, welche durch deren Anwendung entstehen. Diese Herangehensweise verdient Nachahmung.
Aus juristischer Perspektive zeigt sich hier ein modernes Verständnis von Regulatorik, das der Innovationskraft der Märkte gerecht wird. Die FINMA macht dabei deutlich, dass die Integration von KI keineswegs unreguliertes Terrain ist, sondern denselben Governance- und Risikomanagementregeln unterliegt wie traditionelle Finanztechnologien. In ihrer Aufsichtsmitteilung 08/2024 weist sie gezielt auf potenzielle Risiken hin, insbesondere im Kontext der Qualität und Sicherheit von Daten sowie der Nachvollziehbarkeit algorithmischer Entscheidungen.
Outsourcing als Risikofaktor – auch für deutsche Institute relevant
Ein zentrales Ergebnis der FINMA-Umfrage betrifft die wachsende Abhängigkeit von externen Dienstleistern. Gerade kleinere Institute setzen fast ausschließlich auf ausgelagerte KI-Anwendungen. Aus praktischer Sicht bedeutet dies: Die Auslagerung kritischer Funktionen an Technologieanbieter stellt ein erhöhtes operationelles Risiko dar. In Deutschland existiert hierzu eine umfangreiche regulatorische Landschaft, angeführt vom § 25b Kreditwesengesetz (KWG), der Anforderungen an das Outsourcing bei Banken normiert. Auch die Mindestanforderungen an das Risikomanagement (MaRisk) verankern klare Standards zur Steuerung ausgelagerter Funktionen.
Wenn ein Unternehmen wesentliche Teile seiner IT-Strategie – und dazu gehört der Einsatz von KI – an Dritte auslagert, muss sichergestellt sein, dass sowohl die Datenschutzgrundverordnung (DSGVO) als auch einschlägige bankaufsichtsrechtliche Vorgaben eingehalten werden. Insbesondere wird eine aufsichtskompatible Vertragsgestaltung erforderlich. Dies umfasst u.a. Kontroll- und Zugangsrechte für die Aufsichtsbehörden, etwa in Gestalt einer Regelung gemäß Art. 28 DSGVO über die Auftragsverarbeitung oder über sogenannte Subprozessoren.
Datenschutz und Datenqualität – rechtliche Stolpersteine der KI
Ein wiederkehrendes Thema innerhalb der Umfrage ist die Wichtigkeit eines sauberen Datenfundaments. Datenqualität und Datenschutz gehören laut FINMA zu den drei meistgenannten Risiken beim KI-Einsatz. Juristisch steht dabei das Spannungsverhältnis zwischen Datenschutzgrundsätzen und Technologieeinsatz im Vordergrund.
So verlangt die DSGVO in Art. 5 Abs. 1 lit. d) eine sachlich richtige und – wenn nötig – auf dem neuesten Stand befindliche Datenverarbeitung. Für KI-Systeme, die auf Trainingsdaten angewiesen sind, stellt dies eine erhebliche Herausforderung dar. Eine fehlerhafte oder verzerrte Datenbasis kann nicht nur zu falschen Ergebnissen führen, sondern auch Rechtsverstöße begründen.
Aus deutscher Sicht ist ebenfalls die erklärbare Entscheidungsfindung nach Art. 22 DSGVO von Bedeutung. Wenn voll automatisierte Prozesse, etwa bei der Kreditvergabe oder Bonitätsprüfung, zum Einsatz gelangen, müssen Betroffene über die Logik und Tragweite dieser Entscheidungen informiert werden. Dies verlangt eine gewisse Transparenz der Algorithmik – ein Aspekt, bei dem viele KI-Modelle noch Schwächen aufweisen.
Technologischer Fortschritt trifft juristische Realität
Die Ergebnisse der FINMA-Umfrage zeigen deutlich, dass der Finanzmarkt von einer zunehmenden Durchdringung mit KI geprägt ist. Während größere Institute zunehmend eigene Anwendungen entwickeln, greifen kleinere Akteure auf Standardlösungen großer Technologiekonzerne zurück. Dies verstärkt die Abhängigkeit von BigTech und den damit verbundenen regulatorischen Risiken.
„Es ist eine juristische Pflichtaufgabe, Innovation und Rechtsstaatlichkeit in Einklang zu bringen“, sagt Dr. Thomas Schulte, Experte für Kapitalmarktrecht aus Berlin. „Wer KI einsetzt, handelt nicht im rechtsfreien Raum – im Gegenteil: Die bestehenden Regelwerke zur IT-Sicherheit, zum Datenschutz und zur Finanzaufsicht sind vollumfänglich anwendbar.“
In Deutschland ist zudem das IT-Sicherheitsgesetz von Bedeutung. Es verpflichtet kritische Infrastrukturen zur Einhaltung höchster Standards im Bereich der digitalen Sicherheit. Finanzinstitute, die KI im Kernbereich ihrer Leistungserbringung einsetzen – etwa zur Risikoanalyse, im Zahlungsverkehr oder zur Steuerung von Portfolios – müssen diese Standards ebenfalls erfüllen.
Governance als Schlüsselfaktor für Rechtssicherheit
Etwa die Hälfte der befragten Institute hat den KI-Einsatz in eine explizite Strategie eingebunden. Dabei sind bestehende Governance-Frameworks wie Datenschutzrichtlinien, IT-Sicherheitsrichtlinien oder Enterprise Risk Management zentrale Steuerungselemente. Diese Entwicklung ist aus rechtsstaatlicher Sicht zu begrüßen, denn „Regelmäßigkeit und Transparenz sind die Gegenspieler von Willkür“, so Dr. Thomas Schulte.
Die Integration in bestehende Rahmenwerke erleichtert die Absicherung gegenüber Risiken wie Diskriminierung, fehlerhaften Entscheidungen oder regulatorischen Sanktionen. Die Institute, die noch keine derartige Gesamtstrategie verfolgen, laufen Gefahr, von der schnellen technischen Entwicklung überrollt zu werden – und dies nicht nur mit ökonomischen, sondern auch rechtlichen Konsequenzen.
Generative KI und die Zukunft der Compliance
Besonders brisant ist die Verbreitung generativer KI. Laut FINMA setzen 91 Prozent der KI-anwendenden Institute auch Tools wie ChatGPT oder andere Sprachmodelle ein. Juristisch gesehen handelt es sich bei der Nutzung solcher Anwendungen häufig um eine „Black Box“, da die Entscheidungsprozesse innerhalb der Systeme teilweise intransparent sind.
Hier muss künftig mit regulatorischer Schärfung gerechnet werden. Die Europäische Union hat mit dem AI Act einen Vorschlag zur rechtlichen Regulierung von KI auf den Weg gebracht. Dieser Gesetzesentwurf sieht u.a. vor, dass Hochrisiko-KI-Systeme einer Zulassungspflicht und besonderen Prüfmechanismen unterliegen. Für den Finanzsektor, der gerade im Bereich der Bonitätsprüfung oder des Algorithmic Trading entsprechende Tools einsetzt, wird diese Regelung von erheblicher Relevanz sein.
Empfehlung: Frühzeitiger Dialog mit den Aufsichtsbehörden
Die FINMA empfiehlt den befragten Instituten, bei der Verwendung von KI in kritischen Prozessen oder bei der Berechnung regulatorischer Kennziffern frühzeitig das Gespräch mit der Behörde zu suchen. Auch für deutsche Institute ist diese Herangehensweise beispielgebend: Denn eine eigenständige Auslegung der gesetzlichen Rahmenbedingungen im Vertrauen auf technologischen Fortschritt wird zunehmend riskant.
Dr. Thomas Schulte appelliert daher an Finanzinstitute in ganz Europa: „Suchen Sie frühzeitig die rechtliche Einordnung Ihrer Digitalisierungsvorhaben. Nur wer rechtlich vorbereitet ist, kann Innovation zu einem tatsächlichen Asset machen.“
Fazit: KI im Finanzsektor – Regulierung als Wettbewerbsvorteil
Künstliche Intelligenz wird den Finanzsektor auch in Deutschland nachhaltig verändern. Wer die Chancen erkennt, darf die Risiken nicht ignorieren. Die aktuelle Umfrage der FINMA liefert nicht nur einen Statusbericht aus der Schweiz, sondern ein präzises Lagebild für ganz Europa. Investitionen in eine solide Governance- und Risikostruktur, die auch juristisch fundiert ist, zahlen sich am Ende doppelt aus.
Für deutsche Finanzinstitute lautet die Quintessenz: Eine innovationsfreudige und gleichzeitig rechtskonforme KI-Strategie ist kein Widerspruch, sondern eine Notwendigkeit. Und gerade im Zeitalter wachsender Digitalisierung wird Compliance zum entscheidenden Wettbewerbsfaktor.