KI im Asset Management: eine Herausforderung für die Compliance

10.10.2024

Foto: © Song_about_summer - stock.adobe.com

Künstliche Intelligenz (KI) ist momentan omnipräsent und prägt zunehmend auch das Asset Management. Asset Manager nutzen KI-Anwendungen auf verschiedenen Leistungsebenen. Vorteile liegen insbesondere bei der Steigerung von Effizienz und – damit verbunden – einer Senkung von Kosten.

Doch KI entspringen auch Risiken, die aufsichtsrechtlich erheblich sind. Das hat den Gesetzgeber und Aufsichtsbehörden dazu veranlasst, den Einsatz von KI-Anwendungen stärker unter die Lupe zu nehmen. Dieser Beitrag gibt Ihnen einen Überblick über einige wesentliche aufsichtsrechtliche Anforderungen beim Einsatz von KI im Asset Management bzw. in der Vermögensverwaltung.

„KI“ im aufsichtsrechtlichen Sinne

Spezifische KI-Anforderungen gelten nur dann, wenn die eingesetzte Software tatsächlich KI im aufsichtsrechtlichen Sinne ist. Ein Begriffsverständnis lässt sich der europäischen KI-Verordnung entnehmen.

Ein KI-System ist danach, vereinfacht gesagt, ein maschinengestütztes System, das für einen autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus einem bestimmten Dateninput einen Output generiert, wie Vorhersagen, Empfehlungen oder Entscheidungen, und einen Einfluss auf die Umgebung haben kann.

KI-Systeme sind von gewöhnlichen automatisierten Systemen zu unterscheiden. Die Unterscheidung ist jedoch nicht immer leicht. Entscheidet man sich in Zweifelsfällen gegen eine Einstufung als KI, sollte dies auf jeden Fall hinreichend begründet und dokumentiert werden, gegebenenfalls mit externer Unterstützung.

Anwendungsfelder von KI im Asset Management

Anwendungsfelder von KI im Asset Management sind vielseitig, beispielsweise:

- Investmententscheidungen: KI-Tools können große Mengen an Finanzdaten analysieren, um Marktbewegungen zu prognostizieren oder gar im Rahmen der Anlagestrategie Investmententscheidungen zu treffen. Bisher haben nach einer aktuellen Untersuchung der ESMA jedoch nur wenige Fondsgesellschaften einen vollständig KI-basierten Anlageprozess.

- Compliance: KI-Systeme können genutzt werden, um aufsichtsrechtliche Vorgaben zu analysieren oder interne Richtlinien oder Compliance-Berichte zu entwerfen.

- Risikomanagement: KI kann zur Bewertung des mit verschiedenen Anlageoptionen (Instrumente, Strategien usw.) verbundenen Risikos eingesetzt werden. Auch ist ein Einsatz zur Überwachung und Verwaltung des Gesamtrisikos des Portfolios möglich.

- Operative Effizienz: Mit KI können diverse operative Aufgaben automatisiert werden, z.B.  Dateneingaben, wodurch Mitarbeiterkapazitäten für komplexere Aufgaben frei werden.

- Kundenkommunikation: Beispielsweise kann der 1 st -Level-Kundensupport von KI-Chatbots übernommen werden, um einfache Kundenanfragen bzw. Anliegen von Anlegern effizient zu bearbeiten.

Risiken von KI

KI rückt in den Fokus von Gesetzgebung und Aufsicht, weil mit KI auch Risiken im Zusammenhang stehen, die sich negativ auf die Solidität des Asset Managers oder Kundeninteressen auswirken können, beispielsweise:

- Übermäßiges Vertrauen: Es besteht die Gefahr, dass der Asset Manager bei der  Entscheidungsfindung die Bedeutung des menschlichen Urteils vernachlässigt und sich zu stark auf die KI verlässt. Das kann insb. bei komplexen Marktsituationen riskant sein.

- Mangelnde Nachvollziehbarkeit: Mitarbeiter können gegebenenfalls die  Entscheidungsfindung der KI nicht hinreichend nachvollziehen, wenn die verwendeten Modelle unklar sind („Black Boxes“). Das kann auch die Kontrollfunktion der Geschäftsleitung beeinträchtigen.

- Datenschutz: Die Erhebung, Speicherung und Verarbeitung großer Datenmengen, kann insb.  bei Verarbeitung personenbezogener Daten datenschutzrechtliche Belange berühren.

Finanzaufsichtsrechtliche Pflichten betreffend KI

Derzeit enthalten weder die OGAW-RL, die AIFMD oder die MiFID noch deren deutsche Umsetzung spezifische Regelungen zum Einsatz von KI bei der Portfolioverwaltung. Pflichten betreffend KI leiten sich daher aus den allgemeinen aufsichtsrechtlichen Grundsätzen ab.

Ein das Finanzaufsichtsrecht allgemein tragender Grundsatz ist die Nicht-Delegierbarkeit der aufsichtsrechtlichen Verantwortung. Das gilt auch beim Einsatz von KI. Der Asset Manager wird sich etwa bei fehlerhaften Anlageentscheidungen außerhalb der Anlagestrategie nicht mit dem Argument freizeichnen können, dass die KI die Anlageentscheidung getroffen hat.

Die Regelungen im Hinblick auf den Einsatz von algorithmischen Handelssystemen bzw.  Hochfrequenzhandelssystemen, die auch unter Einsatz von KI autonom „anpassungsfähig“ betrieben werden können, regulieren Risiken automatischer Systeme bereits sehr umfassend. Spezifische KIRisiken erfasst dieser Regelungskomplex jedoch nicht.

Stellungnahme der ESMA

Eine hervorgehobene Bedeutung nimmt derzeit eine Stellungnahme der ESMA aus dem Mai dieses Jahres ein, die sich explizit mit Organisations- und Verhaltenspflichten im Zusammenhang mit KI auseinandersetzt. Diese Stellungnahme hat zwar keinen Gesetzescharakter und ist daher nicht verbindlich. Eine faktische Bindungswirkung besteht dennoch.

Explizit bezieht sich die ESMA lediglich auf MiFID-Pflichten, spricht also in erster Linie Finanzportfolioverwalter i.S.d. MiFID bzw. des WpIG an. Im Kern lassen sich die Aussagen jedoch auch auf Kapitalverwaltungsgesellschaften übertragen.

Zunächst verlangt die ESMA von den Geschäftsleitern ein angemessenes Verständnis über die Funktionsweise der eingesetzten KI, welches auf dem aktuellen Stand zu halten ist. Auch hat die Geschäftsleitung eine hinreichende Fachkenntnis der mit der Betreuung der KI betrauten Mitarbeiter sicherzustellen, ggf. durch interne oder externe Schulungen.

Zudem ist der Einsatz der KI in die vorhandene Organisationsstruktur einzubetten, um eine wirksame Überwachung zu gewährleisten. Insbesondere sind klare interne Verantwortlichkeiten und Berichtswege zu definieren. Zudem muss sich der Einsatz von KI an der Gesamtstrategie, der Risikotoleranz und dem Compliance-Rahmen ausrichten.

Von besonderer Bedeutung für die ESMA ist die Einbettung der KI-Risiken in den vorhandenen Risikomanagementrahmen. Dazu zählen insb. regelmäßige Tests der KI-Systeme und Modelle und deren Überwachung, um potenzielle Risiken zu erkennen und zu behandeln.

Gerade bei automatisierten Investmententscheidungen durch KI ergeben sich spezielle Risiken für Anleger. Die Aufsicht erwartet hier ein besonderes Augenmerk auf die Qualität der Daten, die der KIEntscheidung zugrunde liegen. Solche Daten sollen quantitativ ausreichend und qualitativ repräsentativ sein. Datengrundlagen sind regelmäßig zu prüfen, um die Integrität der Entscheidungen sicherzustellen.

Ferner erwartet die ESMA eine sachgerechte Darstellung von Art und Umfang der eingesetzten KI gegenüber den Anlegern. Selbstredend ist, dass auch potenzielle Anlegerrisiken darzustellen sind, insbesondere beim Einsatz für Investmententscheidungen. Diese Darstellungen erfolgen im Falle eines MiFID-Portfolioverwalters im Rahmen der vorvertraglichen Informationsdokumente und im Falle der Kapitalverwaltungsgesellschaft im Rahmen des Prospekts.

Pflichten der europäischen KI-Verordnung

Die europäische KI-Verordnung ist im August dieses Jahres in Kraft getreten und wird überwiegend erst ab dem Jahr 2026 anzuwenden sein. Die Verordnung unterscheidet zwischen Hochrisiko-KISystemen und sonstigen KI-Systemen.

Der klare Regulierungsschwerpunkt liegt auf Hochrisiko-KI-Systemen. Von Asset Managern eingesetzte KI wird jedoch regelmäßig nicht dieser Kategorie unterfallen. Es verbleiben allgemeine KIbezogene Pflichten, sofern der Asset Manager als Anbieter oder Betreiber eines KI-Systems qualifiziert.

Fazit

Art und Umfang der aufsichtsrechtlichen Anforderungen an den Einsatz von KI können sich je nach Einsatzzweck erheblich unterscheiden. Eine pauschale Checkliste gibt es nicht. Eines steht jedoch fest: Die Aufsicht dürfte ihren Fokus auf KI-Systeme zukünftig noch verstärken. Asset Manager sollten sich rechtzeitig darauf einrichten und über eine saubere KI-Dokumentation verfügen.

Ein Gastbeitrag von RA Dr. Hendrik Müller-Lankow, LL.M. (UCL)
www.kronsteyn.law