Wie weit darf KI im Finanzsektor gehen?

Unerwünschte Nebenwirkungen

„Klingt doch gut. Was gibt es da zu bemängeln?“, könnte man fragen. – Nun, da wäre zum einen die rasende Geschwindigkeit dieser digitalen (R)evolution. Es ist offenkundig, dass KI-Technologien sich viel schneller weiterentwickeln, als es unsere rechtlichen Rahmenbedingungen, unsere Aufsichtsbehörden und unser allgemeines Verständnis dieser Technologien vermögen. Wir wissen auch, dass wir alle – ob Klempner, Finanzberater, Portfoliomanager oder Computerprogrammierer – Vorurteile haben. Manche sind uns bewusst, andere nicht. Als Gesellschaft haben wir noch keine Richtlinien und Pflichten festgelegt, die zuverlässig verhindern könnten, dass diese Vorurteile (Bias) in die Datensätze und Codes neuer Algorithmen einprogrammiert werden – meist ganz unabsichtlich. Einige entsprechende Beispiele sind bereits bekannt geworden: Microsofts Chatbot “Tay” begann nach nur einem Tag, antisemitische Hassreden von sich zu geben und musste abgeschaltet werden; ein Computerprogramm, das von US-Gerichten eingesetzt wird, um kriminelle „Rückfallrisiken“ einzuschätzen, stufte schwarze Beklagte doppelt so häufig als mögliche Wiederholungstäter ein wie weiße; und in einem Test waren drei verschiedene KI-Systeme von IBM, Microsoft und dem chinesischen Unternehmen Megvii zwar in der Lage, das Geschlecht einer Person anhand eines Fotos mit 99 Prozent Genauigkeit korrekt zu identifizieren – allerdings nur, wenn es sich dabei um einen weißen Mann handelte. In anderen Fällen, z.B. bei dunkelhäutigen Frauen, lag die Fehlerquote um ein Vielfaches höher.

Wenn solche Probleme fortbestehen, wie können wir dann sicher sein, dass Ethnie, Religion, Geschlecht und andere Faktoren keine negativen Auswirkungen darauf haben, wie eine Software Bonität, Versicherungsprämien o.ä. einer Einzelperson bewertet?

Aber einmal abgesehen von diesen unerwünschten und (hoffentlich!) unbeabsichtigten Nebenwirkungen: Woher können Kunden und Berater wissen, ob ein Finanzprodukt, das ihnen von einem Algorithmus empfohlen wird, wirklich richtig für sie und nicht vorrangig im Interesse des Anbieters ist?

Natürlich kann man dagegenhalten, dass all diese Punkte auch auf menschliche Berater zutreffen können. Und doch bringt KI eine ganz neue Größenordnung mit sich. Ein fehlerhaftes Programm könnte möglicherweise Hunderttausende von Sparern und Investoren falsch informieren. Hinzu kommt die weit verbreitete Vorstellung, dass Algorithmen neutraler, objektiver und fairer seien als Menschen – ein Missverständnis, das Verbrauchern leicht ein falsches Sicherheitsgefühl vermitteln kann.

Welche Anforderungen an KI bestehen, lesen Sie auf Seite 3