KI und ihre ethischen Aspekte

29.11.2019

Markus Pichler, VP Global Partnerships and Alliances bei ABBYY / Foto: © ABBYY

Künstliche Intelligenz (KI) hat sich in den letzten Jahren zur zukunftsweisenden Technologie unserer Gesellschaft entwickelt. Obwohl viele Argumente für die Akzeptanz und Einführung von KI – sowohl für Unternehmen als auch für Verbraucher – sprechen, gibt es immer noch berechtigte Bedenken. Allgemein ausgedrückt: Algorithmen bilden menschliches Denken ab und stellen keine neutrale Software dar. Solch subjektives Anwenden von maschineller Software zeigt sich zum Beispiel bei der Auswahl von Hypotheken, wenn aufgrund von Algorithmen nur bestimmte Kundenkreise eine Hypothek von der Bank erhalten. Dahinter steckt folgendes Muster: Roboter erhalten Daten von Menschen – und diese spiegeln mitunter unsere menschlichen Vorurteile wider. Wenn Roboter diese imitieren, besteht die Gefahr, dass wir antisemitische Chatbots bis hin zu rassistisch voreingenommener Software kreieren. Daher ist es für die verantwortlichen Mitarbeiter in einem Unternehmen, sowohl für die CIOs als auch für die Anwender von Software in der Finanzdienstleistungsbranche, von größter Bedeutung, dass sie KI-Anwendungsfälle erkennen, die Probleme verursachen könnten, wo der digitale Mitarbeiter (Roboter) böse Absichten, Vorurteile und Unmoral imitiert.

Benachteiligung bei der Hypothekenvergabe

Ein modernes Beispiel für eine subjektive Auswahl durch Algorithmen ist die Hypothek. Mit dem Aufkommen von KI hat sich die Kreditdiskriminierung vom Menschen auf den Algorithmus verlagert. In der Praxis sieht das so aus, dass Wohngebiete anhand von bestimmten Merkmalen – zum Beispiel bezogen auf die Ethnie – separiert oder gar diskriminiert werden. Das hat zur Folge, dass bestimmte Dienstleistungen Bewohnern in Brennpunktvierteln entweder gar nicht oder nur in geringerer Qualität angeboten werden. Im Gegensatz dazu erhalten Bewohner in anderen Stadtvierteln oder wohlhabenden Gegenden Dienstleistungen zu einem verteuerten Preis. Überraschenderweise hat die Automatisierung der Hypothekenindustrie diese Vorgehensweise nicht aufgehoben, sondern einfacher gemacht, diese Praktiken hinter einer technologischen Benutzeroberfläche zu verstecken. Große Unternehmen gehen nicht immer mit guten Beispiel voran: Anfang dieses Jahres ereilte Facebook eine Klage wegen rassistischer Vorurteile in der Wohnungs- und Hypothekenwerbung.

Wie Künstliche Intelligenz auch unbeabsichtigt diskriminieren kann, lesen Sie auf Seite 2