KI und ihre ethischen Aspekte

29.11.2019

Markus Pichler, VP Global Partnerships and Alliances bei ABBYY / Foto: © ABBYY

Diskriminierung im Bewerbungsprozess

Mitarbeiter haben mitunter die falsche Vorstellung, dass Algorithmen nur vereinzelt und in ausgewählten Bereichen eines Unternehmens eingesetzt werden. Der Einsatz von Bots und Co. trifft jedoch jeden Einzelnen und beginnt bereits, bevor ein potentieller Kandidat bei einem Unternehmen seinen Job antritt. Der Öffentlichkeit wurde die selektive Auswahl durch Algorithmen bei der Rekrutierung und Einstellung von Mitarbeitern bekannt, als Medien über den Ausschluss von Frauen durch die neue Rekrutierungs-Engine von Amazon berichteten. Im Jahr 2014 stellte Amazon ein Team zusammen, das mehr als 500 Algorithmen einsetzte, um den Prozess zur Überprüfung von Lebensläufen für Ingenieure und Programmierer zu automatisieren. Dabei verwendete das System die Lebensläufe der Amazon-Mitarbeiter als Modell – welche überwiegend männlich waren. Folglich lernte das System, potenzielle Bewerber auszusortieren, die eine Frauenuniversität besucht oder Frauenorganisationen im Lebenslauf aufgeführt hatten. Bereits seit 2016 werden 72 Prozent der Lebensläufe von Bewerbern nicht mehr von Menschen, sondern ausschließlich von Computern überprüft. Für Bewerber und Mitarbeiter bedeutet dies, dass sie bei der Stellensuche inzwischen seltener mit Menschen zu tun haben – und Fälle wie die von Amazon häufiger auftreten können. Insbesondere für Branchen, deren Mitarbeiter überwiegende homogene Gruppen abbilden, wie es auch in der Finanzdienstleistungsbranche der Fall ist, besteht die Herausforderung, die im Unternehmen vorhandene Daten so zu verwenden, dass Algorithmen keine einseitige Auswahl vornehmen.

Die gute Nachricht ist, dass einige Unternehmen sich bemühen, diskriminierende Vorfälle zu vermeiden. Analyseplattformen zeigen beispielsweise auf, wie die Verwendung von Indikatoren vermieden werden kann und welche Merkmale zur Benachteiligung aufgrund von Geschlecht, Alter oder Rasse führen könnten. Zudem setzt das Karriere-Netzwerk LinkedIn Systeme ein, um Geschlechterinformationen in LinkedIn-Profilen nicht zu ignorieren, sondern zu sammeln und zu nutzen. Diese Informationen dienen dazu, eine mögliche Benachteiligung oder Bevorzugung zu klassifizieren und zu korrigieren. Auch die Google-Suche ist nicht dagegen gefeit: In der Vergangenheit hatte sich Google AdWords des Sexismus schuldig gemacht, als Forscher herausfanden, dass männlichen Arbeitssuchenden eher Anzeigen für hochbezahlte Führungspositionen angezeigt wurden als Frauen. Unternehmen, die sich des Problems bewusst sind, dass Algorithmen nicht zwingend neutrale Auswahlen vornehmen, sondern mitunter menschliche Vorurteile und Stereotypen abbilden, können frühzeitig gegensteuern.

Wie Unternemen auf die Herausforderung der Diskriminierungsmöglichkeit durch KI reagieren sollten, lesen Sie auf Seite 3