Talente finden mit Künstlicher Intelligenz
Diskriminierende Algorithmen
Der Fall Amazon zeigt ein generelles Problem mit KI-basierten Entscheidungen, das im HR-Umfeld allerdings eine besondere Brisanz entwickelt: Algorithmen mögen unvoreingenommen sein, mit den falschen Daten oder von den falschen Leuten trainiert, sind die Resultate jedoch alles andere als vorurteilsfrei. «Der Einsatz von KI im Recruiting kann systematisch ganze Gruppen von Menschen an den Rand drängen», warnt Charna Parkey von Textio. Solche Diskriminierungen sind beileibe kein Einzelfall. Das Marktforschungsunternehmen Gartner sagt voraus, dass bis 2022 rund 85 Prozent der KI-Projekte fehlerhafte Ergebnisse liefern werden, weil Daten verzerrt sind oder Algorithmen von voreingenommenen Entwicklern programmiert und trainiert werden.
Im Personalwesen ist dies besonders problematisch, denn die zur Verfügung stehenden Trainingsdaten sind sehr häufig verzerrt. In technischen Berufen und im IT-Sektor ist der Anteil von Männern typischerweise sehr hoch, ebenso in Führungspositionen. Ein mit diesen Informationen gefütterter Algorithmus lernt - sofern man nicht aktiv gegensteuert, dass das Geschlecht ein wichtiges Kriterium für Jobeignung oder Führungsqualitäten ist. Er wird Frauen daher systematisch benachteiligen.
“Letztlich wird jeder HR-Management-Bereich entlang des sogenannten Employee Life Cycles betroffen sein.„
Frank Kohl-Boas, Head of Legal & People Operations bei der ZEIT-Verlagsgruppe und Mitglied des Ethikbeirats HR-Tech
Ähnliche Verteilungsphänomene können zur Diskriminierung von ethnischen oder religiösen Minderheiten führen. Je kleiner die zum Training verwendete Stichprobe und je grösser die Zahl der erfassten Merkmale, desto höher ist ausserdem die Wahrscheinlichkeit, dass Parameter zufällig als relevant identifiziert und Kandidaten nach unsinnigen Kriterien wie Schuhgrösse oder Haarfarbe klassifiziert werden. «KI-Nutzer müssen sich immer bewusst sein, dass KI-Systeme nur Statistik können, es dabei fast immer Verzerrungen gibt und eine Korrelation auch nicht unbedingt eine Kausalität bedeutet», warnt Professor Thorsten Petry.
Personalmanagern und Lösungsanbietern ist diese Problematik durchaus bewusst. Mit dem Ethikbeirat HR-Tech will die Branche Orientierung für die verantwortungsvolle Verwendung von neuen Technologien geben, aber natürlich auch für deren Einsatz werben. «Es geht nicht darum, als Bedenkenträger technologischen Fortschritt auszubremsen, sondern um den Versuch, juristische, ethische und praktische Überlegungen anzustellen, um darauf aufbauend vor der Nutzung von KI in der Personalarbeit Leitplanken zu geben», fasst Beiratsmitglied Kohl-Boas die Zielsetzung des Ethikrats zusammen.
Das Gremium, zu dem Herstellervertreter, Personaler, Wissenschaftler, Gewerkschaftsfunktionäre und Journalisten gehören, hat einen Richtlinienkatalog für den Einsatz von KI im HR-Umfeld erarbeitet. Die finale Version lag zu Redaktionsschluss noch nicht vor, die wiedergegebenen Informationen im Kasten auf Seite 65 basieren auf der Konsultationsfassung vom 24. Juni vergangenen Jahres. «KI verletzt nicht zwangsläufig Persönlichkeitsrechte, aber die Gefahr des Missbrauchs, ob nun beabsichtigt oder nicht, ist potenziell gegeben», ergänzt Leon Jacob, Senior Manager bei der hkp/// group und Assoziiertes Mitglied des Ethikbeirats HR-Tech. «Deswegen ist eine Definition von entsprechenden Rahmenbedingungen so wichtig.»
Precire JobFit verstösst beispielsweise mindestens gegen eine dieser Richtlinien: die Subjektqualität. Die Lösung beurteilt Menschen anhand von Parametern, die nicht bewusst beeinflussbar sind. Die Beurteilten geben unter Umständen also unwillkürlich Dinge über sich preis, die sie willentlich nie äussern würden.