Donnerstag, 9. April 2020

Algorithmen und HR - Gedanken und Hinweise zum Thema von Larissa Fuchs und Philipp Seegers

Gerade jetzt ist Zeit für Überlegungen, was HR bewegt und in Zukunft bewegen wird. Bei der unüberschaubaren Menge an digitalen Hilfsmitteln der modernen Personalarbeit bis hin zu aktuellen KI-Anwendungen stellen sich m.E. oft die Fragen, wie hier durch die Personaler vor Ort eine Einschätzung oder auch eine Bewertung der Qualität der genutzten Systeme und der Entscheidungsvorschläge vorgenommen werden kann. Zum Themenbereich KI und Personal gibt es mittlerweile auch den sogenannten Ethikbeirat HR Tech, der sich mittels Leitlinien zum Thema positioniert hat. Beachtenswert auch die Publikation "Der maschinelle Weg zum passenden Personal" (Knobloch/Husted, 2019). Mir geht es in diesem Post um einen Teilbereich dieser Themenstellung, der hier mit „Algorithmen und HR“ umschrieben werden soll. Dazu hat sich Herr Dr. Seegers – ein oft und gern „gelesener“ Interviewgast in meinem Blog – im Rahmen des Online-Summits von CASE am 31. März 2020 geäußert. Hier hat er zusammen mit Larissa Fuchs von der Universität zu Köln das Projekt FAIR (Fair Artificial Intelligence Recruiting) vorgestellt und einige hilfreiche Ausführungen zum Umgang mit Algorithmen bei der Personalauswahl gemacht, um hier diskriminierungsfreie Entscheidungen zu erreichen. Ich empfehle allen, sich das Video mit dem Input von Herrn Dr. Seegers und Larissa Fuchs anzusehen (Link). Zu ihrem Beitrag habe ich einige Fragen, die ich heute an die beiden richten kann.

Wald: Lieber Herr Dr. Seegers, wieder einmal habe ich Sie für ein Gespräch gewinnen können, diesmal zusammen mit Larissa Fuchs von der Universität zu Köln. Liebe Frau Fuchs, auch Ihnen herzlichen Dank bereits vorab dafür.
Fuchs: Lieber Herr Prof. Wald, es freut mich Sie kennenzulernen.
Seegers: Immer wieder sehr gerne.

Wald: Ihrem Beitrag beim genannten Online-Event haben Sie einige interessante Zitate vorangestellt, die ich hier gern wiedergeben und ergänzen möchte: „81 Prozent der Recruiter halten KI für zukunftsweisend, haben selbst jedoch mehrheitlich (57 Prozent) kein oder nur geringes Wissen darüber“ (Hennemann/Schlegel/Hülskötter, 2018). „Lediglich ein Viertel der Personaler gibt an, über ausreichend Wissen zu den Einsatzmöglichkeiten und Funktionsweisen von KI und Algorithmen zu verfügen“ (Jäger/Meurer, 2018). Hinzu kommen aktuelle Zahlen aus einer der bekannten Monster/HRIS-Studien (Weitzel et al. 2020). Hier ist erkennbar, dass bereits 9,4 % der befragten Unternehmen digitale Auswahlsysteme nutzen und 62,9 % der Unternehmen davon ausgehen, dass diese Systeme eine diskriminierungsärmere Bewerbervorauswahl fördern.
Seegers: Natürlich sollte HR auf der einen Seite mehr von der Technik verstehen, auf der anderen Seite muss aber auch die Technik besser werden. Bei CASE geben wir uns große Mühe, dass wir unsere Algorithmen transparent erklären und sauber validieren. Dazu gehört natürlich nicht nur zu überprüfen, ob die Produktivität von Einstellungen steigt, sondern auch, ob diese fair und diskriminierungsfrei zustande gekommen sind. Ich bin davon überzeugt, dass Algorithmen grundsätzlich die Qualität von Einstellungsentscheidungen verbessern können und gleichzeitig Diskriminierung abbauen können. Dabei kommt es aber natürlich auf den Algorithmus an. Genau wie bei der Eignungsdiagnostik manche Verfahren berechtigterweise einen schlechten Ruf haben, gibt es auch Algorithmen, die einfach nicht funktionieren und nicht eingesetzt werden sollten. Und um hier unterscheiden zu können braucht HR natürlich ein gewisses Verständnis davon, was die Algorithmen eigentlich genau machen und wie man sie überprüfen kann.

Wald: Für mich drängt sich hier die Frage auf, wie künftig Wissen zur Funktionsweise dieser Systeme vermittelt werden kann. Und weiter gefragt: Wie können Personaler in die Lage versetzt werden, Einschätzungen zur Qualität der durch diese Systeme generierten Entscheidungsvorschläge zu treffen? Gibt es hier so etwas wie Augenscheinvalidität oder bestimmte Regeln, die Personaler berücksichtigen sollten?
Fuchs: Ich glaube wir müssen hier zwischen zwei Dingen unterscheiden: (1) Trifft der Algorithmus effiziente Entscheidungen, also werden produktivere Kandidierende ausgewählt und (2) trifft der Algorithmus sozial vertretbare Entscheidungen, wird also fair und diskriminierungsfrei selektiert. Unternehmen sollen natürlich marktwirtschaftlich gute Entscheidungen treffen, aber der Ausschluss bestimmter Personengruppen wirkt sich negativ auf die Produktivität aus – auch wenn man das nicht immer so leicht messen kann. Die Beförderungspraxis in Deutschland zum Beispiel suggeriert fälschlicherweise oft, dass Männer produktiver wären als Frauen. Genau aus diesem Grund brauchen wir für die verschiedenen Konzepte eigene Metriken. Diese sind aber für Algorithmen gar nicht unbedingt anders als für klassische Auswahlverfahren. Man sollte sich angucken, welche Auswahlverfahren die spätere Produktivität gut voraussagen können (prädiktive Validität), ob diese Auswahlverfahren geschlechts- oder herkunftsneutral sind und ob mögliche Abweichungen hiervon zu Lasten bestimmter Gruppen gehen. Mit unserem FAIR Index haben wir hier eine einfache Metrik geschaffen.

Wald: Was sollte in Zukunft getan werden, um hier für mehr Verständnis bzw. mittelfristig für einen gezielten Ausbau der entsprechenden Kompetenzen der Personaler zu sorgen?
Seegers: Ich würde hier auch die Anbieter in die Pflicht nehmen, ihre Algorithmen zu erklären. HR sollte offen für diese Technik und für solche Gespräche sein – der Aufbau der Kompetenzen ergibt sich dann mit der Zeit von selbst. Darüber hinaus kann der beste Experte einen Algorithmus nicht ohne Datengrundlage überprüfen. Deswegen gilt, HR sollte bereit sein, verantwortungsvoll Daten zu sammeln und zu analysieren. Datengetriebene HR-Arbeit findet viel zu selten statt, obwohl dies auch im Interesse von HR wäre, um den Mehrwert der eigenen Arbeit zu unterstreichen.
Fuchs: Unternehmensdaten sind natürlich auch für die Forschung interessant und wir, als Wissenschaftlerinnen, helfen im Gegenzug auch gerne bei dem richtigen Aufbau von Stichproben und der Analyse. Gute Daten zur Produktivität von Mitarbeitern sind in der Forschung rar, obwohl hier riesige Potenziale stecken. Natürlich muss man sich dann auch über Dinge wie Datenschutz und Publikationsrecht unterhalten, aber das sind absolut lösbare Fragestellungen, die viel zu häufig die Rolle eines „Todschlagargumentes“ einnehmen.

Wald: Mit Ihrem Projekt FAIR setzen Sie ja genau an diesen Punkten an. Können Sie die Zielstellung und die gewählte Vorgehensweise dieses Projektes etwas näher erläutern?
Fuchs: Das FAIR Projekt hat das Ziel, faire und diskriminierungsfreie Algorithmen zu entwickeln, mit deren Hilfe Lebenslaufinformationen wie Bildung oder Arbeitserfahrung bewertet werden können. Zu diesem Zweck arbeitet unser Lehrstuhl von Professorin Pia Pinger an der Universität zu Köln mit CASE zusammen. Darüber hinaus beteiligen sich die Deutsche Telekom, Simon-Kucher & Partners, Studitemps und Viega als assoziierte Partner an dem Projekt. Gefördert wird das Vorhaben durch das Land NRW und die Europäische Union. Durchführungszeitraum ist Januar 2020 bis Dezember 2021.
Seegers: Es handelt sich bei FAIR um ein praktisch angelegtes Projekt. Es soll nicht theoretisch ergründet werden, was mögliche Probleme und Vorteile von Algorithmen sind, sondern es sollen Kontextdaten gesammelt und Algorithmen entwickelt werden. Bei den vielen Beiträgen und Leitlinien zu Algorithmen kommt meiner Meinung nach die praktische Anwendung und die konkrete, gerne kritische, Auseinandersetzung zu kurz. Das ist nicht so öffentlichkeitswirksam und deutlich zeitaufwendiger, aber durch die großzügige Förderung haben wir aber jetzt die Möglichkeit zu entwickeln, zu evaluieren und zu optimieren. Anschließend verstehen wir besser was funktioniert und was nicht und leisten somit einen konkreten Beitrag.

Larissa Fuchs und Dr. Philipp Seegers
Wald: Dies klingt sehr interessant. Ich wünsche Ihnen viele Erfolge bei diesem und den anderen Projekten von CASE!
Fuchs: Vielen Dank für das Gespräch. Sollten einige Ihrer Leser Fragen haben oder gerne bestimmte Verfahren wie den FAIR Index ausprobieren wollen, freuen wir uns natürlich über eine Kontaktaufnahme.
Seegers: Vielen Dank, lieber Herr Prof. Wald.

CASE ist eine Ausgründung der Universität Bonn, welche sich mit der Vergleichbarkeit von Bildungsabschlüssen auf Basis großer Datensätze und wissenschaftliche Methoden befasst. Die Entwicklung des CASE Algorithmus wurde durch das Bundeswirtschaftsministerium gefördert und durch die Europäische Union prämiert. Im Rahmen von Studien konnte gezeigt werden, dass der CASE Score im Gegensatz zu absoluten Noten die im Studium erbrachte Leistung messen kann und hierdurch valide Vorhersagen zu der zukünftigen Arbeitsleistung treffen kann. Mehr Informationen unter www.candidate-select.de

Keine Kommentare:

Kommentar veröffentlichen