KI im Personalwesen: Sind wir tatsächlich schon so weit?

Ach war das schön… Und auch irgendwie ein bisschen traurig. Dienstag und Mittwoch fand es nun nach langem Hin- und Her doch statt: Das HR Barcamp.

Eigentlich sollte es das 2020er Barcamp sein, das aus bekannten Gründen letztes Jahr ausfiel, mehrfach und mit Hoffnung auf eine spätere Durchführbarkeit verschoben wurde, um dann jetzt doch als Onlineevent über Hopin stattzufinden.

Nun, Christoph und Jannis haben das dem Umständen entsprechend wirklich super hinbekommen, die inhaltliche Qualität der Sessions war erstaunlich gut und ein ganz klein wenig Barcamp-Feeling kam am Dienstagabend auch auf, als Nina, Jan Kirchner und ich irgendwann feststellten, die letzten Partygäste (in wonder.me) zu sein.

Aber frei nach Franz Müntefering:

“Online ist Mist!”

Darum freue ich mich wie Bolle darauf, wenn wir uns alle mal wieder “in echt” sehen können und dann hoffentlich an das “Online-HR Barcamp” als eine einmalige Ausnahme zurückdenken…

Ein Schwerpunktthema: KI im Personalwesen – und was sagt die Ethik?

Eines der Themenfelder, um die sich gleich mehrere Sessions drehte, war  – kaum überraschend – der Einsatz von Künstlicher Intelligenz im Personalwesen. Sowohl die Session der werten Gattin zum Thema Datenschutz drehte sich sehr stark um dieses Themenfeld als auch – logisch – die Session von Stellenanzeigen.de, bei der sie ihre neue – stark auf Machine Learning aufbauenden Job-Plattform “It-Jobs.de” vorstellten.

Und so schloss sich dann meine Session zu der ethischen Bewertung von KI im Personalwesen da irgendwie nahtlos an.

Beitrag in der Zeitschrift für das Recht der digitalen Wirtschaft: KI im Personalwesen – Sind wir tatsächlich schon so weit?

In diesem Zusammenhang passte es dann sehr gut, dass Nina und ich uns verschiedene Fragen im Zusammenhang mit dem Stand des Einsatzes von KI im Personalwesen vor kurzem mal etwas intensiver vorgeknöpft haben. So entstanden zwei Beiträge für die unter anderem von Nina herausgegebenen Zeitschrift für das Recht der digitalen Wirtschaft.

Das Gespräch / Interview, das Nina und ich dazu geführt haben, habe ich nachfolgend noch einmal zusammengefasst. In diesem Fall hatte Nina die Rolle des Fragenstellers und ich die des Antwortenden, nur damit Ihr es einsortieren könnt.

Wer danach noch nicht genug von uns beiden hat oder wer lieber hört statt liest, dem sei auch der kürzlich erschienene Podcast ans Herz gelegt. Auch da geht es unter anderem um KI…

>>

Nina: Beginnen wir mit den Begrifflichkeiten. Gibt es »künstliche Intelligenz« tatsächlich schon? Oder sind damit bislang doch »nur« außerordentlich gute Algorithmen und Machine Learning gemeint?

Jo: Wenn über den Einsatz von »algorithmischen Entscheidungssystemen« – um den Begriff »künstliche Intelligenz« zunächst bewusst zu vermeiden – in der Personalgewinnung gesprochen wird, dann meist im Kontext des Recruitings bzw. der Personalauswahl durch Unternehmen.

Mit dem Schlagwort des »Robo-Recruitings« wird dabei die Assoziation hervorgerufen, eine Maschine prüfe umfassend die Eignung von Kandidaten und nehme unmittelbar Einstellungszusagen bzw. -absagen vor. Tatsächlich ist die Bedeutung von Algorithmen im Rahmen der einer Bewerbung vorgelagerte Prozesse noch wesentlich größer. Ebenso wie bei Facebook oder Google entscheiden in Stellenbörsen oder auf Karriere-Netzwerken inzwischen Algorithmen in erheblichem Maße darüber mit, welche Inhalte bzw. Stellenangebote den Nutzer:innen angezeigt werden. Das Stichwort lautet hier Programmatic Advertising. Von dem Einsatz von Algorithmen zur Bewertung von Menschen im Rahmen des Einstellungsprozesses geht jedoch eine gewisse dystopische Faszination aus. Vermutlich stehen sie deswegen mehr im Fokus der Diskussion.

Doch gleich welcher Anwendungsfall – am Ende ist alles reine Mathematik. Merkmale werden miteinander verglichen und auf Muster untersucht. Das führt zu dem Begriff der »künstlichen Intelligenz«. Man könnte argumentieren, dass es so etwas gar nicht gibt und auch nicht geben kann, weil Intelligenz nicht künstlich ist. Aber das ist aus meiner Sicht ein wenig zu »akademisch«. Denn der Begriff ist in der Welt, er wird nicht aufgegeben werden und deswegen sollten wir auch mit diesem arbeiten. Es ist nur wichtig zu verstehen, dass sich unter dem Schlagwort mittlerweile sehr vieles sammelt:

Es beginnt bei Algorithmen, die automatisiert gewisse Bewertungen vornehmen, dabei aber letztlich fix definiert sind. So könnte ein solcher Algorithmus bspw. automatisiert entscheiden, dass alle Bewerber mit einer Fünf in Mathematik eine Absage erhalten. Das kann bei Berücksichtigung mehrerer Merkmale und dynamischer Bedingungen zwar weit komplexer werden, folgt aber immer einer definierten und jederzeit nachvollziehbaren Logik. Insofern reden wir hier bestenfalls über eine »schwache KI«.

Am anderen Ende des Spektrums stehen Algorithmen, die sich selbsttätig verändern. Auch hier steht am Anfang eine Wenn- Dann-Beziehung, aber das Ergebnis der auf Basis dieser Wenn- Dann-Beziehung vorgenommenen Bewertung fließt wiederum als neuer Datenpunkt in den Algorithmus ein und führt zu einer neuen Wenn-Dann-Berechnung. Man könnte es auch ein permanentes Trial-and-Error des Algorithmus nennen. Das ist der Bereich, der als Machine-Learning bezeichnet wird. Hier ist mit heutiger Rechnerleistung bereits Erstaunliches möglich. Dabei besteht die Gefahr, dass Algorithmen selbsttätig in die falsche Richtung laufen. Gemeint ist das Folgende: Hat die Maschine eine Bewertung aufgrund eines sinnvollen und auch »vertretbaren « Zusammenhangs vorgenommen oder auf Basis von Scheinkorrelationen? Ist der Zusammenhang zwar mathematisch »richtig«, aber ethisch und/oder juristisch ungewollt oder sogar unzulässig? Je komplexer die Mathematik, je autonomer lernend das System, desto weniger bestehen Nachvollziehbarkeit und damit Interventionsmöglichkeiten.

Hinzu tritt ein weiteres Problem: Lernende Algorithmen müssen trainiert werden. Hierfür werden sehr viele Daten benötigt. In der Theorie gibt es bei der Personalgewinnung unendlich viele Datenpunkte. In der Praxis sprechen wir aber bei den meisten Unternehmen noch über »Small Data«. Es gibt oft kaum verwertbare Informationen darüber, wer als »erfolgreicher Mitarbeiter« zu definieren oder nach welchen Kriterien das Attribut »erfolgreich« überhaupt zu bestimmen ist. Oder die benötigten Daten liegen nur analog vor, so dass sie für eine maschinelle Verarbeitung schon rein technisch unbrauchbar sind. In all diesen Fällen verhält sich ein lernender Algorithmus wie ein Schwimmer, der in einem Becken ohne Wasser trainieren soll.

Und selbst wenn Daten in hinreichender Quantität und Qualität vorliegen, so handelt sich dabei notwendig um vergangenheitsbezogene Daten. Damit daraus eine verlässliche Projektion für die Zukunft abgleitet werden kann, müssten die vergangenheitsbezogenen Daten typisch für die Gegenwart und Zukunft sein. Würde man heute einen Algorithmus im Recruiting einsetzen, der mit Daten aus den Jahren vor Corona trainiert wurde, dann dürfte jedem Laien einleuchten, dass in diesen Daten wahrscheinlich keine Effekte eines »pandemiebedingten exogenen Schocks« enthalten sein können. Um in dem Bild vom Schwimmer zu bleiben: Dieser hat fleißig im Schwimmbecken bei 20 Grad Wassertemperatur trainiert und soll nun bei 2 Grad und 10 Windstärken auf offener See ein Rennen schwimmen.

Nina: Wie verbreitet sind denn algorithmische Entscheidungssysteme bei der Mitarbeiterauswahl inzwischen?

Jo: Nach einer Umfrage, die im Frühjahr 2019 vom Bundesverband der Personalmanager und vom Ethikbeirat HR Tech veröffentlicht wurde und an der sich über 1.000 Personalentscheider:innen beteiligten, waren es zu dem Zeitpunkt bereits über 11 % der Unternehmen, die ihre Mitarbeiterauswahl durch künstliche Intelligenz unterstützen ließen. Heute würde diese Zahl sicherlich noch deutlich höher ausfallen, allein da die Corona-Pandemie noch einmal einen beträchtlichen Digitalisierungsschub ausgelöst hat. Aber auch hier gilt: Was die 11 % wohl tatsächlich gemeint haben, als sie von »künstlicher Intelligenz« berichteten, steht auf einem anderen Blatt. Vermutlich wurden hier Sortierungsfunktionen des Bewerbermanagementsystems, semantische Suchen, Online-Assessments, Syntaxanalysen à la Lebenslauf-Parsing und ähnliches bereits als »KI« mit eingerechnet. Das alles sind sehr sinnvolle Instrumente, auf eine gewisse Weise sicher auch »intelligent«. Aber um »KI« handelt es sich allenfalls im Sinne automatisierter Bewertungen, aber ganz sicher nicht im Sinne der oben beschriebenen autonom lernenden Entscheidungssysteme.

Nina: Gibt es für die Leser:innen einige plastische Beispiele für KI-Anwendungen?

Jo: Es gibt einige griffige Beispiele, die die oben beschriebenen Probleme recht gut illustrieren. Amazon setzte etwa einen Algorithmus ein, der auf Basis von Performance-Daten Muster besonders erfolgreicher Mitarbeiter identifizierte und dann auf dieser Basis Beurteilungen von Bewerbern und Bewerberinnen vornahm. In der Vergangenheit waren es allerdings insbesondere weiße Männer mittleren Alters, die im Unternehmen als leistungsstark eingestuft wurden. Infolgedessen bewertete der Algorithmus alles, was diesem »Typus« entsprach, positiv. Ergo wurden Frauen oder Menschen mit nicht-weißer Hautfarbe automatisch abgewertet. Nicht nur das ethische Problem ist offensichtlich. Ebenso wenig überzeugt das Argument, der Algorithmus analysiere unvoreingenommen Merkmale, agiere nur entsprechend und deswegen sei es nur »richtig«, eben diese weißen Männer mittleren Alters einzustellen. Es bleibt nämlich das Problem der oben genannten vergangenheitsbezogenen Trainingsdaten des Algorithmus. Denn wurden in der Vergangenheit vorwiegend mittelalte, weiße Männer eingestellt, dann ist eben nicht ausgeschlossen, dass sie nur deshalb »erfolgreicher« als andere gewesen sein konnten, weil sie den überwiegenden Teil der Belegschaft stellten. Ganz konkret: Wenn der Algorithmus die Performance anhand der Anzahl verpackter Pakete pro Stunde misst und die Mitarbeiter nach diesem Kriterium reiht, ist die Wahrscheinlichkeit, dass der beste Mitarbeiter in dieser Reihe eine junge, schwarze Frau ist, schon deshalb niedrig, weil es in der Belegschaft nur wenige junge, schwarze Frauen gibt. Letztlich zementiert der Algorithmus einen Fehler der Vergangenheit – mangelnde Diversität – automatisiert für die Zukunft. Amazon ist es nicht gelungen, dem Algorithmus dieses unerwünschte Verhalten abzugewöhnen. Diese Tatsache spricht für sich.

Ein anderes viel diskutiertes Thema ist die automatisierte Auswertung von Sprache, Mimik und Gestik zur Analyse von Persönlichkeitsmerkmalen. Abgesehen davon, dass Persönlichkeit selber nur einen vergleichsweise kleinen Aufklärungsbeitrag zur Vorhersage von Berufserfolg liefert, ist es so, dass äußere Merkmale wie Sprache oder Mimik keinen validen Rückschluss darauf zulassen, welchen Charakter ein Mensch hat. Richtig ist zwar, dass Maschinen relativ gut den Gemütszustand einer Person erkennen können, also ob jemand traurig, nervös oder wütend ist. Dabei handelt es sich jedoch um reine Momentaufnahmen. In der Psychologie spricht man von »State«-Merkmalen. Charakter- oder Persönlichkeit ist demgegenüber nicht flüchtig, sondern stabil. Solche »Trait«-Merkmale stehen dem Mensch jedoch nicht qua Mimik ins Gesicht geschrieben. Lässt man als Unternehmen dennoch derartige »Analysen« im Rahmen der Eignungsdiagnostik zu, ist das nicht nur methodisch und ökonomisch äußerst zweifelhaft, sondern auch ethisch und juristisch.

Anhand dieser Beispiele wird deutlich, dass das Argument der »Vorurteilsfreiheit« von Algorithmen einer genaueren Betrachtung nicht standhält. Entweder es handelt sich um Algorithmen, die Menschen definiert haben und daher natürlich auch deren »Biases« beinhalten können. Oder es handelt sich um lernende Algorithmen, bei denen die Maschine per Trial and Error zu Schlussfolgerungen kommt, die stark von der Qualität wie Quantität der Trainingsdaten abhängen und somit ebenfalls die entsprechenden »Biases« fortschreiben können. Insofern sind Maschinen zwar vielleicht per Definition »objektiv«, aber natürlich nicht davor gefeit, »biased« zu sein. Von daher kann und sollte die Zukunft auf jeden Fall ein sinnvolles Miteinander von Mensch und Maschine sein. Dem Menschen kommt hierbei unter anderem die Rolle des Aufsehers zu, der die Bewertungen und Entscheidungen des Algorithmus immer auch einer Plausibilitätskontrolle unterzieht und jederzeit eingreifen und overrulen kann bzw. wenn nötig auch den Kill-Switch betätigt.

Nina: Aus diesen Ausführungen nehme ich zwei Sachen mit. Zum einen ist nicht alles Gold was glänzt. Und zum anderen besteht die Gefahr, dass ein »Algorithmus Bias« entsteht. Daher die Frage: Spricht der Bias grundsätzlich gegen den Einsatz von Analytic Tools im Personalwesen?

Jo: Nein, wir sollten auf keinen Fall den Fehler machen, den ewigen »Tech-Skeptikern«, und davon gibt es speziell im Personalwesen etliche, eine Ausrede zu liefern, sich nicht mit algorithmischen Entscheidungssysteme zu befassen. Ich bin mir mehr als sicher, dass diese Systeme künftig in immer stärkerem Maß schon »per Default« in HR-Plattformen und –Systemen implementiert werden. Dafür werden schon die betriebswirtschaftlichen Argumente sorgen. Ein Algorithmus hat keinen Urlaub, steht 24/7 zur Verfügung und verrichtet seine Aufgaben ermüdungsfrei und ohne Formschwankungen. Das Personalwesen muss dies anerkennen und die Chancen wie Risiken (er-)kennen. Vor allem, wenn das Personalwesen selbst Einfluss auf die Prozesse und die Gestaltung der Systeme nehmen will. Ein »guter« Algorithmus, also einer der belegte und belegbare Resultate erzeugt, der nachvollziehbar, transparent und jederzeit auch von außen durch den Menschen beherrschbar ist, kann zu neuen Erkenntnissen und zu einer besseren Personalarbeit führen: »besser« im Sinne von »passendere Mitarbeiter auf passenderen Jobs in passenderen Unternehmen«.

So können Algorithmen auch dazu führen, dass wieder mehr Menschlichkeit in die Personalprozesse einzieht. Dies dann, wenn die Maschine verstärkt bei Routinetätigkeiten, z.B. im Rahmen der Personalvorauswahl, für Entlastung sorgt und die freiwerdenden zeitlichen Ressourcen dann für eine intensivere »menschliche« Beschäftigung mit den Kandidaten und Kandidatinnen genutzt werden.

Nina: Und nun wirklich die letzte Frage: Welche Grundvoraussetzungen sollte denn ein Analytics Tool erfüllen, bevor es von Unternehmen eingesetzt werden sollte? Gibt es hier schon Validierungen oder Normen?

Jo: Es gibt verschiedene Stellen, die sich der Formulierung von Regeln und Anforderungen an algorithmischen Entscheidungssysteme widmen. Zu nennen sind etwa Algo.Rules, ABIDA oder ExamAI. Speziell auf den Kontext HR bezogen gibt es Richtlinien, die der Ethikbeirat HR-Tech formuliert hat. Dies ist wichtig, richtig und zwingend notwendig. Schließlich hat auch die EU-Kommission Anwendungen im Personalmanagement ausnahmslos als »Anwendungen mit hohem Risiko« eingestuft.

Auch die Bundesregierung musste sich im Rahmen einer Anfrage der Bundestagsfraktion von DIE LINKE bereits mit KI im Personalwesen befassen.

Die Regeln des Ethikbeirats HR Tech nennen folgende Anforderungen:

  • Transparenz der Zielsetzung,
  • empirische Evaluierung,
  • Entscheidungsprimat des Menschen,
  • Sachkenntnis der die Algorithmen einsetzenden Personen,
  • Haftung und Verantwortung,
  • Zweckbindung/Datenminimierung,
  • Informationspflicht,
  • Datenqualität und Vermeidung von Diskriminierung,
  • stetige Überprüfung und
  • die sog. »Subjektqualität«.

Diese Punkte sind alle wichtig, aber besonders ragen die Subjektqualität und die empirische Evidenz heraus. Ersteres beinhaltet die Forderung, dass für die Nutzung in KI-Lösungen keine Daten erhoben und verwendet werden, welche der willentlichen Steuerung der Betroffenen grundsätzlich entzogen sind. Letzteres bedeutet, dass ein Algorithmus nachvollziehbare und nachweisbare Zusammenhänge verwenden muss. Die aus der empirischen Sozialforschung bekannten Gütekriterien wie Objektivität, Reliabilität und Validität gelten für algorithmische Entscheidungssysteme selbstverständlich gleichermaßen. Und natürlich reicht es hierbei auch nicht aus Korrelationen zu finden, darin sind Maschinen und Big Data großartig, sondern es bedarf belastbarer Kausalitäten.

<<

Wenn Ihr auch den Beitrag von Nina in der ZdiW über People Analytics als Werkzeug im Personalwesen (natürlich auch und vor allem aus rechtlicher Perspektive) lesen wollt, dann bestellt euch doch hier die entsprechende Ausgabe der Zeitschrift. Man bekommt sogar zwei Ausgaben gratis…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert