Fachkräftesuche durch künstliche Intelligenz? – Die arbeitsrechtlichen Herausforderungen bei dem Einsatz von KI im Recruiting


„Alles in allem ist es entscheidend, dass sich sowohl Arbeitnehmer und Arbeitnehmerinnen als auch Unternehmen auf die kontinuierliche Weiterentwicklung und Anpassung an die sich verändernden Bedürfnisse und Anforderungen der Arbeitswelt vorbereiten, um erfolgreich in der Arbeitswelt von morgen zu agieren.“ – so das Fazit der KI – ChatGPT – selbst auf die Frage, wie die Arbeitswelt von morgen aussehen wird.

Unumgänglich wird der Einsatz von KI für Arbeitgeber:innen sein, beginnend bei der Suche und Einstellung der passenden Mitarbeiter:innen. Denn bereits jetzt gilt im Recruiting: First come, best serve.

Die Arbeitskräftenachfrage ist laut Stellenindex der Bundesagentur für Arbeit (BA-X) im April 2023 weiterhin hoch. So sind im April 2023 in Deutschland 773.000 Arbeitsstellen zur Vermittlung bei der Bundesagentur für Arbeit gemeldet.

Laut einer McKinsey Studie aus dem Jahr 2020 war „Geschwindigkeit“ der primäre Treiber von post-Covid19-Veränderungen in der Arbeitswelt. Während in der Pandemie neben der Technologie Branchen wie das Gesundheitswesen, der Einzelhandel sowie die Pharma- und Energieindustrie den „speed“-track vorangetrieben haben, wird es in der Arbeitswelt von morgen die künstliche Intelligenz sein. Denn was vor geraumer Zeit noch als „nerdy“ galt, ist spätestens seit diesem Jahr in aller Munde. ChatGPT und „OpenAI“ sind der Megaboom.

Laut einer Umfrage des Bundesverbands der Personalmanager prüften bereits im Jahr 2020 41 % der befragten Personaler:innen den Einsatz von KI in ihrer Personalarbeit. Rund 16 % der Befragten gaben an, KI-basierte Technologien bereits konkret in ihrer Personalarbeit einzusetzen.

 

Wie wird künstliche Intelligenz bereits heute im Recruiting eingesetzt?

KI-Technologien haben bereits Einzug in die unterschiedlichen Phasen des Recruitings gefunden: Ob bei der Stellenbeschreibung und -ausschreibung, der tatsächlichen Suche und dem „Screening“ von Bewerbenden als auch in der Durchführung des Bewerbungsgesprächs und letztlich der Auswahl und Einstellung des passenden „Fits“.

So auch Georg Pepping, Geschäftsführer Human Resources bei der T-Systems International GmbH in einem Interview vom 25. April 2023: „Large-Language-Modelle wie ChatGPT und andere KI-Chatbots werden viele HR-Services ersetzen.

Dass es sich bei KI-gesteuerten Tools im Recruiting keineswegs um leise Zukunftsmusik handelt, zeigt die Plattform Moonhub, die laut eigenen Angaben den weltweit ersten End-to-End-KI-Recruiter baut. Sie verspricht als Personalinfrastruktur das Team schnell wachsender Unternehmen zu skalieren. Um es Unternehmen zu ermöglichen, Talente mit den richtigen Fähigkeiten zu finden, zu engagieren und sie letztendlich zu binden, arbeitet auch Moonhub im Hintergrund mit einem sog. Large Language Model wie ChatGPT.

KI-getriebenes Recruiting findet längst nicht mehr nur in der Tech-Blase des Silicon Valleys statt. Auch das Berliner Start-up EMPiON verspricht, „im modernen Recruitingprozess den Fachkräftemangel [zu] besiegen“. Hinter der „EMPiON-Methode“ steht ein sog. Robo-Advisor, welcher anhand künstlich generierter Fragen ein individuelles Profil des bzw. der Bewerbenden erstellt und mithilfe eines Algorithmus Unternehmen und Bewerbende als passendes „Fit“ – schneller als über den Einstieg der klassischen Jobportale – zusammenbringen will.

Firmen wie IKEA und Pepsi nutzten bereits vor einigen Jahren „Robot Vera“, einen KI-gesteuerten Recruiting-Roboter, welcher laut dem Mitgründer Alexei Kostarev bereits 2018 etwa 50.000 Bewerbungsgespräche an einem Tag durchgeführt haben soll.

Risiko einer sog. „diskriminierenden“ Intelligenz – was ist darunter zu verstehen?

Doch der Grad zwischen künstlicher und „diskriminierender“ Intelligenz ist schmal. Der Einsatz von KI, nicht nur im Recruiting, sondern im gesamten betrieblichen Alltag, birgt aus arbeitsrechtlicher Sicht einige Risiken, die es zu beachten, insbesondere zu lokalisieren und vorzubeugen gilt. Das Antidiskriminierungsgesetz (AGG) bildet insoweit die Grenze im Prozess des maschinellen Entscheidens.

Im Konkreten birgt der Einsatz von KI im Recruiting das Risiko algorithmischer Voreingenommenheit und Diskriminierung. Die künstliche Intelligenz lernt maschinell und ist von unzähligen Daten getrieben. Der Output der KI – im Recruiting also die Einstellung des passenden „Fits“ – hängt davon ab, mit welcher Datenqualität die KI gefüttert wird. Algorithmische Verzerrungen können aus der Verwendung nicht repräsentativer Daten (z. B. eines nicht ausreichend vielfältigen und repräsentativen Datensatzes) zum Trainieren von KI-Systemen resultieren. „Schlechte“ bzw. „falsche“ Daten können somit schnell zu einer Diskriminierung im Bewerbungsverfahren und damit zu potenziellen Schadensersatz- und Entschädigungsansprüchen gegen Arbeitgeber und Arbeitgeberinnen führen.

Das AGG unterscheidet in § 3 zwischen unmittelbarer (Abs. 1) und mittelbarer Diskriminierung (Abs. 2). Eine unmittelbare Diskriminierung liegt vor, wenn eine Person wegen eines in § 1 AGG normierten Grundes im Verhältnis zu einer anderen Person in vergleichbarer Situation – durch aktives Tun oder durch Unterlassen – nachteilig behandelt wird.

Worin besteht die Gefahr einer mittelbaren Diskriminierung?

Besonders riskant ist die Gefahr einer mittelbare Diskriminierung nach § 3 Abs. 2 AGG, indem ein KI-basiertes Recruitingtool auf den ersten Blick an einen neutralen Datensatz anknüpft, welcher bei näherer Betrachtung ungleich häufiger auf Zugehörige einer bestimmten Personengruppe zugeschnitten ist. Bewerbende können so mittelbar klassifiziert und verbotenerweise nach § 1 AGG benachteiligt werden, sei es aufgrund ihrer Rasse oder ethnischen Herkunft, des Geschlechts, der Religion oder Weltanschauung, einer Behinderung, des Alters oder der sexuellen Identität.

Nachgewiesen werden können solche mittelbaren Diskriminierungen durch statistische Aufzeichnungen und sichtbare Korrelationen zwischen einem vermeintlich neutralen Kriterium und dem „diskriminierenden“ Output. Im Falle der Altersdiskriminierung bedarf es nach der Ansicht des BAG noch nicht einmal eines statistischen Nachweises dafür, dass ein bestimmtes Kriterium eine bestimmte Altersgruppe tatsächlich benachteiligt. Ausreichend ist, wenn das Kriterium hierfür typischerweise geeignet ist.

Dennoch wird es im Zweifel äußerst schwierig werden, bei dem Einsatz von KI rückblickend eine mittelbare Diskriminierung zu identifizieren. Denn allein ein diskriminierender Output, wonach Personen oder Personengruppen wegen eines in § 1 AGG genannten Grundes über- bzw. unterrepräsentiert oder vergleichsweise stärker belastet werden, ist nicht ausreichend, um auf eine mittelbare Benachteiligung im Sinne des § 3 Abs. 2 AGG schließen zu können. Nachgewiesen werden muss indes, welches der auf den ersten Blick neutral scheinenden Kriterien von der künstlichen Intelligenz für den differenzierenden Output kausal verknüpft worden ist. Insoweit stellen viele KI-basierte Entscheidungen eine sog. „Blackbox“ dar, durch welche Arbeitgeber:innen möglicherweise wenig oder gar keinen Einblick in die Gründe für eine bestimmte Entscheidung haben und nicht in der Lage sind eine Aussage darüber zu treffen, welches angewandte Merkmal zu einer diskriminierenden Wirkung geführt hat.

Vor diesem Hintergrund wird der Ruf immer lauter nach einer „vertrauensvollen“ oder jedenfalls gesetzlich regulierten künstlichen Intelligenz.

Regulierung der künstlichen Intelligenz

Zur Vorbeugung genannter diskriminierender Risiken ist der europäische Gesetzgeber ins Handeln gekommen, einen umfassenden Rechtsrahmen zu schaffen, und hat einen Vorschlag für ein KI-Gesetz (AI-Act) im April 2021 veröffentlicht. Nachdem das Europäische Parlament am 14. Juni 2023 seine Verhandlungsposition zu dem Gesetz angenommen hat, kann nun mit den EU-Mitgliedsstaaten über die endgültige Fassung beraten werden.   Darüber hinaus soll ein Richtlinienentwurf über KI-Haftung (COM/2022/496) die nationalen Rahmenbedingungen der Mitgliedstaaten um Regelungen zur verschuldensabhängigen Haftung von Anbietern und Nutzern von KI-Systemen erweitern und erstmals die Haftungsregeln für künstliche Intelligenz in der EU harmonisieren (näher hierzu siehe Beitrag vom 18. April 2023)