KI im Recruiting

Chancen und Risiken von KI für die Personalsuche

Für Personalerinnen und Personaler ist künstliche Intelligenz (KI) ein zweischneidiges Schwert. Ersetzen Algorithmen künftig Erfahrung und Bauchgefühl bei der Selektion von Talenten? Und: Wie kann dabei verhindert werden, dass Bewerberinnen und Bewerber nicht selbst in die KI-Trickkiste greifen?

Im Zeitalter des Fachkräftemangels greifen Unternehmen immer häufiger auf die Hilfe von künstlicher Intelligenz (KI) zurück. Von deren Einsatz erhoffen sie sich eine gesteigerte Objektivität und Effizienz des Auswahlprozesses. Doch wer ist der bessere Recruiter? Mensch oder Maschine? Fest steht: Der alte Spruch «Zeit ist Geld» bleibt relevant. Im Kontext von KI ist Zeitersparnis ein wesentliches Anliegen für Unternehmen. Das Einladen von 1000 Kandidatinnen und Kandidaten zu einem Assessment ist weder praktikabel noch wirtschaftlich sinnvoll. Doch dank des Einsatzes von KI können grosse Mengen an Bewerbungen effizient auf eine überschaubare und handhabbare Anzahl reduziert werden.

Wurde diese Vorselektion früher noch durch Menschen erledigt, werden eingehende Bewerbungen in vielen Unternehmen automatisch nach passenden Stichworten durchforstet und darauf basierend Rückschlüsse auf die Qualifikation des jeweiligen Bewerbenden gezogen – innert Sekundenbruchteilen und voll automatisiert. Solche Systeme sind grundsätzlich nichts Neues. Es gibt viele unterschiedliche Dienste und Softwareanbieter, die anhand von Stichworten Rückschlüsse auf die Eignung von Bewerberinnen und Bewerbern möglich machen. CV Parsing heisst das Verfahren. Doch neu ist dieses nicht.

Wer sich in der Vergangenheit bei einem grösseren Unternehmen beworben hat, war sich bewusst, dass seine Bewerbungsunterlagen nicht nur von einem Menschen, sondern möglicherweise auch von einer Maschine geprüft werden. Meist waren es grössere Unternehmen, die solche Systeme im Einsatz hatten. Tauchten in der Bewerbungsmappe gewisse Schlüsselbegriffe oder Buzzwords auf, so wurden anhand derer die Kandidatinnen und Kandidaten vorselektiert. Soweit der bisherige Stand der Technik.

Digitales Wettrüsten auf beiden Seiten

Am 30. November 2022 wurde die erste öffentliche Version von ChatGPT vorgestellt. Spätestens seit diesem Datum ist KI in aller Munde. Doch ChatGPT ist mehr als nur ein smarter Chat-Roboter. Es ist ein neuronales, lernfähiges Netzwerk. Was sich wie Science-Fiction anhört, ist bereits heute mehr Science als Fiction. KI-Anwendungen verwenden Algorithmen, die der Funktionsweise des menschlichen Gehirns nachempfunden sind. Für ChatGPT heisst das, dass die Software nicht nur Wörter basierend auf einer erlernten Wahrscheinlichkeitsverteilung aneinanderreiht, sondern darauf trainiert werden kann, aus Daten zu lernen und Aufgaben zu erfüllen, ohne explizit dafür programmiert zu sein. In der Forschung werden solche Modelle als Large Language Models (LLM) bezeichnet. Sie sind ein Teilgebiet des Machine Learning (ML), einer Technologie, die es Computern ermöglicht, Muster in Daten zu erkennen und auf dieser Basis Entscheidungen zu treffen oder Vorhersagen zu machen.

Was als einfache Stichwortübereinstimmung begann, wird heute immer stärker, schneller und schlauer. Es ist absehbar, dass Unternehmen, die Bewerbungsmanagement-Software und E-Recruiting-Tools anbieten, in Zukunft vermehrt auf KI-Elemente zurückgreifen werden. Damit erhalten auch KMU erstmals Zugriff auf mächtige Werkzeuge zur automatisierten Einschätzung und Vorselektion von Bewerberinnen und Bewerbern.

Für manche HR-Professionals dürfte dies eine Horrorvision sein. Wurden Talente bisher mit

Erfahrung und Bauchgefühl gesichtet und selektiert, kann diesen Job nun ein Roboter übernehmen – schneller und effizienter, als es ein Mensch je könnte. Das Problem: Auch die Bewerberinnen und Bewerber sind sich dieses Umstands sehr wohl bewusst. Anschreiben und Lebensläufe werden heute oftmals nicht mehr selbst, sondern mithilfe von ChatGPT, Google Bard und Co erstellt. Auf diese Weise können KI-Bewerbungen entstehen, die fast zu gut sind, um wahr zu sein. Die Folge ist ein digitales Wettrüsten.

Der US-amerikanische Medienwissenschaftler Neil Postman warnte bereits 1985 in seinem Buch

«Amusing Ourselves to Death» davor, dass unsere Gesellschaft angesichts technologischer Veränderungen auf ein Zero-Trust-Zeitalter zusteuere, in dem vermeintliche Fakten auf den Prüfstand gestellt werden müssen: «Was Orwell fürchtete, waren diejenigen, die Bücher verbieten würden. Was Huxley befürchtete, war, dass es keinen Grund geben würde, ein Buch zu verbieten, denn es würde niemanden geben, der eines lesen wollte.» Fast vier Jahrzehnte später, im Zeitalter von KI, ist Postmans Warnung aktueller denn je. Welcher Bewerber ist authentisch? Welche Kandidatin hat möglicherweise bei ihrem CV nachgeholfen? Ist es tatsächlich ein real existierender Mensch, der sich auf die ausgeschriebene Position bewirbt? Auch die KI kann in diesem Wettrüsten nur bedingt weiterhelfen.

Informationspflicht bei einer automatisierten Einzelentscheidung

(Auszug aus Art. 21 DSG) Der Verantwortliche informiert die betroffene Person über eine Entscheidung, die ausschliesslich auf einer automatisierten Bearbeitung beruht und die für sie mit einer Rechtsfolge verbunden ist oder sie erheblich beeinträchtigt (automatisierte Einzelentscheidung). Er gibt der betroffenen Person auf Antrag die Möglichkeit, ihren Standpunkt darzulegen. Die betroffene Person kann verlangen, dass die automatisierte Einzelentscheidung von einer natürlichen Person überprüft wird.

Schlachtfeld der Buzzwords

Ein technologischer Teufelskreis ergibt sich, wenn Stellenausschreibungen per KI generiert werden und Bewerberinnen und Bewerber das Verfassen ihrer Bewerbungsunterlagen ebenfalls an die KI auslagern. Basierend auf der durch die KI generierten Stellenausschreibung werden somit ein Lebenslauf und ein Anschreiben generiert, die durch spezifische Buzzwords der Stellenausschreibung die Algorithmen der KI bedienen. Wir befinden uns dann in einem «Schlachtfeld der Buzzwords», denn die Bewerberinnen und Bewerber verfassen ihre Unterlagen nicht mehr für ein menschliches Gegenüber, sondern für Maschinen. Relevante Schlüsselwörter werden strategisch für «künstliche Personaler» platziert, um so die Chancen auf eine Einladung zu einem Bewerbungsgespräch zu steigern. Frei nach Postman: «Faking Ourselves to Death». Fest steht, dass das HR-Management – trotz der grossen Vorteile von KI – auch die wenigen, aber nicht vernachlässigbaren Nachteile dieser Technologie im Blick haben muss. Es ist vorstellbar, dass Abschlüsse von renommierten Bildungsinstitutionen in Zukunft mehr an Gewicht gewinnen werden – sie sind ein vertrauenserweckendes Qualitätsmerkmal in einem scheinbaren Zero-Trust-Zeitalter.

Unternehmen werden in Zukunft nicht nur von einem Effizienzgewinn durch KI profitieren.

Vielmehr werden sie auch mit allerlei rechtlichen Untiefen und Stolpersteinen konfrontiert sein. So ist es möglich und auch nicht unwahrscheinlich, dass ein KI-System gewisse Bewerberinnen und Bewerber anhand bestimmter Eigenschaften systematisch benachteiligt und automatisiert ausschliesst. Theoretisch achten Softwareanbieter bereits bei der Erstellung von Algorithmen darauf, dass keine diskriminierenden Muster entstehen können, doch ausgeschlossen ist dies nicht. HR-Professionals sollten sich dieser Problematik bewusst sein und regelmässige Testläufe mit dem eigenen System durchführen. Schliesslich sind auch datenschutzrechtliche Aspekte nicht zu vernachlässigen. So regelt das revidierte und seit dem 1. September 2023 in Kraft getretene neue Datenschutzgesetz (revDSG), insbesondere Art. 21 DSG, die Grenzen von automatisierten Auswertungen – und damit auch von der KI-gestützten Personalsuche.

Die Anwendung von KI im Personalmanagement hat das Potenzial, die Effizienz von Rekrutierungsprozessen zu revolutionieren. Jedoch hängt der erfolgreiche Einsatz von KI von der Qualität und Fairness der zugrunde liegenden analogen Prozesse ab. KI kann bestehende Voreingenommenheiten widerspiegeln oder gar verstärken, wenn sie auf verzerrten Daten basiert. Talentmanagerinnen und Talentmanager stehen somit vor der Herausforderung, Effektivität und ethische Standards in den Vordergrund zu stellen, wenn sie die Potenziale der KI nutzen.

Kommentieren 0 Kommentare HR Cosmos
Kathrin Neumüller
Kathrin Neumüller, Dr. oec. HSG, ist Expertin für Mitarbeiter-Empowerment und -inspiration sowie Purpose- und Projektmanagerin bei Value­Quest. Sie doziert an der ZHAW. Ihr Buch «Mitarbeitende inspirieren» erscheint am 18. März.
Weitere Artikel von Kathrin Neumüller
Thomas Bigliel
Thomas Bigliel ist Product Manager und Digitalisierungsexperte. Er gründete und leitete mehrere Start-ups, ist Träger des Grimme Online Award, Fachbuchautor und mit der Hochschule Luzern affiliiert.
Weitere Artikel von Thomas Bigliel

Das könnte Sie auch interessieren