Welchen Mehrwert schafft ChatGPT für das Personalwesen?
Das Potenzial von KI ist überwältigend. Wie nützlich die Resultate von Chat-Bots wie Bard und ChatGPT sind, hängt allerding von der Qualität der eingegebenen Aufforderungen («Prompts») ab. Ein Blick in die Anwendungsgebiete und Risiken von ChatGPT im Personalwesen.
Viel Potenzial, aber auch riskant: ChatGPT findet, unter Vorbehalt, auch im HR Anwendung. (Bild: iStock)
Wie der englische Name «Generative pre-trained transformer» bereits sagt, geht es bei ChatGPT um eine – lesbare und verständliche – Umwandlung von erzeugten Inhalte aus trainiertem Material. Chat-Bots spucken das aus, was in sie eingespiesen wurde. Sie basieren auf Material wie Konversationen und funktionieren auf Wahrscheinlichkeiten, die sie aus der Masse herauslesen können. Das erfolgt auf der Basis gigantischer Datenmengen, die teils auch extra produziert und eingelesen wurden von Freiwilligen. Die Verarbeitung eines solchen Konvolutes von Milliarden von Daten erfordert Zeit, Geld und Rechenleistung, was erklärt, weshalb Giganten wie Microsoft und Google dieses Spiel gestartet und gewonnen haben. Auch kleine, lokale Initiativen nutzen partiell den Datensatz von Google und Co.
Um herauszufinden, wie man ChatGPT im HR anwenden könnte, habe ich die KI gleich selbst nach Inspiration gefragt:
So könnte ChatGPT im HR zum Einsatz kommen:
■ Rekrutierung: Bewerbende analysieren, Lebensläufe überprüfen, Vorstellungsgespräche führen und Fragen von potenziellen Bewerbern beantworten.
■ Personalentwicklung: Schulungs- und Weiterbildungsmöglichkeiten, Karrierewege aufzeigen und Antwort auf Fragen zu beruflichen Entwicklungsmöglichkeiten geben
■ Lohn: Grundlegende Fragen zu Gehältern, Lohnabrechnungen und steuerlichen Angelegenheiten beantworten.
■ Talentmanagement: Antworten auf Fragen zu Bewertungskriterien, Feedback zu Leistungszielen geben und Leistungsberichte zusammenstellen
■ Administration: Informationen zu Verträgen, Unternehmensrichtlinien und dem Onboarding-Prozess bereitstellt. Bei Austrittsfragen kann ChatGPT Informationen zu Kündigungsverfahren, Arbeitszeugnissen und Abfindungen liefern.
Das klingt schon gut, doch muss man Vorsicht walten: ChatGPT ist ein automatisiertes und lernendes Frage-/Antwortspiel und kein Algorithmus Das bestätigt der Bot selbst. Ein Chat gibt jeweils Sie variierende Antworten und kann nur algorithmisch zu arbeiten beginnen, wenn ihr entsprechendes spezifisches Datenmaterial übergeben wird. Der Weg zur eigentlichen KI ist mit dem Einsatz eines Bots noch nicht vollständig, aber eben eine Wegmarke dahin.
Wann muss man bei der Anwendung von ChatGPT im Personalbereich aufpassen? Allgemein gibt es den Datenschutzbedenken, sagt ChatGPT von sich: es bestehe ein Risiko von Datenschutzverletzungen. Auch könne siemöglicherweise Emotionen von Menschen nicht vollständig erfassen, was beispielsweise bei Beurteilungsgesprächen von Nachteil sein könnte. Die grösste Gefahr? Aussagen könnten Vorurteile enthalten, die auf dem Datenmaterial beruhen, meint ChatGPT.
Und wie könnte die Zukunft im HR mit KI aussehen? ChatGPT hofft, dass sie in Zukunft bessere emotionale Intelligenz entwickeln kann und sich dann mit anderen Applikationen wie Worksflowsystemen, bestehenden Chatbots und Sprachverarbeitung verbinden kann. Geradezu politisch korrekt ergänzt die KI, dass sie zwar die Effizienz, das Mitarbeiterverhältnis und Prozesse verbessern helfen könne, dass aber abgegrenzt werden müsse, wo Maschine-Mensch-Interaktion nötig sein. Bei der Anwendung müsse man vorsichtig sein, testen und beobachten sowie sich auf die Anwendung schulen lassen..
Dies also verarbeitet die Maschine von bis und mit 2021 eingespiesenen Daten. Echtzeit-Abfragen gibt im im Moment noch nicht. Etwas aus dem Jahr 2022 taucht folglich nicht auf. Absehbar ist weiter die Kontextualisierung von Bildern;ene automatische Generierung von Bildern ist bereits möglich. Erwartbar sind Anwendungen wie eine breit verfügbare Sprach-App, die menschliche Emotionen erkennen kann.Der Bot ist also das vorgeschaltete System, das mit uns spricht, während im Hintergrund mehr oder weniger anspruchsvolle analytische Prozesse ablaufen.
Handlungsempfehlungen für die Nutzung von ChatGPT im HR
■ Wie die automatisierte Frage-Antwort-Maschine selbst schreibt, lauern Vorurteile. Das betrifft nicht nur die gendergerechte Sprache, sondern auch andere Aspekte der Inklusion, die zum Beispiel bei der automatisierten Auswertungen von Lebensläufen bzw. Bewerbungsschreiben eine Rolle spielen.
Empfehlung: Kontrolle der Bias-Freiheit
■ ChatGPT und auch der Google-Bot Bard gehören zu den grossen KI-Giganten. Eingegebene Fragen und Resultate landen in den USA. Nicht nur daraus ergeben sich Datenschutzfragen; allein schon, weil es sich im HR-Bereich um Personaldaten handelt, ist hier Vorsicht geboten. Inwiefern lokale Anbieter wie das Startup Open Assistent des Zürchers Yannic Kilcher dem entgegensteuern können, wird abzusehen sein, denn diese App nutzt teilweise auch die Power-Daten der grossen Firmen, die mit Ihrer finanziellen Investitionsmacht am meisten Daten einspeisen können. Dies Eingabe von Daten zwecks Training wird notabene von menschlichen Dateineinspeisern in globalem Zuschnitt geleistet
Empfehlung: Alternative Systeme auf dem Radar halten
■ Die Bots sind kostenlos, aber es gibt bereits Abo-Modelle, um die sich derzeit in Entwicklung befinden und zusätzliche Nutzungsmöglichkeiten in Aussicht zu stellen. Insbesondere wenn die historische Dateneingabe nicht mehr wie bisher im September 2021 endet, sondern Echt-Zeit-Abfragen möglich sind, werden sich mutmasslich Bezahlsysteme zu etablieren versuchen.
Empfehlung: Mögliche Kosten im Budget einplanen
■ Ein Bot ist kein Algorithmus und keine Suchmaschine. Intuitiv geraten die Nutzerin und der Nutzer in Versuchung, sich hier alles mögliche Wissen zu holen und übersehen dabei die Beschränktheit. Obschon Chat-Bots laufend lernen sind, nicht «Wahrheiten» zu erwarten, sondern hohe Eintretenswahrscheinlichkeiten aufgrund statistischer Auswertung von Wortmustern und gelegentlich auch «Halluzinationen». Auf der Suche nach Informationen bewähren sich reine Suchmaschinen nach wie vor.
Empfehlung: Verantwortungsbewusster Umgang und Beobachtung
■ Das Recht hinkt hinterher. Aus den generierten Resultaten ergeben sich nicht nur Probleme des Datenschutzes, sondern auch der Verantwortung oder gar des Besitzes. Wem gehören die von der KI erstellten Texte und Instrumente? Und vor allem: werden für Menschen relevante Beurteilungen oder Selektionen vorgenommen, wer trägt im Fall eines Haftungsanspruchs die Verantwortung? Vermutlich die Firma.
Empfehlung: Mit der Rechtsabteilung besprechen.
Mensch-Maschine-Interaktion
Wird KI viele Stellen überflüssig machen? Entgegen dieser Annahme ist zu erwarten, dass es für eine kreative Geschäftsmodellentwicklung und den kulturellen Zusammenhalt in einer Firma Menschen braucht, die
- die Qualität von Daten und deren mögliche Beschränkungen im Auge haben,
- die als «Erklärer und Erklärerinnen» den Nutzen, das Potenzialaufzeigen und
- als Facilitators Einsatzmöglichkeiten und Entscheidungen und den Nutzen beratend begleiten.
Welche Risiken bestehen beim Einsatz von ChatGPT im HR?
ChatGPT und Co. können aus der derzeitigen Situation überall dort eingeführt werden, wo es um die Sammlung und Aktualisierung von Wissen geht. Das betrifft zum Beispiel das Onboarding wie auch das völlig unterschätzte Offboarding von Mitarbeitenden.
Themenspezifisch vielversprechend und mit berechenbaren Risiken verbunden sind Anwendungen wie zum Beispiel:
Low-Risk-Anwendungsgebiete
■ Als Ressource, um komplexere Fragen und Antworten zu erhalten. Als Anregung, ein Thema gründlich auszuloten. Also zum Beispiel vor Entscheidungen zum Informationsabgleich; mit guten Fragen lassen sich auch Umfeldanalysen und Stakeholder-Listen vervollständigen. Beim Einarbeiten von Mitarbeitenden und als ein Tool nebst anderen für das Wissensmanagement. Die Arbeit muss aber erstmal getan werden: 1. via Aufladen von – unter Umständen extra vorab geführten – Wissenstransfer-Konversationen, 2. dem Einlesen von generellen Informationen zu einem Unternehmen bei Onboarding. Wissensmanagement kommt so in eine neue Dimension, indem es breit und selbstgesteuert den Einsatz einer KI-Technologie ermöglicht.
■ Auch Services wie interne Call-Centers können davon profitieren.
■ Jede Art von Wissensmanagement rund um Qualitätsmanagement kann von einer solchen ChatBot-Lösung profitieren. Beispielsweise kann das Befolgen oder Kreieren von Prozesse besser ausgestaltet werden, indem Lernmöglichkeiten implementiert werden uvm. Aber auch hier gilt: eine moderierende Begleitung gibt diesen Instrumenten erst den wirklichen Mehrwert; ergänzt um die Debatte, was wie gemessen wird.
■ Einfach zugängliche Schulungen können mit Bots in Selbstlern-Einheiten überführt werden. Das gesamte Talent Management kann teilweise automatisiert, modalisiert und personalisiert werden.
Alles, was direkt Personalfragen, also Menschen und ihre Leistung bzw. Daten angeht. Es geht um Datenschutz, aber auch Wertschätzung. Niemand möchte lieblos von einem «Bot» abgespiesen werden und – Hand aufs Herz – bisherige Bots stossen oft verblüffend schnell an ihre Grenzen.
Das wäre also möglich:
High-Risk-Anwendungsgebiete
Entlang des Personalprozesses und Personalentwicklung sind viele Bereiche potenziell betroffen:
■ Wo es um eine Zuordnung oder ein Sortieren von eigenen Daten geht, eignet sich ein Bot-System hervorragend: so im Bereich Wissensmanagement, Einarbeitung oder Wissensteilung. Insbesondere die Möglichkeit, niederschwellig selbst Schulungen anzubieten, die auf den eigenen Bedürfnissen beruhen, ist vielversprechend, vorausgesetzt zusätzliche spezifisch eigene Daten werden verwendet.
■ Diese und ähnliche Anwendungen benötigen aber marken- und brandspezifische Überwachung und Begleitung. Insbesondere benötigt es den «Human Touch». Gefahren wie Widerstand oder Sich-tot-stellen aus Angst bei Mitarbeitenden sind sehr plausibel. Ein guter Arbeitgeber muss hier Verantwortung zeigen und Ansprechbarkeit und menschliche Authentizität gewährleisten.
■ Da wir uns mit derartigen Techniken in einer exponentiellen Phase befinden ist eine laufende Reflexion notwendig. Es braucht rasch aufgebautes Wissen: wozu, was kann so ein System und wie geht man um.
Das grösste Risiko
Das grösste Risiko ist nichts tun. Wer sich jetzt nicht aktiv mit den Möglichkeiten auseinandersetzt, verliert eine wertvolle Gelegenheit, die eigenen Firma beiläufig zu analysieren auf die Frage hin: welches sind die wirklichen Probleme, die wir lösen wollen – tun wir dies mit unseren Mitarbeitenden auf die richtige Art? Lernen wir laufend dazu? Firmen haben auch die Aufgabe der Fürsorge und des Schaffens emotionaler Sicherheit. Jetzt proaktiv mit den Mitarbeitenden zusammen transparent Anwendungen zu erforschen, vertieft die Existenzberechtigung und die Problemlösungsfähigkeit einer gesamten Organisation.