Die Verwendung von ChatGPT im Employer Branding und Recruiting scheint praktisch. Unbewusst bzw. unkontrolliert schleichen sich jedoch eine Reihe von Problemen ein. Allen voran: nicht-inklusive Sprache und Voreingenommenheiten. Einblicke von Nadia Fischer, Witty Works AG.
Produktivitäts-Booster für Employer Branding und Rekrutierung
In den letzten Monaten ist ChatGPT in aller Munde. Wir alle staunen, was diese Technologie kann. Auch für Personal-Verantwortliche und Recruiter:innen bietet ChatGPT große Chancen. Employer Branding Websites, Stellenausschreibungen oder Active Sourcing Nachrichten können mit ChatGPT schneller geschrieben werden.
Mit guten Vorgaben werden es abwechslungsreichere sowie zielgruppengerechtere Texte. ChatGPT hilft außerdem Deutschsprachigen, wenn diese Texte in Englisch verfassen. Es scheint daher erst einmal empfehlenswert ChatGPT im Employer Branding und in der Rekrutierung einzusetzen.
Jedoch birgt die Verwendung von ChatGPT im Personalbereich auch Gefahren. Deren vorgeschlagene Texte können nämlich die Talentsuche erschweren. Dies ist zurückzuführen auf die Art und Weise wie solche „Generativen Sprachmodelle“ (Generative Language Models oder Large Language Models, kurz: LLM) entwickelt werden.
Wie wird ein „Large Language Model“ (LLM) entwickelt?
LLM wie ChatGPT haben ein enormes Potential zu verändern, wie wir in Human Resources arbeiten und schreiben. Solche Sprachmodelle werden die Art und Weise, wie wir mit unseren potenziellen und bestehenden Talenten kommunizieren, stark beeinflussen.
ChatGPT ist ein Produkt von OpenAI. „GPT“ steht für „Generative Pre-trained Transformer“.
- “Generative” bedeutet, dass ein System ein Resultat generiert, sei es Text, Bilder oder etwas anderes.
- “Pre-trained” bedeutet, dass das Modell mit Daten trainiert wurde, die ihm im Voraus zur Verfügung gestellt wurden. Im Falle von ChatGPT oder auch Bard von Google handelt es sich bei den Trainingsdaten hauptsächlich um Text aus dem Internet, der von Menschen in der Vergangenheit verfasst wurde.
- “Transformer” bedeutet, dass die Lösung Text aus anderem Text generiert. Dies geschieht durch Vorhersage und somit Generierung des nächsten Textsymbols auf der Grundlage des vorherigen Textsymbols.
Diese Regeln gelten für alle LLM. Die Tatsache, dass es auf Texten aufbaut, die aus der Vergangenheit kommen, bedeutet jedoch, dass das Modell lernt, sich wie in der Vergangenheit zu verhalten.
Wieso ist das problematisch?
Sprache ist nicht neutral
Unsere Sprache ist nicht neutral. Oft unabsichtlich, verwenden wir in unserer Sprache Wörter und Phrasen, die eine unbewusst abschreckende Wirkung auf Talente haben. So haben Studien in den USA und Deutschland erwiesen, dass gewisse Wörter, wenn sie in Stellenausschreibungen genutzt werden, weibliche Talente abschrecken z.B. “Evidence that gendered wording in job advertisements exists and sustains gender inequality” oder “Sounds like a fit! Wording in recruitment advertisements and recruiter gender affect women’s pursuit of career development programs via anticipated belongingness”.
Dies ist zurückzuführen auf die Sozialisierung von Frauen in jungen Jahren. So verbinden sie sich selbst unbewusst nicht mit Wörtern, die stark auf Wettbewerb oder Leistung einzahlen, wie z.B. ehrgeizig, kompetitiv; so genannte agentische Sprache. Dies bedeutet nicht, dass die Frauen nicht ehrgeizig oder kompetitiv sind. Sondern nur, dass sie sich selbst in diesen Wörtern nicht erkennen.
Wichtig zu verstehen ist hier, dass der Prozess unbewusst abläuft. So würden Frauen, wenn befragt, ob sie kompetitiv und ehrgeizig sind, durchaus mit „ja“ antworten. Wenn sie diese Wörter jedoch lesen, können sie sich darin nicht erkennen und grenzen sich somit selbst aus. Wie gesagt – völlig unbewusst.
Boasting Language und Generation Z
Auch wissen wir von der Generation Z, dass diese sich von „Boasting Language“ nicht angesprochen fühlt; also auf Sprache, die übertreibt und prahlerisch ist. Denn ein großer Teil der Generation Z wurde auf Authentizität sozialisiert. Nutzen wir militärischen Jargon im Arbeitsleben (den wir oft nicht mehr als diesen erkennen), ergibt dies eine aggressive Stimmung. Damit wird der Weg zu einem inklusiven Arbeitsumfeld verbaut.
Durch eine starke Verwendung von Anglizismen, vor allem im Zusammenhang mit neuen Technologien, entsteht für ältere Mitarbeitende der Eindruck, sie könnten nicht mehr dazu gehören. Sprache, die das Wort „schwarz“ in einer negativen Konnotation verwendet, vermittelt unbewusst eine Ablehnung gegenüber Menschen mit dunkler Hautfarbe.
Es gibt noch ganz viele solcher unbewussten Sprachstile, die potenzielle oder bestehende Talente abschrecken. Bei unserer Arbeit haben wir mehr als 50 Dimensionen entdeckt, die in wir in der Arbeitssprache nutzen und Voreingenommenheiten vermitteln.
Voreingenommenheit in LLM
Was passiert nun bei der Entwicklung von LLM? Denn sie werden ja aufgrund von verwendeten Texten trainiert.
Das Sprach-Modell selbst kennt keine ethischen Grundregeln. Es kann nicht selbst bestimmen, was Vorurteile sind oder ob ein Text Voreingenommenheit vermittelt. Es hat kein Verständnis von richtig oder falsch. Es sind die Daten, die für das Training verwendet werden, die bestimmen, was das LLM tatsächlich weiß und somit reproduziert.
ChatGPT zum Beispiel basiert auf Daten von Texten im Internet vor 2022.
Das bedeutet, dass neu entwickelte Sprache aus den Jahren 2022 oder 2023 nicht von ChatGPT generiert werden kann. Sprache, die sich also durch soziale Bewegungen wie #MeToo, Black Lives Matter oder LGBTQ+, Generation Z oder andere ständig weiterentwickelt, wird von LLM bis zur neuen Version nicht abgebildet.
Schließlich werden generative Sprachmodelle stark von den Daten beeinflusst, die ihnen am meisten zur Verfügung stehen. Das bedeutet, dass sie den „Mehrheitsstandard“ reproduzieren, der auf statistischen Auswertungen beruht. Wenn also ein neues Vokabular von Menschen entwickelt wird – z.B. um eine unterrepräsentierte Gruppe stärker einzubeziehen -, aber nur eine Minderheit der Menschen dieses Vokabular beim Schreiben von Texten verwendet, wird ChatGPT solche neuen Sprachtrends nicht ohne weiteres erkennen. Und daher letztlich in der eigenen Textproduktion nicht vorschlagen.
Außerdem wird der Großteil der Inhalte weltweit von eher gut ausgebildeten Menschen mit Internetzugang geschrieben. Die Inhalte repräsentieren daher nicht die sprachliche Vielfalt der Welt.
Und schließlich: All die unbewussten Voreingenommenheit, die wir in den von uns geschriebenen Texten unabsichtlich verwenden, werden auch von LLM aufgenommen und reproduziert.
Kurz: LLM bergen ein großes Risiko, Stereotypen und Voreingenommenheiten zu reproduzieren, die tief in unserer Gesellschaft und Geschäftswelt verwurzelt sind.
Unvorteilhaft fürs Employer Branding oder die Rekrutierung
Wie wir aus den oben genannten Studien und Beispielen wissen, sollten wir aber im Employer Branding, in der internen HR-Kommunikation und in der Rekrutierung sehr stark auf unseren Sprachgebrauch achten.
Denn wenn wir unachtsam Sprache verwenden, die unbewusste Voreingenommenheiten reproduziert,
- schrecken wir potenzielle Talente in der Rekrutierung oder im Active Sourcing ab.
- fühlt sich nur ein begrenzter Teil unsere Talentpools von den Employer Branding Seiten angesprochen.
- verlieren bestehende Talente das Zugehörigkeitsgefühl. Dies führt zu einer höheren Fluktuation.
Genau hier hilft uns ChatGPT leider nicht. Im Gegenteil, LLM macht es schlimmer. Denn sie reproduzieren die Voreingenommenheiten, die wir loswerden wollen. Wir haben in einer Studie getestet, ob ChatGPT fähig ist, Voreingenommenheiten auszubremsen, wenn wir ChatGPT dementsprechend anleiten. Leider war es jedoch nicht möglich.
Verwenden wir oft von LLM produzierte Texte in unserer HR-Kommunikation, werden die negativen Effekte sogar verstärkt. Und neues Vokabular, welches wichtig wäre, um unterrepräsentierte Gruppen in der Sprache in unserem Unternehmen zu repräsentieren, wird gar nicht erst vorgeschlagen.
Eine unüberprüfte Verwendung von ChatGPT hat damit einen äußerst negativen Effekt auf unsere Ziele, divers zu rekrutieren und die Fluktuationsrate tief zu halten.
Kurz: Wir müssen diese Texte unbedingt nochmals kontrollieren, bevor wir sie nutzen, und sicherstellen, dass sie keine Voreingenommenheiten beinhalten.
Inklusive Sprache dank „AI whisperer“
Aber wie können wir schädliche Voreingenommenheiten in von LLM produzierten Texten effizient umgehen?
Eine mögliche Lösung sind Modelle, die sich über das Sprachmodell legen und es kontrollieren. Diese Instrumente nennen sich „KI Flüsterer“ (AI whisperer). Ein AI whisperer überprüft das Ergebnis des Sprachmodells und macht dann Vorschläge, wie das Resultat „optimiert“ werden könnte. Zum Beispiel können Augmented Intelligence-Lösungen verwendet werden, um die Ergebnisse von ChatGPT zu überwachen und Voreingenommenheiten oder Stereotypen zu erkennen.
Wachsam sein gegenüber Risiken von LLM
LLM-produzierende Unternehmen stellen ihre KI gerne als ausgeklügelt und intelligent dar. Tatsache ist jedoch, dass diese Algorithmen aufgrund von statistischen Auswertungen ihre Entscheidungen treffen und kein Verständnis dafür haben, was sie als Texte vorschlagen.
Darum ist es unbedingt notwendig, dass die Mitarbeitenden im Employer Branding, HR-Kommunikation und Rekrutierung, wenn sie ChatGPT nutzen, wachsam sind und die Resultate anhand von AI-Flüsterern abändern müssen. Dadurch stellen sie sicher, dass der produzierte Text keine Voreingenommenheit enthält. Dies ist unabdingbar, wenn die hoch gesetzten Ziele für mehr Diversität und Inklusion im Unternehmen erreicht werden möchten.