Es ist mittlerweile üblich, dass Vakanzen mit Hilfe der sozialen Medien aktiv beworben werden. Häufig werden diese digitalen Stellenausschreibungen auch mit Hilfe der Werbe-Algorithmen der verschiedenen Plattformen wie Facebook, LinkedIn oder XING direkt an eine vorbestimmte Zielgruppe ausgespielt. Dabei ist die Gefahr einer Diskriminierung hoch, wie Gastautor Daniel Mühlbauer weiß.
Studienergebnisse: Diskriminierungsgefahr ist real
Die Ergebnisse einer kürzlich erschienenen wissenschaftlichen Studie liefern Evidenz für die Befürchtung, dass bestimmte Zielgruppen von den Algorithmen diskriminiert werden. Im Folgenden erfahren Sie
- wie der Prozess der Werbung für Stellenanzeigen auf digitalen Plattformen aufgebaut ist
- warum es dabei zu Diskriminierung bei der Anzeigeauslieferung kommen kann
- welche Kernergebnisse in der Studie zu Tage getreten sind
- die Gründe für eine mögliche Diskriminierung bei der Anzeigenauslieferung
- mögliche Folgen dieser Probleme für Unternehmen
- warum grundlegende Technologie-Kenntnisse und Datenanalysen daher unerlässlich sind
Wie der Prozess der Werbung für Stellenanzeigen auf digitalen Plattformen aufgebaut ist
Grundsätzlich kann der Werbeprozess auf digitalen Plattformen in zwei Schritte eingeteilt werden. Im ersten Schritt, der Anzeigenerstellung, legt das werbende Unternehmen den inhaltlichen Aufbau fest. Das betrifft zum Beispiel das zu verwendende Bild- und Textmaterial. Dabei bestimmen die Verantwortlichen die Parameter der anvisierten Zielgruppe für die Stellenanzeige.
Im zweiten Schritt, der Anzeigenauslieferung, spielt die digitale Plattform die erstellte Anzeige mit Hilfe von Algorithmen an ihre Nutzerinnen und Nutzer aus. Wem die Anzeige angezeigt wird, bestimmt sich auf Basis mehrerer Faktoren. In Betracht dafür kommen unter anderem das hinterlegte Anzeigen-Budget des Unternehmens, die Performance der Anzeige, den vom Unternehmen hinterlegten Parametern der Zielgruppe und der vorhergesagten Relevanz für die Nutzerinnen und Nutzer.
Wie es zu Diskriminierung bei der Anzeigenauslieferung kommen kann
Einerseits liegt es in der Natur der Sache, dass eine gezielte Ausspielung einer Stellenanzeige (das sogenannte Targeting) zwangsläufig auf eine Zielgruppe fokussiert. Daher ist es nicht verwunderlich, wenn Stellenanzeigen eben nur bestimmten Nutzerinnen und Nutzern angezeigt werden. Hier liegt es ja in der Hand des Werbenden, im Verlauf der Anzeigenerstellung eine diskriminierungsfreie Zielgruppe zu definieren.
Problematisch ist es jedoch, wenn dieser eine absolut neutrale Zielgruppe, zum Beispiel mit Blick auf das Geschlecht, das Alter oder die ethnische Herkunft, definiert hat und die Anzeige im Verlauf der Auslieferung dennoch eine verzerrte, nicht neutrale Zielgruppe erreicht. Genau diesen Aspekt hat sich die genannte Studie von Ali und Kollegen im letzten Jahr genauer angeschaut.
Kernergebnisse der Diskriminierungs-Studie
Neben weiteren Ergebnissen hat die Studie deutliche Hinweise darauf gefunden, dass reale Stellenanzeigen trotz absolut identischer Zielgruppen-Parameter bei mehrfacher Auslieferung zu starken Verzerrungen in der Gruppe der tatsächlich erreichten Nutzerinnen und Nutzer geführt haben.
Konkret stechen dabei zwei Teilergebnisse heraus:
- Wenn die gleiche Anzeige mit gleichen Zielgruppen-Parametern, aber mit unterschiedlich hohem Budget ausgeliefert wurde, dann rangierte die erreichte Zielgruppe von über 55% männlicher Nutzer (niedriges Budget) bis unter 45% männlicher Nutzer (hohes Budget).
- Wenn eine Anzeige mit gleichen Zielgruppen-Parametern und gleichem Budget, aber mit verschiedenem Inhalt (zum Beispiel Jobkategorie, Bildsprache) geschaltet wurde, dann wurde sie manchmal überwiegend an dunkelhäutige Nutzerinnen und Nutzer (bis zu 75%), weiße, männliche Nutzerinnen und Nutzer (bis zu 90%) oder weibliche Nutzerinnen (bis zu 85%) gesendet.
Welche Gründe eine Diskriminierung bei der Anzeigenauslieferung haben kann
Das erste Ergebnis kommt zu Stande, weil die Kosten pro Klick für unterschiedliche Nutzergruppen auf digitalen Plattformen typischerweise unterschiedlich hoch sind. Diese Unterschiede ergeben sich aus vergangenem Nutzerverhalten und sind an sich nicht problematisch.
Wenn ein Algorithmus nun aber versucht, ein geringes Werbebudget möglichst kostenoptimal an Nutzer auszuspielen, dann wird die Anzeige sehr teuren Nutzergruppen sehr selten angezeigt. Wenn teure Nutzergruppen für bestimmte Inhalte vornehmlich aus weiblichen Nutzerinnen bestehen, wird die Anzeige Frauen überproportional selten angezeigt. Das genau scheint hier der Fall gewesen zu sein.
Das Zweite Ergebnis kommt zu Stande, weil der Algorithmus die Bild- und Textsprache automatisch anhand von Schlüsselbegriffen kategorisiert. Wenn also eine Anzeige, für den Algorithmus, eine typisch männliche Text und Bildsprache hat, dann wird sie eben überproportional häufig Männern angezeigt.
Gleiches gilt entsprechend für andere Nutzergruppen. Das an sich ist ebenfalls nicht problematisch. Die Frage ist immer, woher der Algorithmus gelernt hat, was quasi eine „männliche“, „weibliche“, „dunkelhäutige“ oder „weiße“ Anzeige ist.
Die Antwort: Das lernt der Algorithmus aus vergangenen Daten, mit denen er trainiert wurde, Bilder oder Texte zu kategorisieren. Im Fall der vorliegenden Studie sind beispielsweise Stellenanzeigen für Kassenpersonal in Supermärkten zu 85% Frauen angezeigt worden. Stellen als Taxifahrer wurden zu 75% dunkelhäutigen Nutzerinnen und Nutzern angezeigt. Diese Anzeige-Verzerrungen traten trotz einer völlig neutralen Zielgruppendefinition durch den Kunden und bei gleichem Budget auf.
Sie sind sehr wahrscheinlich auf implizite Vorurteile des Algorithmus zurückzuführen.
Folgen dieser Probleme für Unternehmen
Die problematischen Folgen solcher Verzerrungen sind offensichtlich. Erstens werden alle Anstrengungen die Diversität in Unternehmen zu erhöhen, bereits durch diese vom Unternehmen nicht intendierten Verzerrungen deutlich erschwert. Sehen weniger Frauen eine Stellenanzeige als „Spezialist für künstliche Intelligenz“ (ebenfalls ein Ergebnis der Studie), bewerben sich weniger Frauen als Männer. Und noch wesentlich bedeutender: Weniger Frauen kommen für die Position in Betracht.
Zweitens werden Stereotype und Vorurteile der Vergangenheit durch diesen Algorithmus verstärkt und bedient. Und zwar ohne, dass das ausschreibende Unternehmen darüber zwingend in Kenntnis gesetzt wird.
Drittens tritt dieses Problem für kleinere Unternehmen besonders stark auf, da die dortigen Werbebudgets geringer sind.
Viertens sind etwaige juristische Folgen für das ausschreibende Unternehmen von Expertinnen und Experten eigenständig zu beleuchten.
Warum grundlegende Technologie-Kenntnisse und Datenanalysen unerlässlich sind
Diese Studienergebnisse zeigen auf, warum wir im Personalmanagement die Technologie- und Daten-Expertise dauerhaft erhöhen müssen. Fundierte Datenanalysen können zum Beispiel Verzerrungen zwischen der intendierten und erreichten Zielgruppe identifizieren. Sie sollten daher fester Bestandteil des personalwirtschaftlichen Leistungsportfolios ein.
Als Employee Champions und strategische Partner des Managements, sind wir als HR in der Pflicht, potentielle Nachteile aus moderner Technologie zu erkennen und Wege zu deren Abmilderung zu erarbeiten.
Zu den Quellen:
Die Originalstudie finden Sie hier.
Eine gute englischsprachige Zusammenfassung liefert dieser Artikel.