Algorithmen und künstliche Intelligenz werden bereits in deutschen Unternehmen eingesetzt. Teilweise soll damit menschliche Arbeitskraft ersetzt werden. Teilweise sollen digitale Systeme menschliche Entscheidungen lediglich vorbereiten oder unterstützen. Mit Blick auf die Einstellungsentscheidung im Recruiting eröffnen sich Fragestellungen der Ethik. Die Richtlinien des Ethikbeirats HR-Tech wollen mehr sein als nur Leitplanken. Es geht um einen verbindlichen Standard für ethisches Verhalten beim Einsatz künstlicher Intelligenz in deutschen Personalabteilungen.
Zum Stand der aktuellen Diskussion.
Das Verständnis von HR-Praktikern im Blick
Bevor ich in Details einsteige, sei mir der Hinweis erlaubt, dass ich in meinen folgenden Ausführungen keine streng wissenschaftliche Sprache verwende. Es geht mir vielmehr darum, komplexe Sachverhalte mit den Worten eines Personal-Praktikers verständlich zu erklären, damit möglichst viele Menschen an dieser wichtigen Diskussion teilnehmen können.
Algorithmen sind noch keine künstliche Intelligenz
In zahlreichen Publikationen, bei denen es um den Einsatz von Software im HR-Bereich geht, werden die Begriffe Algorithmen und künstliche Intelligenz in einen Topf geworfen. Anbieter im Bereich People Analytics versuchen teilweise sogar ihre Systeme marketingtechnisch bewusst mit möglichst vielen Buzzword-ähnlichen Begriffen aufzuwerten.
Den Begriff Algorithmus entzaubern
Auch wenn der Begriff Algorithmus für viele nach einer besonders modernen oder innovativen Softwarelösung klingt, im Grunde geht es um extrem bodenständige Basics.
Denn laut Definition (Wikipedia) ist ein Algorithmus nicht mehr als eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten.
Diese wohldefinierten Einzelschritte sind somit bereits in der Programmierung vorgedacht. Von einer „Intelligenz“ wie wir sie von Menschen kennen, ist diese Vorgehensweise weit entfernt. Vielmehr liegt das Bild eines digitalen Automaten deutlich näher.
Künstliche Intelligenz bedeutet noch lange nicht Bewusstsein
Selbst der Begriff künstliche Intelligenz, der übrigens nicht einheitlich definiert wird, hat noch (lange) nichts von der in Science-Fiction verwendeten Version eines roboterhaften Übermenschen im Stil des Terminators.
Künstliche Intelligenz #KI bedeutet noch lange nicht #Bewusstsein. Share on XWissenschaftler gehen sogar davon aus, dass wir es noch mehrere Jahrzehnte allenfalls mit sogenannter schwacher KI (weak AI“) zu tun haben. Dabei ist das Ziel dieser schwachen KI, ganz konkrete Anwendungsprobleme des menschlichen Denkens zu meistern. Das menschliche Denken soll hier lediglich in speziellen Einzelbereichen unterstützt werden.
Hinzu kommen definitorisch zwei weitere Bestandteile einer KI:
- Die Fähigkeit zu lernen (sich selbst zu verbessern) und
- mit Unsicherheit und Wahrscheinlichkeiten umgehen zu können.
Künstliche Intelligenz wie wir sie heute kennen, bedeutet noch lange nicht die Erlangung von Bewusstsein. Vielmehr geht es um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik.
Soviel vorweg.
Einsatz von Software zur Vermessung des Menschen – People Analytics
Im Recruiting gibt es schon heute zahlreiche Softwarelösungen, die versuchen, menschliche Entscheidungen zu unterstützen oder zu übernehmen. Dabei wird auf Basis von erhobenen (persönlichen) Daten beispielsweise ein Matching zwischen Anforderungsprofil und Bewerber vorgenommen, mit dem Ziel, den am besten passenden Bewerber (m/w/d) einzustellen.
Auch werden heute bereits auf Basis von Skills und Kompetenzen Mitarbeiter-Profile erstellt, um Lernbedarfe oder geeignete Einsatzmöglichkeiten innerhalb der Organisation zu ermitteln. Dies und mehr sind Einsatzbereiche der sogenannten People Analytics.
Algorithmen und künstliche Intelligenz können sehr wohl diskriminieren
Entgegen der häufig pauschal als Verkaufsargument verwendeten Aussage, dass der Einsatz von Algorithmen oder künstlicher Intelligenz anfällige menschliche Entscheidungen verobjektiviere, kann Software sehr wohl diskriminieren. Dies habe ich bereits mehrfach ausführlich in meinen Beiträgen anhand konkreter Beispiele dargestellt.
#Algorithmen und #KI im #Recruiting können sehr wohl diskriminieren. Share on XFolglich stellt sich beim Einsatz entsprechender digitaler Lösungen die Frage nach dem richtig oder falsch, dem moralischen gut oder böse, sprich der Ethik. Das Ziel dabei ist, zu definieren, was getan beziehungsweise eingesetzt werden sollte und was besser nicht. Und die Voraussetzungen dafür festzulegen.
Ethikbeirat HR-Tech entwickelt Ethik-Richtlinien
Seit Dezember 2018 arbeitet der sogenannte Ethikbeirat HR-Tech, bestehend aus 17 Mitgliedern (Dienstleister, Hochschulen, Gewerkschaften, Berater, Medienvertreter und HR-Praktiker) an sogenannten Ethik-Richtlinien.
Den Zweck der gemeinsamen Arbeit beschreibt der Ethikbeirat HR-Tech auf seiner Website wie folgt:
„Für die einen kann der Siegeszug neuer Technologien gar nicht schnell genug gehen. Andere sehen die Digitalisierung vor allem als Türöffner für Datenmissbrauch, Überwachung und Manipulation. Und die Grenzen zwischen persönlichem Mehrwert und potenziellen Missbrauch liegen bekanntlich nah beieinander. Im hochsensiblen Umfeld der Personalarbeit braucht es daher ein grundlegendes ethisch-moralisches Verständnis für den Umgang mit den Möglichkeiten neuer Technologien.“.
Die Richtlinien des Ehtikbeirats HR-Tech im Überblick
Bevor ich in die Diskussion einzelner Inhalte starte, hier die 10 Richtlinien (10 Ethik-Gebote) im Überblick:
Transparenter Zielsetzungsprozess
Vor der Einführung einer KI-Lösung muss die Zielsetzung für die Nutzung geklärt werden. In diesem Prozess sollen alle relevanten Interessensgruppen identifiziert und eingebunden werden.
Fundierte Lösungen
Wer KI-Lösungen anbietet oder nutzt, muss darauf achten, dass diese empirisch evaluiert sind und über eine theoretische Grundlage verfügen.
Menschen entscheiden
Wer KI-Lösungen einsetzt, muss sicherstellen, dass die Handlungsträgerschaft der Menschen bei wichtigen Personalentscheidungen nicht eingeschränkt wird.
Notwendiger Sachverstand
Wer KI-Lösungen in seiner Organisation nutzt, muss diese in ihrer Logik verstehen und erklären können.
Haftung und Verantwortung
Organisationen, die KI-Lösungen nutzen, sind für die Ergebnisse ihrer Nutzung verantwortlich.
Zweckbindung und Datenminimierung
Wer personenbezogene Daten für KI-Lösungen nutzt, muss im Vorfeld definieren, für welche Zwecke diese verwendet werden und sicherstellen, dass diese Daten nur zweckdienlich erhoben, gespeichert und genutzt werden.
Informationspflicht
Vor bzw. beim Einsatz einer KI-Lösung müssen die davon betroffenen Menschen über ihren Einsatz, ihren Zweck, ihre Logik und die erhobenen und verwendeten Datenarten informiert werden.
Achten der Subjektqualität
Für die Nutzung in KI-Lösungen dürfen keine Daten erhoben und verwendet werden, welche der willentlichen Steuerung der Betroffenen grundsätzlich entzogen sind.
Datenqualität und Diskriminierung
Wer KI-Lösungen entwickelt oder nutzt, muss sicherstellen, dass die zugrundeliegenden Daten über eine hohe Qualität verfügen und systembedingte Diskriminierungen ausgeschlossen werden.
Stetige Überprüfung
Wer KI-Lösungen nach den vorliegenden Richtlinien einführt, soll transparent sicherstellen, dass die Richtlinien auch bei der betrieblichen Umsetzung und der Weiterentwicklung beachtet werden.
Öffentlicher Diskurs über die Ethik-Richtlinien als Teil eines Stufenplans
Um die erstellten Ethik-Richtlinien auf eine breite gesellschaftliche Basis zu stellen, strebt der Ethikbeirat HR-Tech einen transparenten öffentlichen Diskurs an. So fand beispielsweise auf der größten HR-Messe, der Zukunft Personal Europe in Köln, eine Diskussionsrunde statt mit dem Titel „Ethikbeirat HR-Tech meets Blogger“.
Unter der Moderation von Reiner Straub, Herausgeber des Personalmagazins, diskutierten Michael H. Kramarsch, Jo Diercks, Inga Höltmann und ich in meiner Rolle als Persoblogger Stefan Scheller zu den besonders umstrittenen Richtlinien.
Auch wenn dazu in Kürze ein Beitrag im Personalmagazin zu lesen sein wird, würde ich einen (kleinen) Teil der Diskussion gerne bereits hier thematisieren.
Welchen Verbindlichkeitsgrad können die Ethik-Richtlinien überhaupt erreichen?
Eine der zentralen Fragen ist die übergeordnete Bedeutung der Ethik-Richtlinien und deren Auswirkungen auf die Praxis. Oder konkret: Welchen Grad der Verbindlichkeit können die Ethik-Richtlinien überhaupt erreichen?
Dies hängt unter anderem davon ab, wie akzeptabel sie für die Anbieter entsprechender Softwarelösungen sind. Großer Streitpunkt ist dabei die Frage nach der sogenannten Subjektqualität.
Die Subjektqualität als Spaltpilz zwischen ethischem Anspruch und HR-Wirklichkeit?
Die sogenannte Subjektqualität entspringt der Menschenwürde und ist Ausdruck menschlicher Selbstbestimmung. Dabei dürfen zur Wahrung der Subjektqualität des Menschen keine technologischen oder anderweitigen Messmethoden angewendet werden, die nicht der willentlichen Steuerung des Menschen unterliegen.
Eine rein objektive Vermessung von menschlichen Eigenschaften wäre demnach nicht ethisch. Das ist auch der Grund, warum in Deutschland der Lügendetektor-Test trotz vergleichsweise valider Ergebnisse verboten ist. Denn der gemessene Hautwiderstand lässt sich willentlich nicht beeinflussen.
In diesem Fall wäre der Mensch reines Vermessungs-Objekt.
Ist Objektivität in der Eignungsdiagnostik nicht gerade wünschenswert?
Auch wenn das Festhalten an der Subjektqualität auf den ersten Blick verständlich ist, scheint sie mit dem Ziel der Eignungsdiagnostik zu kollidieren. Denn die
Eignungsdiagnostik als Sammelbegriff für Grundsätze, Verfahren und Vorgehensweisen zur Erfassung von Kompetenzen und Verhaltenstendenzen mit Bezug auf Bildungswege oder berufliche Tätigkeiten möchte -laut Wikipedia- möglichst genaue Vorhersagen über die Erfolgswahrscheinlichkeit der Erreichung bestimmter Ziele bzw. der Zufriedenheit einer Person mit konkreten Aufgabenstellungen, Bildungswegen oder Berufen ermöglichen.
Wobei Aussagen und Prognosen vor allem dann als valide gelten, wenn sie nicht beeinflussbar und somit gerade nicht der willkürlichen Manipulation des Diagnostizierten unterworfen sind.
Zwei Denkhaltungen: Deontologie oder Konsequentialismus?
Im Grunde muss zur Auflösung dieses Widerspruchs entschieden werden, ob hier nach der Deontologie-Lehre bereits der Weg ethisch sein muss, damit er gegangen werden darf. Oder ob nach dem Konsequentialismus der Weg mit Blick auf das Ergebnis bewertet wird, so dass beim Erzielen ethisch wertvoller Auswirkungen auch ein möglicherweise unethischer Weg vertretbar wäre. Getreu dem bekannten Motto „Der Zweck heiligt die Mittel“. Die Tugendethik möchte ich hier gleich mal ganz außen vor lassen, um nicht zu philosophisch zu werden.
Um Sie hier nicht in Theorien und Buzzwords versinken zu lassen, ein konkretes Beispiel:
Wollten wir als Gesellschaft auf die Subjektqualität verzichten, um zu verproben, ob wir damit nicht Ergebnisse erzielen, die allen Beteiligten gut tun? Das wäre im Recruiting beispielsweise dann der Fall, wenn Unternehmen die objektiv passendsten Bewerber gewinnen und sie aus Sicht der Bewerber selbst am passendsten Ort eingesetzt werden können. Eine klassische win-win-Situation.
Allerdings würde so ein Vorgehen im Probestadium von Technologien erst einmal Tür und Tor für alle möglichen im Sinne der Deontologie unethischen Wege öffnen – bei komplett unsicheren Ergebnissen. Umgekehrt versperrt das Festhalten an der Subjektqualität möglicherweise aber fortschrittliche Ergebnisse.
Ja, ich weiß. Das sind sehr tiefgründige Fragestellungen. Aber sie sind von immenser Bedeutung und Auswirkung auf die Praxis.
Stand heute gibt es kaum Lösungen auf dem Markt, die die Subjektqualität gewährleisten
Eine Vielzahl von technischen Lösungen auf dem Markt würde laut Aussage von Mitgründer des Ethikbeirats HR-Tech Michael H. Kramarsch bereits an der Hürde der Subjektqualität scheitern. Sie hat damit das Potential eines KO-Kriteriums.
Zahlreiche weitere Tools und Methoden, wie beispielsweise Profiling oder Sprachanalyse hingegen kämpfen bereits mit der Validitätsanforderung.
Sind die Ansprüche der Richtlinien des Ethikbeirats HR-Tech also zu hoch?
Dies führt zur Frage nach der Relevanz von Ethik-Richtlinien. Denn was passiert, wenn sich kaum ein Unternehmen hierzu im Markt bekennen würde? Und zur Folgefrage, ob ein Streichen der Wahrung der Subjektqualität nicht die Akzeptanz der Gesamt-Richtlinie erhöhen würde.
Sollte also die Messlatte lieber niedriger gehängt werden, damit das Regelwerk am Ende überhaupt in der Praxis Beachtung findet?
Mediale Macht setzt Standards und beeinflusst die Gesellschaft
Wer explizit definiert, was ethisch richtig ist, definiert implizit auch, was ethisch falsch ist. Wenn sich der gesellschaftliche Diskurs so entwickeln würde, dass die Subjektqualität unabdingbar ist, dann würde dies im Markt Fakten schaffen. Diese träfen einerseits die Anbieter, deren Tools per Definition unethisch wären. Auch würden Unternehmen solche Softwareprodukte nicht mehr einsetzen. Zumindest wenn sie gegenüber Bewerbern nicht mit als unethisch geltenden Methoden auftreten wollten.
Folgender Tweet fasst den Kern meiner Gedanken zusammen.
Wir als Gesellschaft bestimmen, nach welchen Werten wir leben wollen
Wer sich bewusst macht, wie stark beispielsweise Social Media (inkl. YouTube, Stichwort Rezo-Video) die aktuellen gesellschaftlichen und politischen Debatten beeinflusst, erkennt darin Fluch und Segen gleichermaßen.
Die öffentliche Debatte kann heute stark mit medialer Macht beeinflusst werden. Will heißen: Wenn unsere Gesellschaft die Subjektqualität als Voraussetzung für ethisches Handeln in der Richtlinie sehen will, bestehen de facto mehr Möglichkeiten denn je, ein entsprechendes Stimmungsbild zu schaffen. Es muss ja nicht gleich ein „Sunday for Subjektqualität“ sein.
Ob damit unserer Entwicklung in Richtung moderne Gesellschaft (was immer das genau ist) ein Gefallen getan wird oder ob Deutschland als Folge noch weiter in Bereichen wie Digitalisierung, Automatisierung und Innovation zurückfällt, sei mal dahingestellt.
Letztlich entscheiden wir als Gesellschaft, nach welchen Werten wir leben wollen.
Wir als #Gesellschaft entscheiden nach welchen #Werten wir im Zeitalter der #Digitalisierung leben wollen. Share on XMein Fazit zur Diskussion der Ethik-Richtlinien
Das Thema Ethik beim Einsatz von KI-Lösungen ist hochgradig komplex und tiefgründig. Common Sense dürfte sein, dass Menschen Technologien gegenüber Vertrauen empfinden müssen, um sie langfristig zu akzeptieren.
Was unter dem Stichwort „Algorithmen-TÜV“ in der Debatte begann, ist nunmehr über die Ethik-Richtlinien des Ethikbeirats HR-Tech weiter konkretisiert. Wobei diese stark angelehnt sind an die „Ethik-Leitlinien für eine vertrauenswürdige KI“ einer europäischen Expertengruppe und sich im Internet bereits weitere KI-Ethik-Richtlinien finden.
Allerdings geht es meiner Meinung nach gar nicht darum, welche Autoren mit welchen Regelungen am Ende die Standards setzen. Vielmehr ist der Diskurs auf dem Weg dorthin das eigentlich Spannende. Offenbart er doch, wie wir zukünftig die viel gepriesene künstliche Intelligenz einsetzen und insbesondere im HR damit agieren wollen.