Ethik und künstliche Intelligenz - StepStone Studie zu AI

Ethischer Einsatz von künstlicher Intelligenz (KI) in der Arbeitswelt: ein Leitfaden

Das Potenzial von KI ist in aller Munde: Mit dem Boom von generativen Tools wie ChatGPT, Midjourney oder DALL:E können in Sekundenschnelle verschiedenste Inhalte erzeugt werden: Texte, Bilder, Videos, sogar Musik!

Auch im Recruiting kann KI einiges leisten und manuelle Aufgaben übernehmen, die Personalverantwortliche aktuell bis zu 10 Stunden Arbeitszeit pro Woche kosten – so die Ergebnisse aus der neuesten Studie von The Stepstone Group State of Recruitment and Automation (2023). Dazu gehören Aufgaben, die relativ leicht automatisierbar sind, wie die Formulierung von Stellenanzeigen oder die Terminierung von Bewerbungsgesprächen, sagen Camille Delorme und Heiner Tent.

Warum braucht es Ethik?

Ethik im Zusammenhang mit künstlicher Intelligenz beschäftigt sich mit Themen wie Transparenz, Datenschutz, Fairness oder auch Anti-Bias-Maßnahmen. Denn werden KI-Lösungen nicht verantwortungsvoll eingesetzt, können weitreichende rechtliche Konsequenzen entstehen. Im Kontext des Recruitings könnten zum Beispiel bestimmte Bewerber*innen aufgrund diskriminierender Kriterien durch einen Algorithmus benachteiligt werden. Datenlecks sind ebenfalls eine Gefahr, wenn sensible Daten nicht ausreichend geschützt und mit einer KI geteilt werden.

„KI hat keinerlei Urteilsvermögen. Deswegen müssen wir die Rahmenbedingungen schaffen, damit KI ethisch funktioniert”, erläutert Carina Stöttner, Mitgründerin des Zukunftsforschungs-Instituts Themis Foresight, im Stepstone Podcast.

KI-Ethik zielt also darauf ab, einen Rahmen zu schaffen bzw. die moralischen Grundsätze und Regeln festzulegen, die eine KI-Technologie verfolgen soll.

KI ethisch einsetzen: Was Unternehmen und Mitarbeitende tun können (und sollten)

Was müssen Mitarbeitende beachten, wenn sie KI-Tools in ihrer Tätigkeit anwenden? Was müssen Unternehmen wiederum gewährleisten, damit die Mitarbeitenden diese Technologie sicher nutzen?

Im Folgenden finden Sie Handlungsempfehlungen für beide Seiten.

Best Practices für Arbeitnehmende

Ergebnisse kontrollieren

Jeglicher Content, der mit generativen KI-Tools produziert wird, sollte von einem Menschen überprüft werden. Zum einen die Kontrolle aus fachlicher Sicht: Stimmen die Informationen und Fakten? Zum anderen müssen die den Text ergänzenden Aspekte wie Links und Quellangaben kontrolliert werden: Müssen Quellen angegeben oder Urheberrechte berücksichtigt werden? Da diese in den Outputs von KI-Tools nicht immer ersichtlich sind, ist dieser Schritt absolut unerlässlich.

KI-erzeugte Inhalte kennzeichnen

Der EU AI Act, ein zukünftiges Gesetz zur Regulierung von künstlicher Intelligenz in Europa, dessen Inkrafttreten für 2026 geplant ist, sieht strengere Transparenzanforderungen vor, um die Erstellung rechtswidriger Inhalte zu verhindern. Es wird erwartet, dass gemäß diesem Gesetz KI-generierte Inhalte schon ab 2025 klar als solche gekennzeichnet werden müssen.

Prompts anonymisieren

Mitarbeitende sollten, soweit möglich, ihre Prompts bzw. die Anweisungen, die sie beispielsweise in ChatGPT formulieren, anonymisieren. Vertrauliche Informationen und Daten, durch die das Unternehmen oder Kunden identifiziert werden können, müssen streng vertraulich bleiben. Dazu gehören Geschäftsgeheimnisse, Preisinformationen, Leistungsberichte, geistiges Eigentum, Codes und personenbezogene Daten.

Chat-Verlauf deaktivieren

In den Einstellungen von KI-Tools wie ChatGPT sollte die Option „Chat-Verlauf & Training“ deaktiviert werden, um die Verwendung von Eingaben für Trainingszwecke zu unterbinden. Es ist auch ratsam, regelmäßig die gespeicherten Eingaben zu überprüfen und zu löschen.

Best Practices für Arbeitgeber

Sensible Daten definieren

Unternehmen müssen definieren, welche Daten mit KI-Tools geteilt werden dürfen und welche im Gegensatz dazu vertraulich sind, und dies klar an die Mitarbeitenden kommunizieren. Auch der Ablauf bei einer versehentlichen Verwendung von sensiblen Daten in einem KI-Tool, sollte den Mitarbeitenden bekannt sein. Dieser Prozess könnte darin bestehen, eine E-Mail an Vorgesetzte oder an ein Sicherheits- oder Legal-Team zu senden.

Platz des Menschen definieren

Die künstliche Intelligenz nimmt eine immer wichtigere Rolle in unseren Arbeitsprozessen ein: Sie kann als kreativer Sparringspartner dienen, Brainstorming unterstützen oder bestimmte Aufgaben automatisiert erledigen. Es ist jedoch entscheidend, eine klare Rollenverteilung zwischen Menschen und Maschine festzulegen, insbesondere im Lichte des kommenden EU AI Act, der darauf abzielt, den Einsatz von KI-Systemen zu regulieren und sicherzustellen, dass diese den europäischen Werten und Grundrechten entsprechen.

Arbeitgeber sollten definieren, welche Aufgaben vollständig von einer KI übernommen werden und bei welchen Aufgaben KI-Tools unterstützend wirken können. Besonders wichtig ist es, Bereiche zu identifizieren, in denen der Mensch die Hauptrolle spielen soll. Gemäß der DSGVO und in Übereinstimmung mit dem EU AI Act ist es unerlässlich, dass wesentliche Entscheidungen, die signifikante Auswirkungen auf das Leben der Mitarbeitenden haben, stets von Menschen getroffen werden. Dies gilt insbesondere im Personalwesen für sensible Phasen wie Vorstellungs-, Jahres- oder Leistungsbeurteilungsgespräche sowie für die Beendigung von Arbeitsverhältnissen. Diese Phasen sind inhärent zwischenmenschlich und erfordern daher persönlichen Kontakt und menschliches Urteilsvermögen.

Andere Prozessschritte, wie die Planung von Vorstellungsgesprächen, können dagegen effizient von einer KI unterstützt werden. Unabhängig von der Phase des Einstellungsverfahrens oder der beruflichen Tätigkeit muss jedoch immer eine natürliche Person für Rückfragen oder bei (technischen) Problemen verfügbar sein, um die menschliche Entscheidungsgewalt und Verantwortung zu gewährleisten.

Veröffentlichung von KI-generierten Inhalten regulieren

Es ist unumgänglich, einen Prozess zu entwickeln, der die Schritte vor Veröffentlichung von KI-generiertem Content definiert. Dies umfasst unter anderem die Prüfung von Fakten, Quellen und das Lektorat von Inhalten.

Transparenz über den Einsatz von KI gewährleisten

Unternehmen sollten über KI-Systeme, die in der Interaktion eingesetzt werden, informieren. Unter dem EU AI Act wird dies verpflichtend. Beispielsweise müssen im Einstellungsverfahren Bewerber:innen wissen, welche Phasen des Prozesses mittels KI unterstützt werden, welche personenbezogenen Daten erhoben, verarbeitet und ggfs. weitergegeben werden.

Trainingsdaten der KI-Lösung überprüfen

Jede KI-Lösung basiert auf Daten, anhand derer das System trainiert wird. Es ist absolut essenziel, diese Datengrundlage zu verstehen. Woher kommen die Daten, mit denen Ihr KI-basiertes Recruiting-System trainiert wird? Sind das beispielsweise öffentliche Online-Profile auf sozialen Netzwerken, historische Einstellungsdaten, Bewertungen, Transkripte von Vorstellungsgesprächen?

Unternehmen müssen in der Lage sein, diese Trainingsdaten einzusehen und bei Bedarf anzupassen. KI-Systeme erfordern sorgfältige und stetige Kontrolle. Nur so können Unternehmen sicherstellen, dass die KI-Lösung rechtskonform eingesetzt wird.

Die „richtigen” Biases festlegen

Im Bereich der Personalbeschaffung gilt es, die sogenannten „unconscious Biases”, also unbewusste Vorurteile, durch die Personen voreingenommen begegnet wird, aus dem Weg zu räumen. Dafür muss unter anderem ausreichend Diversität in den Trainingsdaten einer KI-Lösung sichergestellt sein. Stehen der KI z. B. zu wenige Informationen über Frauen zur Verfügung, könnte es sein, dass sie die Bewerbungen von Frauen „automatisch” aussortiert – eine berüchtigte Erfahrung, die der Online-Riese Amazon 2018 machte.

Sollten also Biases komplett verbannt werden? „So merkwürdig es klingen mag, sind Biases wichtig, weil sie nicht immer negativ sind”, sagt dazu Carina Stöttner. Es geht darum, dass Unternehmen die richtigen Biases für sich definieren, je nach dem, was sie strategisch erreichen möchten. Wenn sie den Fokus auf Gender Equality legen möchten, ist es ratsam, eine gute Parität in den Trainingsdaten zu haben; liegt der Fokus eher auf Diversität oder Internationalität, sollten die Daten möglichst divers sein.

Mitarbeitende fortbilden

Schließen wir mit der goldenen Regel ab: Unternehmen müssen ihre Belegschaft für die Nutzung von KI fit machen.

Studie: The Ultimate Guide to an AI-Powered Workplace

Die 2023 erschienene Studie From Vision to Reality: The Ultimate Guide to an AI-Powered Workplace von The Stepstone Group zeigt, dass insgesamt etwa 6 von 10 Befragten in Deutschland (57 %) bereits Erfahrungen mit KI gemacht haben. 19 % davon setzen KI-Tools in ihrem Job häufig oder täglich ein – meistens mit einem guten Sicherheitsgefühl.

62 % der Befragten sind sich aber über eine Sache einig: Ihr Arbeitgeber investiert zurzeit nicht ausreichend in KI-Trainings. Um ihre Belegschaft KI-fit zu machen und ein Sicherheitsgefühl im Umgang mit dieser Technologie zu fördern, müssen Unternehmen daher in die Entwicklung von Digitalkompetenzen wie kritisches Denken, Datenanalyse und –interpretation investieren.

Mit umfassenden Trainings, z. B. zum Thema Prompt-Engineering stellen Arbeitgeber nicht nur sicher, dass KI-erzeugte Inhalte effizient, sondern auch datenschutzkonform bzw. rechtssicher sind.

Anzeige:

Machen Sie sich KI-fit mit der Stepstone KI-Akademie!

Wie KI-fit sind Sie? - Stepstone-Test

Die Stepstone KI-Akademie liefert Tipps, wie Sie Ihre Belegschaft KI-fit machen, wo KI im Recruiting unterstützen kann und was es dabei unbedingt zu beachten gilt – das Ganze mit leicht verdaulichem Wissen.

Infografiken, Erklärvideos, digitale Vorträge, Experteninterviews, Leitfaden für Ihr Recruiting, Studien und vieles mehr: Sie finden in der KI-Akademie alles rund um den Einsatz von künstlicher Intelligenz in der Arbeitswelt – natürlich kostenlos!

Testen Sie gleich Ihr KI-Wissen in 9 Fragen und entdecken Sie, ob Sie eher ein KI-Frischling oder bereits ein KI-Guru sind!

Camille Delorme und Heiner Tent

 

 

Camille Delorme ist B2B Content Managerin bei The Stepstone Group Deutschland GmbH. Ihre Mission? Unternehmen Wissenswertes zum Lesen und zum Hören über den Arbeitsmarkt zur Verfügung zu stellen. Seit 2023 beschäftigt sie sich intensiver mit dem Thema Künstliche Intelligenz und hat die KI-Akademie, Stepstones eigene Wissensplattform über den Einsatz von KI in der Arbeitswelt, ins Leben gerufen.

>> LinkedIn-Profil Camille Delorme

 

 

 

 

 

Heiner Tent ist seit 12 Jahren als General Counsel Legal bei The Stepstone Group. Zu seinen Schwerpunkten gehört neben dem Datenschutzrecht, Compliance und ESG der Einsatz von Artificial Intelligence im People Management. Sein Webinar zum EU AI Act. „Zukunftssicher rekrutieren: Der EU AI Act und seine Bedeutung für HR“ ist in der Stepstone KI-Akademie online abrufbar.

>> LinkedIn-Profil Heiner Tent

Lassen Sie uns auf LinkedIn darüber diskutieren!

  • Anzeigen:

  • DSAG Event Personaltage 2024
  • Quicklinks:

  • Entdecken Sie weitere spannende Artikel

    IHRE PERSOBLOGGER CLUB MITGLIEDSCHAFT

    Nur eine Anmeldung pro Unternehmen. Grenzenloser Zugang für das gesamte HR-Team

    persoblogger club Werbung
    PERSOBLOGGER Newsletter Newsletter
    ×

    Jetzt hier zum Newsletter anmelden und auf dem Laufenden bleiben!

    Pünktlich jeden Montag um 7:15 Uhr wertvolle HR-News:

    • ✓ Aktuelle Fachartikel und Podcast-Folgen
    • ✓ Neueste HR-Studien & Infografiken
    • ✓ Zugriff auf HR-Veranstaltungen im DACH-Raum
    • ✓ Wichtige Trends und wissenswerte News

    Wir nutzen Google reCAPTCHA, um unsere Webseite vor Betrug und Missbrauch zu schützen. Mehr erfahren

    Newsletter-Anmeldung laden