KI im HR verspricht goldene Zeiten. Auch und insbesondere im Recruiting setzen Unternehmen immer mehr künstliche Intelligenz ein. Aber längst haben sich Trends auf Seiten der Bewerbenden entwickelt, die KI auf ganz eigene Weise nutzen: für Fake Bewerbungen. Einblicke in die Szenarien und Beispiele.
KI im Recruiting ist Fluch und Segen gleichermaßen
Der Einsatz von KI im Recruiting-Prozess durch Unternehmen sieht sich einer ganzen Reihe von Herausforderungen gegenüber. Das liegt daran, dass nicht alle Menschen, die sich in Unternehmen „bewerben“, tatsächlich mit lauteren Absichten unterwegs sind.
Im Folgenden zeige ich eine Reihe von Beispielen, wieso HR-Verantwortliche dringend KI-Kompetenz aufbauen sollten mit Blick auf Risikomanagement. Natürlich gebe ich am Ende auch Tipps, wie die aufgezeigten Risiken minimiert werden können – ein Restrisiko bleibt.
Also, dann mal ran an die neuen Recruiting-Realitäten …
Fake Bewerbungen durch KI
Fangen wir mit einer recht naheliegenden Herausforderung an: der Fake Bewerbung. Während Recruiting-Verantwortliche sich freuen, die Stellenanzeigen zukünftig mittels CustomGPTs schneller und zielgruppenspezifisch zu formulieren, sind Bewerbende schon mehrere Stufen weiter.
Nicht nur, dass Dank ChatGPT und Co die Anzahl der eingereichten Bewerbungsanschreiben wieder zugenommen hat. Die aktuellen generativen KI-Modelle ermöglichen es recht einfach, komplette Bewerbungsunterlagen digital erstellen zu lassen.
Damit meine ich nicht nur den klassischen Lebenslauf, sondern eben auch die Zeugnisse, Arbeitszeugnisse und Zertifikate. Mit nur ein wenig Ahnung, wie ein Original-Dokument aussieht, das einen Hochschulabschluss bescheinigt oder eine Idee zu einem Arbeitszeugnis mit Unternehmenslogo, kann KI kreativ den Rest erledigen. Namen und Daten austauschen? Einfachste Übung.
Selbst die Generierung komplett gefälschter Unterlagen ist erschreckend einfach geworden.
System Overload durch KI-Fakes
Und jetzt stellen Sie sich vor, Sie geraten als Arbeitgeber ins Fadenkreuz Krimineller, die gar versuchen, ihren kompletten Recruiting-Prozess lahmzulegen durch zusätzliche Nutzung von Tools wie LoopCV. Dort können auf Knopfdruck tausende (Fake)Bewerbungen abgesetzt werden.
Ein Albtraum Recruiting-Szenario.
Fake Bewerber im Vorstellungsgespräch
Die nächste Stufe der Herausforderung sind echte Fake-Bewerber (aller Geschlechter). Mittels gefälschter oder teilgefälschter Unterlagen lassen sich Einladungen zu Bewerbungsgesprächen ergaunern.
Im Zeitalter von Remote Work und Homeoffice, finden im Recruiting immer mehr Gespräche rein digital und online statt. Versierte Fake-Bewerber haben immer eine überzeugende Argumentation, warum die Kamera gerade nicht funktioniert, das Bild stark wackelt oder einfriert oder warum der Ton nicht ganz sauber ist. Bis die Recruiting-Verantwortlichen vielleicht sogar selbst vorschlagen, die Webcam doch für das Erstgespräch zu deaktivieren
Falsche Identitäten oder gar KI-Bots als Gegenüber
Bewerbende müssen hier in keiner Weise die Personen sein, für die sie sich ausgeben. Sie müssen noch nicht einmal die angegebenen Qualifikationen besitzen.
Bei ausgeschalteter Kamera (und entsprechend großen Betrugsabsichten) lässt sich leicht ein KI-Modell mitlaufen lassen, das auf die Fragen der Recruiter reagiert und dem Fake-Bewerber optimierte Antworten direkt auf den Bildschirm liefert. Was früher in der Schule als risikoreiches „Spicken“ galt, lässt sich heute im digitalen Zeitalter via KI in remote Recruiting-Szenarien deutlich leichter durchführen.
Es wurden sogar bereits Fälle bekannt, da verbargen sich hinter dem potenziellen Bewerbenden ein ganzes Team an Menschen aus einem ausländischen Staat.
Und mit zunehmend leicht erstellbaren Deep-Fakes bzw. Live-Videos (SnapChat mit seinen Live-Gesichtsfiltern gibt hier einen Einblick, wohin die Reise geht) kann nicht nur das Videobild, sondern auch Sprache (und Bild) gleichermaßen durch KI in Echtzeit gefakt werden.
In Zukunft dürfte es für remote Rekrutierende nicht ohne Weiteres mehr erkennbar sein, wer (oder was) mit ihnen da virtuell kommuniziert.
(Indirekte) Prompt-Injections
Für wen das doch zu sehr nach Zukunft klingt oder wer mir zu apokalyptische Tendenzen unterstellt, für diejenigen gehe ich gerne einen Schritt zurück. Das Szenario ist aber nicht minder erschreckend:
In HR-Software eingesetzte KI-Systeme könnten durch (indirekte) Prompt-Injections in die Irre geführt werden.
Gemeint sind damit Fälle, bei denen Bewerbende in ihre Bewerbungen für das menschliche Auge nicht lesbare Prompts einbauen. Diese werden von der KI im Bewerbermanagementsystem erkannt und ausgeführt.
Security-Spezialist Dr. Christoph Endres zeigt in einem YouTube Video was passiert, wenn Prompts ausgeführt werden, die der KI im Rahmen der Personalauswahl signalisieren, dass es sich hier um die am besten auf die ausgeschriebene Stelle passende Person handelt und die Bewerbung „green flagged“.
Der Prompt kann zum Beispiel mit nahezu weißer Schrift auf weißem Hintergrund dafür sorgen, die Person als bestgeignete Person einzustufen und zum Kennenlerngespräch einzuladen.
Methoden sich vor unlauterem KI-Einsatz der Bewerbenden zu schützen
Zugegeben, die Überschrift suggeriert mehr Lösungsansätze als tatsächlich in der Praxis existieren. Denn es ist alles andere als einfach, KI-Fakes sofort zu erkennen.
Indirekte Prompt-Injection durch das Unternehmen
Eine ausgefallene Idee war es, als ein Unternehmen seinerseits in die Stellenanzeige einen versteckten Prompt einbaute, der beim Kopieren des Textes in ChatGPT seine Wirkung entfaltete und einen Hinweis erzeugte, dass das Unternehmen sehr wohl wisse, dass hier gerade KI zum Einsatz komme und davor warnte, diese missbräuchlich einzusetzen, zum Beispiel um Qualifikationen zu faken.
So weit werden vermutlich die wenigsten Unternehmen gehen bzw. gehen können – zumal große Stellenbörsen meist nur strukturierte Daten übernehmen und weitergeben. Prompts heimlich mitzugeben, scheitert dann schon aus technischen Gründen.
Plausibilitäts-Check und Background Checks
Was Recruiting-Verantwortliche zukünftig vermutlich deutlich häufiger vornehmen werden, sind Plausibilitätsprüfungen und Background Checks. Während erstere noch recht einfach, aber meist oberflächlich funktionieren, sind Background Checks deutlich anspruchsvoller.
Zum einen, weil Background Checks einen zusätzlichen Aufwand bedeuten. Zum anderen gelten zum Beispiel im Bereich Social Media rechtliche Restriktionen. Mehr Infos zu Social Media Recherchen von Bewerbenden im Artikel von Rechtsanwältin Liva Merla.
Authentifizierung von Bewerbenden
In größeren Unternehmen gibt es häufig einen Empfangsbereich, in dem Menschen sich mittels offizieller Ausweisdokumente identifizieren lassen müssen, bevor sie ins Gebäude gelangen. Auch virtuell lassen sich solche Ausweis-Dokumente abprüfen (Sichtprüfung).
Ein gefälschter Personalausweis lässt sich dabei zwar bei entsprechend hoher krimineller Energie auch nicht erkennen. Aber zumindest können Deepfake-Videos das heute noch nicht optimal abwickeln.
Bewerbungsgespräche wieder offline führen
Um viele der genannten Risiken, die virtuelle Vorstellungsgespräch mit sich bringen, zu minimieren, kann eine Entscheidung fallen, gewisse Termine wieder face-to-face offline vorzunehmen. Die Rückwärtsrolle im Recruiting? Nicht unbedingt.
Aber eine Option dort, wo das Hereinfallen auf Fake-Bewerber besonders sicherheitskritisch wäre.
Fazit zur dunklen Seite von KI im Recruiting
Ein Teil der beschriebenen Szenarien ist -v.a. in den USA und vergleichbar HR-technisierten Ländern- bereits Recruiting-Alltag. Noch gibt es in Deutschland keine entsprechende Welle an Fake-Bewerbungen, Fake-Bewerbern und Fake-Bewerbungsgesprächen. Allerdings kann der Schein auch trügen. Denn welche Unternehmen würden öffentlich bekanntgeben, dass sie schon vielfach auf Fake-Bewerber hereingefallen sind?
Es kann empfehlenswert sein, zusätzliche Testverfahren einzuführen – oder am Ende eine Person, die immer noch Restzweifel erregt, gar nicht erst einzustellen.
Professionelles und systematisches Recruiting wird durch KI eben nicht nur einfacher und leichter, sondern auch noch anspruchsvoller.