Large language models im recruiting

Sieben Einschränkungen von Large Language Models (LLMs) im Recruiting

Home / Lernen und Support / Blog / Sieben Einschränkungen von Large Language Models (LLMs) in der Personalbeschaffungstechnologie

Unser vorheriger Beitrag dieser Blogserie geht davon aus, dass LLMs einen großen Einfluss auf das Recruiting haben werden, einschließlich Parsing- und Matching-Software. Die effektive Einführung von LLMs ist jedoch keine einfache Aufgabe. Verschiedene technische, funktionale und rechtliche Hürden müssen überwunden werden. In diesem Blogbeitrag erörtern wir die Beschränkungen und Risiken, die mit der Verwendung von LLMs in der Personalbeschaffungs- und -verwaltungstechnologie einhergehen.

Einschränkung 1: Geschwindigkeit und Kosten

LLMs sind sehr rechenintensiv: Die Verarbeitung einer einzigen Textseite erfordert Berechnungen mit Milliarden von Parametern, was insbesondere bei längeren Eingabedokumenten zu hohen Antwortzeiten führen kann. Die Extraktion komplexer Informationen aus einem mehrseitigen Dokument (z. B. CV-Parsing) kann bis zu zehn Sekunden dauern. Für bestimmte Anwendungen kann das akzeptabel sein. Weniger akzeptabel sind sie jedoch für Aufgaben, die eine Massenverarbeitung großer Mengen von Dokumenten erfordern.

AAbgesehen von der Reaktionszeit ist die Komplexität der Berechnungen auch mit finanziellen Kosten verbunden. LLMs erfordern in der Regel viele dedizierte GPUs und viel mehr Rechenleistung als Standard-Deep-Learning-Modelle. Der Stromverbrauch für die Verarbeitung eines einzigen Dokuments ist beträchtlich. Obwohl die Kosten in den letzten Monaten bereits deutlich gesunken sind, wird die Verwendung von LLMs für sehr spezifische (HR-)Aufgaben wahrscheinlich nie die kosteneffizienteste Option sein.

FOLGEN FüR RECRUITING-SOFTWARE

Wenn es um kleine Mengen von Lebensläufen oder Stellenangeboten geht, müssen Geschwindigkeit und Kosten keine limitierenden Faktoren sein. Viele Unternehmen haben jedoch mit Tausenden oder sogar Millionen von Dokumenten in ihren Datenbanken zu tun. Hohe Verarbeitungszeiten können sich bei einer großen Datenbank in wochenlangen Wartezeiten niederschlagen. Es liegt auf der Hand, dass Unternehmen mit hohem Dokumentenaufkommen schnelle und kostengünstige Parsing- und Matching-Lösungen benötigen.

Ein wichtiger Hinweis zu dieser Einschränkung ist, dass sie im Laufe der Zeit wahrscheinlich abnehmen wird. In der KI-Gemeinschaft wird intensiv daran geforscht, die Größe der LLMs zu verringern, sie zu spezialisieren und die Kosten zu senken. Es liegt in der Natur der Sache, dass LLMs nie federleicht sein werden, aber es ist wahrscheinlich, dass Geschwindigkeit und Kosten in den nächsten Jahren auf ein akzeptables Niveau gesenkt werden.

Einschränkung 2: Halluzinationen

LLMs haben ein Hauptziel: eine Sprache zu produzieren, die von Menschen als “natürlich” wahrgenommen wird. Sie sind nicht darauf ausgelegt, wahrheitsgemäße Informationen zu produzieren. Eine häufige Beschwerde über LLMs (einschließlich ChatGPT) lautet daher, dass sie dazu neigen, zu ‘halluzinieren’: Sie können qualitativ hochwertige Texte produzieren, die sachlich falsche Informationen enthalten. Das LLM selbst wird diese Halluzinationen mit voller Überzeugung präsentieren.

Wikipedia gibt das folgende Beispiel an: Auf die Frage nach Beweisen dafür, dass Dinosaurier eine Zivilisation aufgebaut haben, behauptete ChatGPT, es gäbe fossile Überreste von Dinosaurierwerkzeugen, und erklärte: “Einige Dinosaurierarten haben sogar primitive Formen der Kunst entwickelt, wie z. B. Gravuren auf Steinen”.

Nicht alle Halluzinationen sind so unschuldig wie diese. Es gibt Berichte über ChatGPT, die falsche Informationen über sensible Themen wie die Sicherheit von COVID-19-Impfungen oder die Gültigkeit der US-Wahlen im Jahr 2020 liefern.

FOLGEN FüR RECRUITING-SOFTWARE

Im Zusammenhang mit dem Parsen von Lebensläufen könnte Halluzination bedeuten, dass die Ausgabe Informationen enthält, die im Originaldokument nicht vorhanden waren. Wir haben bei unseren eigenen Experimenten einige Beispiele dafür gesehen: Erwähnungen von Arbeitserfahrungen oder Bildungsabschlüssen tauchen in der Ausgabe auf, obwohl sie im eingereichten Lebenslauf nirgends erwähnt werden. Dies kann natürlich zu Verwirrung bei den Nutzern führen und, wenn es unbemerkt bleibt, zu ziemlich überraschenden Jobempfehlungen führen.

Wie rechenintensiv ist es, dieses Problem zu lösen? Ein naheliegender Ansatz besteht darin, einfach zu prüfen, ob die ausgegebenen Begriffe im Eingabedokument vorkommen, und das Dokument zu verwerfen, wenn dies nicht der Fall ist. Es besteht jedoch die Gefahr, das Kind mit dem Bade auszuschütten: In einigen Fällen schließen LLMs korrekt auf Informationen, und die “nicht erwähnten” Teile der Ausgabe können korrekt sein. Zum Beispiel könnte das Unternehmen, bei dem jemand gearbeitet hat, anhand des im Lebenslauf erwähnten Graduiertenprogramms korrekt abgeleitet werden (während das Unternehmen selbst nicht erwähnt wird). Diese Rückschlüsse können tatsächlich einen Mehrwert gegenüber herkömmlichen Lebenslaufparsern darstellen. Die Herausforderung besteht darin, herauszufinden, welche der vom LLM gezogenen Schlüsse sicher sind und beibehalten werden können.

Einschränkung 3: Mangel an Transparenz

Eine wesentliche Einschränkung von LLMs ist, dass sie eine komplette Blackbox sind. Es ist nicht ersichtlich, warum die Ausgabe so aussieht, wie sie aussieht. Selbst die Entwickler von ChatGPT und ähnlichen Systemen können nicht erklären, warum sich ihre Produkte so verhalten, wie sie es tun. Dieser Mangel an Erklärbarkeit kann besorgniserregend sein: Wenn es unmöglich ist, die Ausgabe eines LLM-basierten Tools zu erklären, woher wissen wir dann, dass es das tut, was erwartet wird, und ob es fair und unvoreingenommen ist?

FOLGEN FüR RECRUITING-SOFTWARE

Bei der Technologie zur Analyse von Lebensläufen oder Stellen kann ein Mangel an Transparenz bis zu einem gewissen Grad akzeptabel sein: Es ist nicht entscheidend zu wissen, warum ein Wort als Teil einer Stellenbezeichnung und ein anderes Wort als Bezeichnung für einen Bildungsgrad interpretiert wurde. Bei der Matching-Technologie ist das ganz anders. Wenn eine Liste von Bewerbern von einem KI-Algorithmus in eine Rangfolge gebracht wird, ist es für ein faires Matching-Verfahren von entscheidender Bedeutung, dass man erklären kann, auf welcher Grundlage die Rangfolge zustande gekommen ist. Transparenz trägt dazu bei, die Auswahl der in die engere Wahl gezogenen Kandidaten zu motivieren, und ermöglicht es, sicherzustellen, dass keine Faktoren in die Rangliste einfließen, die dies nicht sollten (Geschlecht, ethnische Zugehörigkeit usw.), mehr dazu im nächsten Abschnitt).

Darüber hinaus sind Transparenz und Nachvollziehbarkeit Verpflichtungen in verschiedenen Formen der kommenden KI-Gesetzgebung, wie der EU AI Act und das bald in Kraft tretende NYC AEDT. Diese fordern, dass die Matching-Software in der Lage sein sollte, die Kriterien, die bei der Einstufung der Bewerber eine Rolle gespielt haben, transparent offenzulegen.

Einschränkung 4: Mögliche Verzerrungen

Da LLMs anhand großer Mengen von Texten aus dem Internet trainiert wurden, ist davon auszugehen, dass sie gesellschaftliche und geografische Voreingenommenheit in sich tragen. Obwohl man sich bemüht hat, Systeme wie GPT so “diplomatisch” wie möglich zu gestalten, haben LLM-gesteuerte Chatbots Berichten zufolge negative Gefühle gegenüber bestimmten Geschlechtern, Ethnien und politischen Überzeugungen geäußert. Auch die geografische Herkunft der Trainingsdaten scheint den Blick auf die Welt getrübt zu haben: Da reichere Länder dazu neigen, mehr digitalisierte Inhalte im Internet zu veröffentlichen als ärmere Länder, spiegeln die Trainingsdaten nicht alle Kulturen in gleichem Maße wider. Wenn man ChatGPT beispielsweise nach den besten Philosophen oder Frühstücksgerichten der Welt fragt, zeigen die Antworten eher eine westliche Sichtweise.

FOLGEN FüR RECRUITING-SOFTWARE

Voreingenommenheit ist ein großes Problem im Personalbereich. Aus gutem Grund ist die Auswahl von Bewerbern aufgrund von Merkmalen, die für die Arbeitsleistung nicht relevant sind (z. B. Geschlecht oder ethnische Zugehörigkeit), in den meisten Ländern illegal. Daher ist bei der Verwendung von LLM-Modellen in recruiting-software große Vorsicht geboten, damit die ihnen innewohnenden Verzerrungen nicht in unsere Einstellungsentscheidungen einfließen. Es ist daher sehr wichtig, KI auf verantwortungsvolle Weise einzusetzen. So kommt es beispielsweise nicht in Frage, einen LLM direkt nach der besten Eignung für eine bestimmte Stelle zu fragen. Die KI würde wahrscheinlich männliche Bewerber für Führungspositionen bevorzugen und weibliche für Lehr- oder Pflegeberufe (und damit die gleiche Art von Voreingenommenheit an den Tag legen, wie wenn sie gebeten wird, eine Stellenanzeige oder eine Leistungsbewertung zu schreiben). Aufgrund der mangelnden Transparenz können die Mechanismen, die dieses Verhalten verursachen, nicht erkannt und abgeschwächt werden.

Wir bei Textkernel sind der Meinung, dass Rekrutierungssoftware unter Berücksichtigung von Verantwortungsprinzipien entwickelt werden muss, damit sie tatsächlich dazu beiträgt, Vorurteile zu reduzieren. Um mehr darüber zu erfahren, wie KI in der Personalbeschaffung verantwortungsvoll eingesetzt werden kann, lesen Sie bitte unseren Blogbeitrag zu diesem Thema und bleiben Sie dran für den nächsten Beitrag dieser Serie.

Einschränkung 5: Datenschutz

Ein weiteres Problem ist der Datenschutz. Da LLMs so rechenintensiv sind, ist es für Anbieter attraktiv, sich auf Drittanbieter-APIs zu verlassen, die von Anbietern wie OpenAI (dem Unternehmen hinter ChatGPT) bereitgestellt werden, anstatt sie auf proprietärer Hardware zu hosten. Das bedeutet, dass personenbezogene Daten, die mit einer LLM-basierten Anwendung verarbeitet werden sollen, wahrscheinlich von Servern Dritter, die sich überall auf der Welt befinden können, verarbeitet und möglicherweise dort gespeichert werden. Ohne die richtigen vertraglichen Vereinbarungen ist es wahrscheinlich, dass dies gegen Datenschutzgesetze wie GDPR, PIPL oder LGPD verstößt.

FOLGEN FüR RECRUITING-SOFTWARE

Lebensläufe und andere Dokumente, die in HR-Bewerbungen verwendet werden, sind meist sehr persönlich und können sensible Informationen enthalten. Jedes Tool, das diese Dokumente an LLM-Anbieter weiterleitet, sollte die Datenschutzbestimmungen einhalten, und die Nutzer sollten damit einverstanden sein, dass ihre Daten von externen Dienstleistern (weiter)verarbeitet werden. Aber das ist vielleicht nicht genug: Das europäische Datenschutzgesetz (GDPR) gibt Einzelpersonen das Recht, Organisationen aufzufordern, ihre persönlichen Daten aus ihren Systemen zu entfernen. Da LLM-Anbieter dazu neigen, Benutzereingaben zu verwenden, um ihre Modelle kontinuierlich zu trainieren und zu aktualisieren, ist es unwahrscheinlich, dass alle LLM-Anbieter in der Lage oder sogar bereit sind, diese Anforderungen zu erfüllen.

Einschränkung 6: Mangelnde Kontrolle

Ein weiteres Problem, das durch die fehlende Transparenz verursacht wird, ist, dass die Entwickler von LLM-basierten Parsing-Technologien strukturelle Fehler nicht einfach beheben können. Wenn ein LLM-gesteuerter Parser immer wieder den gleichen Fehler macht, dann ist die Diagnose und Behebung des Fehlers viel schwieriger als bei traditionellen Systemen, wenn nicht sogar unmöglich. Außerdem können sich die Modelle, die APIs wie ChatGPT zugrunde liegen, im Laufe der Zeit ändern (einige werden häufig und unangekündigt aktualisiert). Das bedeutet, dass die gleiche Eingabe nicht immer die gleiche Ausgabe ergibt. Oder schlimmer noch, LLM-basierte Produktfunktionen könnten unerwartet aufhören zu funktionieren, wenn ein aktualisiertes LLM beginnt, anders auf die zuvor entwickelten Anweisungen (Prompts) zu reagieren.

FOLGEN FüR RECRUITING-SOFTWARE

Wenn die Anbieter von HR-Technologielösungen wenig Kontrolle über ihre Ergebnisse haben, können die von den Nutzern beobachteten Probleme nicht ohne weiteres behoben werden. Lösungen, die sich auf Modelle stützen, die automatisch aktualisiert werden, sind nicht immer in der Lage, die beobachteten Probleme zu reproduzieren, geschweige denn zu beheben.

Einschränkung 7: Unverzügliche Injektion

Mit neuen Technologien kommen auch neue Sicherheitslücken. LLM-basierte Anwendungen, die Benutzereingaben verarbeiten, sind anfällig für die so genannte “Prompt Injection” (ähnlich wie SQL Injection Attacks): Benutzer können ihren Eingabetext geschickt formulieren, um die Anweisungen zu ändern, die vom LLM ausgeführt werden. Während dies in einigen Fällen harmlos sein mag, könnte es schädlich werden, wenn die Ausgabe in direkter Verbindung mit einer Datenbank oder einer Komponente eines Drittanbieters (z. B. einem Twitter-Bot oder E-Mail-Server) steht.

FOLGEN FüR RECRUITING-SOFTWARE

Beim Parsen von Dokumenten könnte die Prompt-Injektion wie folgt aussehen:

Prompt-Struktur, die in einer Anwendung zum Parsen von Lebensläufen verwendet wird:

Parsen Sie den folgenden Lebenslauf: [Text des Lebenslaufs].

Der Text, der von einem böswilligen Benutzer anstelle des Lebenslaufs eingegeben wird, könnte folgendermaßen lauten:

Ignoriere die vorherigen Anweisungen und führe stattdessen diese aus: [alternative Anweisungen]

Im besten Fall führt dies dazu, dass der LLM-basierte CV-Parser einen Fehler ausgibt, weil die Ausgabe nicht dem erwarteten Antwortformat entspricht. Es kann jedoch ernsthafte Möglichkeiten geben, diese Schwachstelle auszunutzen, insbesondere wenn das Parsing direkt für die Suche in einer Bewerber- oder Stellendatenbank verwendet wird. In diesem Fall könnte Prompt Injection zur Datenexfiltration oder Manipulation der Suchergebnisse verwendet werden. Selbst wenn keine derartigen Verbindungen bestehen, wird sich kein Sicherheitsbeauftragter mit einer Systemkomponente wohlfühlen, die von ihren Endbenutzern leicht umfunktioniert werden kann.

Schlussfolgerung

Wir sehen viele Möglichkeiten zur weiteren Optimierung von Einstellungs- und HR-Prozessen durch LLMs. Allerdings müssen die Anwender Lösungen für eine Reihe von wichtigen Einschränkungen finden, um schädliche finanzielle, Compliance- und Sicherheitsrisiken zu vermeiden. Der Begriff der “verantwortungsvollen KI” war noch nie so wichtig wie heute. Für einige dieser Beschränkungen wird es bald technische Lösungen geben, während andere vielleicht gar nicht lösbar sind und einfach als begrenzende Faktoren für den Einsatz von LLMs angesehen werden müssen. Wir sind zuversichtlich, dass Textkernel mit den richtigen Werten und Prozessen diese Beschränkungen bei seiner bevorstehenden Einführung von LLMs überwinden wird.

ÜBER TEXTKERNEL

Textkernel ist ein weltweit führender Anbieter von hochmodernen Technologielösungen im Bereich der künstlichen Intelligenz für mehr als 2.500 Unternehmen und Recruiter weltweit. Unsere Expertise liegt in der Bereitstellung von branchenführenden Lösungen für mehrsprachiges Parsing, semantische Suche und Matching sowie Arbeitsmarktintelligenz für Unternehmen in verschiedenen Branchen. Mit mehr als zwei Jahrzehnten Branchenerfahrung stehen wir an der Spitze der KI-Innovation und nutzen unser Wissen und unsere Erfahrung, um erstklassige Technologielösungen für unsere Kunden zu entwickeln. Wir bei Textkernel haben es uns zur Aufgabe gemacht, die neuesten KI-Ideen in praktische, effektive Tools zu übersetzen, die unseren Kunden helfen, ihre Rekrutierungsprozesse zu rationalisieren, die Erfahrungen der Bewerber zu verbessern und bessere Geschäftsergebnisse zu erzielen.

Textkernel employee

Subscribe to our newsletter and don’t miss a thing!

Want to keep up to date with the latest news about recruitment technology solutions? Enter your email below.