Large Language Models LLMs im Recruiting: Vorsicht vor Fallstricken, Vorurteilen und Sicherheitslücken

Large Language Models (LLMs) im Recruiting: Vorsicht vor Fallstricken, Vorurteilen und Sicherheitslücken

LLM Blogserie – Teil 2 | Mihai Rotaru & Kasper Kok

Whitepaper jetzt herunterladen!

Samsung, ein globaler Technologieanbieter hat die Verwendung von ChatGPT untersagt, nachdem Mitarbeiter:innen versehentlich sensible Informationen an den Chatbot weitergegeben hatten. Dieser bedauerliche Vorfall erinnert uns eindringlich an die potenziellen Gefahren, wenn neue Werkzeuge ohne sorgfältige Prüfung eingeführt werden. Unser vorheriger Beitrag in dieser Blogserie geht davon aus, dass neue Tools wie ChatGPT und LLMs (Large Language Models) das Potenzial haben, die Recruiting-Technologie erheblich zu beeinflussen. Ihre Übernahme in HR-Software ist jedoch mit einigen Herausforderungen verbunden. Hier zeigen wir sieben Einschränkungen und Risiken auf, die mit dem Einsatz von LLMs im Zusammenhang in Recruiting und HR verbunden sind.

Einschränkung 1

Geschwindigkeit und Kosten – Ist das effizient?

LLMs sind rechenintensiv. Aufgaben wie Parsing und Matching beanspruchen eine erhebliche Rechenleistung und entsprechenden Zeitaufwand. Dies stellt Unternehmen, die große Dokumentenmengen verarbeiten müssen, vor Herausforderungen, da Verarbeitungszeiten zu erheblichen Wartezeiten und Kosten führen können. Auch wenn die Einschränkungen in Bezug auf Geschwindigkeit und Kosten im Laufe der Zeit abnehmen dürften, ist es für eine effiziente Dokumentenverarbeitung nach wie vor von entscheidender Bedeutung, diese Herausforderungen zu meistern.

Einschränkung 2

Halluzinationen – Vorsicht vor den Fallstricken

LLMs produzieren manchmal Texte, die sachlich falsche Informationen enthalten können, die oft als „Halluzinationen“ bezeichnet werden. Im Zusammenhang mit dem Parsen von Lebensläufen kann dies dazu führen, dass die Ausgabe Informationen enthält, die im Originaldokument nicht vorhanden sind. Derartige Ungenauigkeiten können Verwirrung stiften und sich auf Jobempfehlungen auswirken.

Einschränkung 3

Mangelnde Transparenz – die große Black Box

LLMs werden als Black Box betrachtet, da ihr Output nicht transparent ist und es daher schwierig ist, ihren Entscheidungsprozess zu verstehen. Dieser Mangel an Erklärbarkeit gibt Anlass zu großen Bedenken, ob die von LLM-basierten Tools erzeugten Ergebnisse unter Einhaltung von Gesichtspunkten der Fairness und ohne Voreingenommenheiten entstanden sind. Dies kann insbesondere im Hinblick auf die bevorstehende Gesetzgebung zum Einsatz von KI (EU-KI-Gesetz, NYC AEDT), die eine transparente Offenlegung von Ranking-Kriterien in KI-Algorithmen fordert, wichtig werden.

Einschränkung 4

Potenzielle Verzerrungen – Vielfalt, Integration und Gleichstellung im Auge behalten

LLMs, die auf Internet-Textdaten trainiert wurden, können gesellschaftliche und geografische Vorurteile und Verzerrungen (englisch: biases) aufnehmen. Voreingenommene Antworten und Sichtweisen können sich auf eine LLM-gesteuerte Recruiting-Software auswirken und möglicherweise gegen gesetzliche Bestimmungen verstoßen, die diskriminierende Praktiken verhindern sollen. Um Voreingenommenheiten bei Einstellungsentscheidungen zu verhindern, muss bei der Verwendung von LLM-Modellen vorsichtig vorgegangen werden. Der verantwortungsvolle Einsatz von KI bei der Rekrutierung ist von entscheidender Bedeutung, um Fairness zu fördern.

Einschränkung 5

Datenschutz – Wahrung der Vertraulichkeit

Der Umfang von LLMs führt oft dazu, dass Unternehmen auf APIs von Drittanbietern angewiesen sind. Dies lässt Bedenken hinsichtlich des Datenschutzes aufkommen. Personenbezogene Daten, die mit LLM-basierten Anwendungen verarbeitet werden, können auf externen Servern gespeichert werden, was möglicherweise gegen Datenschutzgesetze verstößt. Selbst wenn die Benutzer:innen ihr Einverständnis geben, ist unklar, ob die LLM-Verantwortlichen personenbezogene Daten, die für das kontinuierliche Training und die Aktualisierung dieser Modelle verwendet wurden, jemals wirklich löschen können.

Einschränkung 6

Mangelnde Kontrolle – keine verlässliche Grundlage

Die mangelnde Transparenz und die sich ständig weiterentwickelnden LLM-Modelle erschweren es den Entwicklern, auf strukturelle Fehler oder unerwartete Verhaltensänderungen zu reagieren (siehe dieses Beispiel zur Genauigkeit von ChatGPT). Die Fehlersuche und -behebung wird schwierig oder sogar unmöglich.

 

Einschränkung 7

Prompt Injection – Schutz vor Manipulation

LLM-basierte Anwendungen sind anfällig für Prompt Injection-Angriffe, bei denen Benutzer:innen den Eingabetext manipulieren, um LLM-Anweisungen zu ändern. Diese Schwachstelle birgt Sicherheitsrisiken, insbesondere wenn LLM-Bewerbungen direkt mit Bewerber- oder Stellendatenbanken verknüpft sind.

Schlussfolgerung

LLM-Anwendungen bieten zwar ein großes Potenzial für die Optimierung von Recruiting- und HR-Prozessen, doch ist es von entscheidender Bedeutung, sich mit den Einschränkungen auseinanderzusetzen, um Risiken zu mindern und einen verantwortungsvollen Einsatz von KI zu gewährleisten. Während es für einige Einschränkungen technische Lösungen gibt, können andere als inhärente Zwänge nicht beseitigt werden. Durch die Implementierung geeigneter Vorgaben und Prozesse ist Textkernel bestrebt, die Einschränkungen bei der bevorstehenden Einführung von LLMs zu überwinden. Verfolgen Sie auch den nächsten Teil dieses Blogs, in dem wir beschreiben, wie wir LLMs bei Textkernel bereits einführen und was wir in Zukunft planen.

Für detaillierte Einblicke in die hier erwähnten Einschränkungen und ihre Folgen für die Recruiting-Branche, lesen Sie bitte die ausführliche Version dieses Artikels als White Paper. 

Das Ergebnis

Laden Sie die ausführliche Version als White Paper herunter: Der Einfluss von Large Language Models (LLMs) im Recruiting