
LLMs voor Werving: Wees alert op valkuilen, mogelijke vooroordelen, datalekken, veiligheidsbedreigingen en meer
LLM blogserie – Part 2 | Door Mihai Rotaru en Kasper Kok
Samsung, een wereldwijde technologiereus, heeft het gebruik van ChatGPT verboden nadat medewerkers per ongeluk gevoelige informatie aan de chatbot hadden onthuld. Dit ongelukkige incident herinnert ons aan de mogelijke valkuilen bij het aannemen van nieuwe tools zonder grondige overweging. In onze vorige blogpost in deze serie hebben we besproken hoe nieuwe tools zoals ChatGPT en LLM’s (Large Language Models) grote impact kunnen hebben op recruitmenttechnologie. Echter, hun adoptie in HR-software brengt verschillende uitdagingen met zich mee. Hieronder belichten we zeven beperkingen en risico’s die gepaard gaan met het gebruik van LLM’s in de context van recruitment- en HR-technologie.

Beperking 1
Snelheid en kosten - De noodzaak van efficiëntie
LLM’s vereisen aanzienlijke rekenkracht en tijd voor taken zoals verwerking en matching, wat de kosten en verwerkingstijd voor organisaties die grote hoeveelheden documenten behandelen, verhoogt. Deze kosten en snelheidsbeperkingen zullen naar verwachting in de loop der tijd afnemen, maar het is nog steeds essentieel om deze uitdagingen aan te pakken voor efficiënte documentverwerking.


Beperking 2
Hallucinatie - Wees op je hoede voor feitelijke valkuilen
LLM’s produceren soms tekst met feitelijk onjuiste informatie, ook wel ‘hallucinaties’ genoemd. Bij het verwerken van cv’s kan dit leiden tot output met informatie die niet in het oorspronkelijke document aanwezig was. Dergelijke onnauwkeurigheden kunnen verwarring veroorzaken en van invloed zijn op aanbevelingen voor vacatures.


Beperking 3
Gebrek aan transparantie - De Big Black Box
LLM’s worden beschouwd als een Big Black Box omdat hun output niet transparant is, waardoor het moeilijk is om hun besluitvormingsproces te begrijpen. Dit gebrek aan duidelijkheid baart zorgen over de eerlijkheid en vooringenomenheid in de output die door op LLM’s gebaseerde tools wordt gegenereerd. Dit is met name verontrustend in het licht van de aankomende wetgeving over het gebruik van AI (EU AI Act, NYC AEDT), die transparante openbaarmaking van rangschikkingcriteria in AI-algoritmen vereist.


Beperking 4
Mogelijke vooringenomenheid - Oog voor diversiteit, inclusie en gelijkheid
LLM’s die getraind zijn op webteksten kunnen maatschappelijke en geografische vooroordelen overnemen. Vooringenomen reacties en perspectieven kunnen van invloed zijn op door LLM aangedreven recruitment-software en mogelijk in strijd zijn met wettelijke vereisten tegen discriminerende praktijken. Om te voorkomen dat vooroordelen invloed hebben op recruitmentbeslissingen, is voorzichtigheid geboden bij het gebruik van LLM-modellen. Verantwoordelijk gebruik van AI in werving is cruciaal om mogelijke vooringenomenheid te beperken en eerlijkheid te bevorderen.


Beperking 5
Gegevensprivacy - Bescherming van vertrouwelijkheid
De omvang van LLM’s leidt er vaak toe dat bedrijven vertrouwen op API’s van derden, wat zorgen kan oproepen over gegevensprivacy. Persoonlijke informatie die wordt verwerkt met LLM-gebaseerde toepassingen kan worden opgeslagen op externe servers, wat mogelijk in strijd is met privacywetten. Zelfs als gebruikers toestemming geven, is het onduidelijk of de makers van LLM’s de persoonlijke gegevens die worden gebruikt voor continue training en updating van deze modellen daadwerkelijk kunnen wissen.


Beperking 6
Gebrek aan controle - Op wankel terrein
Het gebrek aan transparantie en de evoluerende aard van LLM-modellen maken het voor ontwikkelaars moeilijk om structurele fouten of onverwachte gedragsveranderingen aan te pakken (zie bijvoorbeeld het voorbeeld van de afname van de nauwkeurigheid van ChatGPT). Het oplossen van problemen en het herstellen van fouten worden daardoor uitdagend of zelfs onmogelijk.


Beperking 7
Prompt-injectie - Bescherming tegen manipulatie
LLM-gebaseerde toepassingen zijn vatbaar voor prompt-injectieaanvallen, waarbij gebruikers de invoertekst kunnen manipuleren om LLM-instructies te wijzigen. Deze kwetsbaarheid brengt veiligheidsrisico’s met zich mee, vooral wanneer LLM-toepassingen rechtstreeks zijn gekoppeld aan kandidaten- of vacaturedatabases.

Conclusie
Hoewel LLM’s veel potentieel bieden voor het optimaliseren van recruitment en HR-processen, is het cruciaal om beperkingen aan te pakken om risico’s te beperken en verantwoord gebruik van AI te waarborgen. Hoewel sommige beperkingen mogelijk technische oplossingen hebben, kunnen andere inherent zijn. Door de implementatie van de juiste waarden en processen is Textkernel vastbesloten om ze te overwinnen bij de aankomende adoptie van LLM’s. Blijf op de hoogte voor onze volgende blogpost waarin we beschrijven hoe we al gebruik maken van LLM’s en wat onze toekomstplannen zijn.
Kijk voor meer gedetailleerde inzichten in de hier genoemde beperkingen en de gevolgen ervan voor recruitment-software, naar de uitgebreide versie van dit artikel.