
En matière de recrutement, le jugement humain est impacté par des biais conscients et inconscients.
Qu’en est-il de l’intelligence artificielle ? Quelle est l’approche de Textkernel pour limiter les biais et rendre les décisions d’embauche équitables et transparentes ?
Les recruteurs sont susceptibles de prendre en compte des critères autres que les qualifications objectives requises, comme l’origine ethnique, le sexe, l’âge, l’apparence physique, les formations ou les entreprises qu’ils connaissent, souvent sans même s’en rendre compte. C’est ce qu’on appelle les « préjugés inconscients » ou encore « biais cognitifs ».
De nombreuses études ont confirmé qu’en RH, les préjugés inconscients sont un facteur important de la répartition inégale des opportunités et de la diminution de la diversité sur le marché du travail.
Pour mettre un frein à ces inégalités, l’Union européenne a proposé dernièrement de réglementer l’utilisation de l’intelligence artificielle, ce qui pourrait modifier la manière dont les entreprises recrutent et embauchent des travailleurs dans toute l’Europe.
Le fait que l’IA ait un impact de plus en plus important sur la vie des individus a des implications éthiques. La proposition de l’UE reconnaît que l’intelligence humaine ne peut céder entièrement la place à l’intelligence artificielle et qu’il existe des limites au-delà desquelles elle ne doit pas s’aventurer.
La proposition de l’UE pourrait avoir une incidence sur différents maillons des systèmes de sélection et de recrutement, tels que la publication d’offres d’emploi, la sélection ou le filtrage des candidatures et l’évaluation des candidats au moyen d’entretiens et de tests.
L’Intelligence Artificielle peut comporter, voire amplifier des biais
Dans le domaine du recrutement, l’IA peut aider les professionnels des RH dans leurs tâches quotidiennes, mais, si elle n’est pas contrôlée, l’IA a également le potentiel de perpétuer des biais existants.
En effet, les données utilisées pour former les systèmes d’IA étant basées sur des décisions humaines, les algorithmes qui en résultent pourraient contribuer à des discriminations. Par exemple, un outil d’IA basé sur des données dans lesquelles les recruteurs ont embauché moins de femmes pour certains postes perpétuera ce même biais dans un algorithme d’apprentissage automatique.
Notons que dans des pays comme la France et l’Allemagne, où il est pourtant illégal de collecter des données relevant spécifiquement de l’identité raciale ou ethnique, les CV comportent souvent le nom et la photo du candidat. Cela peut exposer à des discriminations lors du recrutement et engendrer ensuite des biais dans le tri algorithmique des bases de données existantes.
Techniquement, les algorithmes ne créent pas de préjugés, mais ils agrègent les données d’une manière qui peut isoler des candidats dont les caractéristiques diffèrent des données vues auparavant. Avec la collecte de données sur le genre, la date des diplômes, l’adresse ou encore la classification photographique par identité raciale des candidats, les plateformes européennes d’emploi pilotées par des algorithmes peuvent perpétuer, voire amplifier des discriminations.

L’IA peut renforcer la stratégie de diversification dans le recrutement
Une IA éthique sans biais c’est une IA qui respecte les droits de l’homme et la vie privée. Il est possible de limiter l’accès de l’IA aux données soumises à la protection contre les discriminations, afin d’éviter de propager des biais qui compromettent l’équité (sous-représentation dans la catégorie recherchée, parsing de mauvaise qualité induisant des biais…)
Dans les outils proposés par Textkernel, la requête basée sur le terme «infirmière» sera par exemple automatiquement enrichie avec l’intitulé de poste «infirmier».
Pour aller plus loin, l’IA peut être un outil pour favoriser un facteur clé : la diversité.
Personne ne devrait se voir refuser l’égalité des chances en matière d’emploi en raison de son sexe ou de ses origines. Mais c’est également important d’un point de vue économique. La diversité est un moteur d’innovation et de croissance, deux choses dont l’Europe a besoin pour être compétitive au niveau mondial.

Qu’est-ce qu’un usage responsable de l’IA selon Textkernel ?
Chez Textkernel, nous mettons en œuvre une stratégie pour détecter et prévenir les biais de l’IA dès la phase de conception des projets de nos clients.
La Textkernel Fairness Checklist vérifie par exemple les points suivants :
- Avons-nous besoin de l’IA dans ce cas précis ?
- Chaque groupe démographique est-il représenté dans la base de données ?
- Quel est le degré de contrôle que les utilisateurs ont/doivent avoir ?
- Quels sont les risques potentiels en matière d’équité/de partialité ?
- Le produit est-il utilisé comme prévu ?
Pour l’outil Search & Match de Textkernel, l’IA correctement supervisée permet de traiter et comprendre vos données de manière approfondie : des algorithmes transparents permettent un Matching basé sur des critères objectifs et non-discriminatoires ; notre algorithme de classement des résultats favorise la diversité. Pas de boîte noire, le recruteur garde le contrôle total.
Textkernel utilise de puissants algorithmes d’IA pour la compréhension des documents (pour extraire, structurer et enrichir les données), mais la partie Matching est réalisée grâce à des algorithmes plus transparents et contrôlables. De cette façon, nous donnons au recruteur un contrôle total sur le matching des personnes et des emplois.
Utilisée de manière responsable, l’IA peut se révéler moins biaisée que les humains, améliorer l’égalité des chances et la diversité. Textkernel crée une approche éthique, pragmatique et transparente de l’utilisation de l’IA pour le recrutement.