Back to overview

On-demand Webinar

Trouvez les meilleurs candidats facilement grâce à une IA éthique et responsable

En savoir plus

Inscrivez-vous à notre webinaire !

Les recruteurs sont susceptibles de prendre en compte des critères autres que les qualifications objectives requises, souvent sans même s’en rendre compte. C’est ce qu’on appelle les « préjugés inconscients » ou encore « biais cognitifs ». 

L’Intelligence Artificielle peut comporter, voire amplifier des biais

Il est possible de limiter l’accès de l’IA aux données soumises à la protection contre les discriminations, mais l’IA fait des liens et peut propager des biais qui compromettent l’équité (sous-représentation dans la catégorie recherchée, parsing de mauvaise qualité induisant des erreurs…)

Qu’est-ce qu’un usage responsable de l’IA selon Textkernel ? 

Chez Textkernel, nous mettons en œuvre une stratégie pour éviter les biais de l’IA dès la phase de conception des projets de nos clients.

Dans ce webinaire découvrez :

  • une IA correctement supervisée,
  • des algorithmes transparents
  • des résultats favorisant la diversité,
  • pas de boîte noire, le recruteur garde le contrôle total.