Les avantages offerts par l’IA et l’apprentissage automatique sont assez bien établis. La technologie peut aider les entreprises à automatiser les processus, à obtenir des informations grâce à l’analyse des données et à interagir avec les clients et les employés. Et cela peut les aider à satisfaire les demandes en constante évolution du marché, à rationaliser les coûts d’exploitation et à rester compétitifs dans un monde numérique de plus en plus rapide.

Le rôle des RH dans la compréhension et l’atténuation des biais de l’IA

Aujourd’hui, de nombreux grands fournisseurs de cloud proposent même des fonctionnalités d’IA dans leurs packages de services, démocratisant la technologie pour les entreprises qui auraient autrement du mal à se permettre des ingénieurs et des data scientists internes coûteux.

Pour les équipes RH, la valeur de l’IA est indéniablement claire. Lorsqu’une seule offre d’emploi aboutit à des centaines voire des milliers de candidats, l’examen manuel de chaque CV est une tâche monumentale et souvent irréaliste. En tirant parti des technologies d’IA et d’apprentissage automatique, les équipes RH acquièrent la capacité d’évaluer les candidats à grande échelle et de faire des recommandations d’embauche beaucoup plus efficaces.

Les ramifications du biais induit par l’IA dans les RH sont importantes

Bien que l’IA offre des avantages assez évidents pour les groupes RH, elle présente également des défis assez sérieux et des pièges potentiels. Avec tout système d’IA, l’un des aspects les plus difficiles (mais critiques) que vous devez aborder de front est de vous assurer qu’il est exempt de parti pris.

Ceci est particulièrement crucial pour les systèmes d’IA pour les RH, car tout biais induit par l’IA peut conduire les entreprises à discriminer les candidats qualifiés, souvent sans le savoir.

Rappelez-vous quand Amazon a dû abandonner son système d’IA pour filtrer les CV il y a plusieurs années parce qu’il pénalisait les candidates? C’est un exemple parfait, bien que malheureux, de la puissance des données d’entraînement. À l’époque, la majorité des employés d’Amazon étaient des hommes, donc l’algorithme alimentant le système d’IA, formé sur les propres données de l’entreprise, associait les applications réussies à des mots orientés vers les hommes.

Ce faisant, les candidates hautement qualifiées ont tout simplement été ignorées par le modèle. La leçon : si les données utilisées pour entraîner vos modèles d’IA sont biaisées, le système d’IA déployé sera également biaisé. Et cela continuera à renforcer ce biais indéfiniment.

Les systèmes d’IA externalisés et les cultures d’entreprise nécessitent un examen plus approfondi

Dans le cas d’Amazon, le système d’IA pour la sélection des CV a été construit en interne et formé avec les données des propres candidats à l’emploi de l’entreprise. Mais la plupart des entreprises n’ont pas les ressources nécessaires pour créer des systèmes d’IA internes pour leurs services RH. Ainsi, les équipes RH externalisent de plus en plus leur travail auprès de prestataires comme Workday ou Google Cloud. Malheureusement, trop souvent, ils sous-traitent également leur diligence raisonnable.

Il est plus important que jamais que les équipes RH reconnaissent l’énorme responsabilité qui accompagne l’externalisation de toute mise en œuvre de l’IA. Ne vous contentez pas d’accepter et de mettre en œuvre aveuglément les modèles de votre fournisseur d’IA. Vous et vos équipes devez revoir les systèmes à plusieurs reprises pour vous assurer qu’ils ne sont pas biaisés. Vous devez constamment vous demander :

  • Quelles sources de données (ou combinaison de sources de données) sont utilisées pour entraîner les modèles ?
  • Quels facteurs spécifiques le modèle utilise-t-il pour prendre ses décisions?
  • Les résultats obtenus sont-ils satisfaisants ou quelque chose est-il de travers ? Le système doit-il être temporairement arrêté et réévalué ?

Il est donc essentiel d’examiner attentivement les données de formation, en particulier dans les systèmes d’IA externalisés. Mais ce n’est pas la seule exigence pour atténuer les biais – les données biaisées proviennent d’environnements de travail biaisés.

Vos équipes RH ont donc le devoir d’évaluer également tout problème de parti pris ou d’injustice au sein de votre organisation. Par exemple, les hommes détiennent-ils plus de pouvoir que les femmes dans l’entreprise ? Quelle conduite douteuse a longtemps été considérée comme acceptable ? Les employés des groupes sous-représentés ont-ils toutes les chances de réussir ?

La diversité, l’équité et l’inclusivité de la culture de votre entreprise sont absolument pertinentes lors de l’intégration de l’IA, car elles déterminent la manière dont les systèmes et les résultats de l’IA seront déployés. N’oubliez pas que l’IA ne sait pas qu’elle est biaisée. C’est à nous de comprendre.

Trois bonnes pratiques pour tirer parti de l’IA de manière équitable et sans parti pris

En fin de compte, les équipes RH doivent être en mesure de comprendre ce que leurs systèmes d’IA peuvent faire et ce qu’ils ne peuvent pas faire. Désormais, vos équipes RH n’ont plus besoin d’être des experts en technologie ou de comprendre les algorithmes qui alimentent les modèles d’IA.

Mais ils ont besoin de savoir quels types de biais sont reflétés dans les données de formation, comment les biais sont intégrés aux cultures d’entreprise et comment les systèmes d’IA perpétuent ces biais.

Vous trouverez ci-dessous trois meilleures pratiques tactiques qui peuvent aider vos équipes RH à tirer parti de la technologie de l’IA de manière juste et impartiale.

  1. Auditez régulièrement le système d’IA. Que vos systèmes soient construits en interne ou sous-traités à un fournisseur, examinez régulièrement les données collectées pour former les modèles et les résultats produits. L’ensemble de données est-il suffisamment grand et varié ? Comprend-il des informations sur les groupes protégés, y compris la race et le sexe ? N’hésitez pas à arrêter le système pour changer de cap si ses résultats ne sont pas satisfaisants.
  2. Comprendre la chaîne d’approvisionnement des données. Lorsque vous vous fiez à des systèmes d’IA externalisés et prêts à l’emploi, reconnaissez que les données de formation peuvent refléter les propres préjugés du fournisseur ou les préjugés d’ensembles de données tiers. Garde un œil ouvert.
  3. Utilisez l’IA pour augmenter, pas pour remplacer. Les capacités de l’IA progressent rapidement, mais la réalité est que l’IA doit encore être gérée. En raison des risques encourus, les équipes RH doivent tirer parti de l’IA pour augmenter leur rôle, pas pour le remplacer. Les humains doivent toujours prendre les décisions finales en matière d’embauche et de RH.

Avec l’aide de l’IA, les équipes RH peuvent découvrir les injustices de l’entreprise

Vos équipes RH sont dans une position unique pour tirer parti de la technologie de l’IA de manière juste et impartiale, car elles connaissent déjà bien les problèmes systémiques de parti pris et d’iniquité.

Reconnaître la responsabilité dont les systèmes d’IA ont besoin et travailler constamment pour comprendre comment ils sont formés et produisent des résultats.

Lorsqu’elle est effectuée correctement, l’IA aidera vos équipes RH à découvrir les préjugés plutôt que de les perpétuer, à améliorer l’efficience et l’efficacité des tâches RH et à faire progresser la carrière des candidats méritants et des employés estimés.

Crédit d’image : productions rodnae ; pexels; Merci!