Il peut sembler que les données – les informations que vous trouvez dans un article scientifique, un livre d’histoire ou un ensemble de résultats d’enquête – ne sont qu’une collection de faits objectifs. Les chiffres, s’ils sont bien fournis, sont censés être la dure vérité non ternie par les opinions, les perspectives ou les biais. En réalité, c’est rarement le cas. Voici comment l’IA peut être aussi biaisée que les humains qui la créent.

Les données est seulement aussi bon que les moyens utilisés pour l’acquérir, les méthodes employées pour l’interpréter et l’analyser, et comment il est communiqué.

Les faux pas dans ces domaines se répercutent sur les conclusions que nous tirons sur la base de nos données – et entraînent souvent les types de subjectivité et de parti pris que nous voulons que nos «faits» évitent.

Même avec quelque chose de simple comme une enquête, de nombreux facteurs – de la formulation des questions à la façon dont nous définissons nos termes et l’ensemble d’échantillons que nous évaluons pour former un jugement – peuvent potentiellement biaiser nos données. Le biais influe sur les conclusions que nous tirons.

« Je sais qu’il y a un proverbe qui dit: » L’erreur est humaine « , mais une erreur humaine n’est rien à ce qu’un ordinateur peut faire s’il essaie. » – Agatha Christie

Les systèmes automatisés et l’intelligence artificielle, qui sont dépourvus de sentiments, d’idéologies et de préférences humaines, promettent de nous aider à éviter la subjectivité et les biais inhérents au raisonnement humain. Cependant, les humains doivent concevoir et construire ces systèmes, ce qui les ouvre aux mêmes pièges.

Il n’en demeure pas moins que le biais dans l’IA est devenu un problème si répandu que Salesforce a récemment ajouté un cours sur l’IA à sa plateforme éducative, Trailhead, pour informer les entrepreneurs et autres professionnels sur les dangers des données homogènes.

Les conséquences du biais AI

Les biais dans les systèmes automatisés ont déjà eu des effets néfastes sur certains groupes. Par exemple, Le Wisconsin a tenté d’utiliser l’IA dans son système judiciaire pour déterminer la probabilité qu’un criminel récidive afin d’aider un juge à déterminer la peine ou la libération conditionnelle.

Malheureusement, le programme était biaisé contre les personnes de couleur et les individus noirs mal identifiés comme plus susceptibles de commettre une autre infraction que leurs homologues blancs.

Qu’en est-il des études d’examen par les pairs?

Dans un autre cas, un étude évaluée par les pairs a déterminé que la technologie de reconnaissance faciale d’Amazon avait plus de mal à identifier les femmes et les individus à la peau plus foncée. Comment est-ce arrivé? L’ensemble de formation – les données d’exemple introduites dans le système pour enseigner la programmation de l’IA – manquait de diversité.

Résumé des affaires judiciaires?

Le logiciel d’extraction de données de mon entreprise est utilisé à de nombreuses fins. L’un de ces objectifs est de résumer les affaires judiciaires pour les professionnels du droit. Pour que le programme offre des résumés précis, l’ensemble de formation doit inclure un large éventail de types de cas. Si le système était formé uniquement sur les affaires délictuelles, par exemple, il serait beaucoup moins efficace pour résumer les affaires pénales.

Machine Learning AI – et tout autre apprentissage de l’IA difficile à repérer.

Ces exemples montrent à quel point les systèmes d’IA basés sur l’apprentissage automatique peuvent être nuisibles; lorsque les données utilisées pour les configurer ne représentent pas correctement ce qu’ils étudient ou sont moins diverses que les cas qu’ils tentent d’évaluer, les résultats peuvent être regrettables. Mais le biais de l’IA n’est pas toujours aussi facile à repérer.

Dans le monde des affaires, par exemple, l’utilisation d’un ensemble de données biaisé peut conduire le leadership à donner le feu vert à un projet voué à l’échec. Lorsque le projet échoue inévitablement, l’équipe d’exécution pourrait prendre le blâme quand il devrait être placé sur les hypothèses erronées sur lesquelles le plan s’appuyait en premier lieu.

L’IA et l’automatisation peuvent être extrêmement bénéfiques pour les entreprises, et en particulier les entreprises qui s’appuient sur la technologie pour effectuer des travaux qui nécessitaient auparavant des équipes de personnes.

Cependant, si la technologie n’est pas conçue de manière à empêcher l’introduction de mauvaises données (ou à tordre des données utiles), elle pourrait faire plus de mal que de bien.

Une réponse proposée à ce problème a été d’encourager la diversité entre les équipes de scientifiques des données – ceux qui construisent les systèmes d’IA sur lesquels nous comptons. Le défi est que nous n’identifions pas et ne promouvons pas toujours le bon type de diversité pour résoudre notre problème de biais.

La diversité est plus que profonde

Lorsqu’il s’agit d’embaucher des scientifiques des données, il n’est pas suffisant de réaliser ce que nous considérons habituellement comme la diversité (variance de l’ethnicité et du sexe).

La valeur de la diversité.

Bien sûr, il est utile d’avoir un effectif composé d’hommes et de femmes appartenant à des ethnies, des religions et des cultures différentes. Cependant, la diversité dans ces domaines peut encore entraîner une IA biaisée.

Par exemple, une équipe d’hommes et de femmes du monde entier pourrait construire un système avec des lacunes; ils pourraient tous être formés en utilisant le même cadre éducatif, par exemple, ou partager les mêmes opinions personnelles liées aux éléments ou aux questions en question.

Les gens peuvent partager des approches très similaires pour résoudre un problème de données s’ils sont issus de la même culture, du même milieu socioéconomique et du même parti politique. L’homogénéité dans ces domaines saura inévitablement dans le système d’IA créé par l’équipe de développement.

Évitez les biais.

Pour éviter les biais liés à l’IA, nous devons commencer à penser à la diversité en termes de nos idées et points de vue plutôt que seulement nos tons de peau et nos expressions de genre. Les gens qui ont l’air différents pourraient très bien penser différemment aussi – mais ce n’est pas toujours le cas.

Atteindre la diversité

Il est impossible pour les humains d’éviter les préférences tout à fait subjectives, les croyances erronées et divers trous dans nos processus de pensée. Il est donc tout aussi improbable d’éliminer les biais. Mais il y a encore des mesures que nous pouvons prendre pour atténuer l’impact de nos préférences (pensez biais) sur les systèmes que nous créons.

La diversité de pensée est un excellent point de départ. Pour constituer des équipes de science des données avec le bon type de diversité, les responsables du recrutement doivent se concentrer sur la recherche de personnes ayant des perspectives uniques et des idées non conventionnelles.

Ces diverses attitudes, points de vue, aperçus et objectivités résultent souvent d’expériences nouvelles et d’une formation peu orthodoxe.

Le défi ici, bien sûr, est qu’un gestionnaire ne peut pas interroger les candidats sur leurs antécédents socioéconomiques, leurs âges, leur exposition culturelle et leurs convictions religieuses et politiques lors des entretiens.

Comment diversifier votre équipe et tous vos employés.

Ce qu’ils pouvez faire est de poser des questions plus pointues liées au travail que les employés potentiels pourraient assumer. Par exemple, présentez aux candidats un exemple de projet de modélisation de données. Demandez-leur comment ils aborderaient le problème, collecteraient les données et les analyseraient.

Si vous avez déjà des membres de l’équipe qui aborderaient le cas en utilisant les méthodes X et Y, considérez-le comme favorable si un candidat suggère une méthode Z bien pensée.

L’assertivité d’un individu est un autre facteur clé.

Cela fait peu de bien à votre équipe d’ajouter une personne ayant une façon de penser différente si elle ne veut pas s’exprimer lorsqu’elle voit un problème. Afin d’éviter les biais dans les systèmes analytiques et les outils d’IA, vous avez besoin de candidats qui non seulement détiennent des points de vue uniques, mais savent également les exprimer.

Enfin, il est important de travailler à cultiver une culture d’ouverture et de collaboration au sein de vos équipes de développement technologique et de science des données. Lorsqu’ils peuvent facilement exprimer des points de vue, ils peuvent découvrir et corriger les erreurs.

Rappelez-vous: lorsqu’une équipe partage un objectif primordial d’être aussi objectif que possible, le biais est minimisé dans le processus.

L’IA et l’automatisation sont en plein essor, et ces systèmes promettent de minimiser l’impact de la subjectivité et des biais humains tout en augmentant notre efficacité et notre productivité. Pour atteindre cet objectif, cependant, ils doivent être construits avec grand soin.

Pour avancer avec prudence – nous devons prendre la diversité très au sérieux. Cela signifie plus qu’une simple concentration sur les apparences lors de l’embauche de scientifiques des données et d’architectes système. Les dirigeants doivent creuser plus profondément, travailler pour apporter différents points de vue et des personnes qui peuvent les exprimer, et soutenir une culture de développement inclusive.

Les équipes avec des idées diverses et une structure de collaboration sont beaucoup plus susceptibles de construire des systèmes d’IA qui transcenderont vraiment les préjugés que nous, humains, avons du mal à éliminer en nous-mêmes.

Crédit d’image: Unsplash; dhaval-parmar

Ron Cogburn

PDG d’Exela Technologies

Ron Cogburn est PDG d’Exela Technologies, un chef de file de l’automatisation des processus d’affaires qui travaille avec plus de 4 000 entreprises dans le monde.