L’étude fournit les dernières preuves que Facebook n’a pas résolu ses problèmes de discrimination publicitaire depuis ProPublica. a mis en lumière la question en octobre 2016. À l’époque, ProPublica avait révélé que la plate-forme permettait aux annonceurs d’offres d’emploi et de logement d’exclure certains publics caractérisés par des traits tels que le sexe et la race. Ces groupes bénéficient d’une protection spéciale en vertu de la loi américaine, ce qui rend cette pratique illégale. Cela a pris deux ans et demi et plusieurs escarmouches juridiques pour Facebook pour enfin supprimer cette fonctionnalité.

Mais quelques mois plus tard, le ministère américain du Logement et du Développement urbain (HUD) a intenté une nouvelle action en justice, alléguant que les algorithmes de diffusion d’annonces de Facebook excluaient toujours les audiences pour les annonces immobilières sans que l’annonceur ne spécifie l’exclusion. Une équipe de chercheurs indépendants, dont Korolova, dirigée par Muhammad Ali et Piotr Sapieżyński de l’Université du Nord-Est, a corroboré ces allégations une semaine plus tard. Ils ont constaté, par exemple, que les maisons à vendre étaient plus souvent montrées aux utilisateurs blancs et que les maisons à louer étaient montrées plus souvent aux utilisateurs minoritaires.

Korolova voulait revenir sur la question avec son dernier audit, car la charge de la preuve pour la discrimination dans l’emploi est plus élevée que pour la discrimination en matière de logement. Alors que tout biais dans l’affichage des publicités basées sur des caractéristiques protégées est illégal dans le cas du logement, le droit du travail américain juge justifiable si le biais est dû à des différences de qualification légitimes. La nouvelle méthodologie contrôle ce facteur.

«La conception de l’expérience est très propre», déclare Sapieżyński, qui n’a pas participé à la dernière étude. Alors que certains pourraient affirmer que les vendeurs de voitures et de bijoux ont en effet des qualifications différentes, dit-il, les différences entre la livraison de pizza et la livraison de produits d’épicerie sont négligeables. «Ces différences entre les sexes ne peuvent pas être expliquées par des différences entre les sexes dans les qualifications ou un manque de qualifications», ajoute-t-il. «Facebook ne peut plus dire [this is] défendable par la loi. »

La publication de cet audit intervient dans le cadre d’un examen approfondi du travail de Facebook sur les biais d’IA. En mars, le MIT Technology Review a publié les résultats d’une enquête de neuf mois sur l’équipe d’IA responsable de la société, qui a révélé que l’équipe, formée pour la première fois en 2018, avait négligé de travailler sur des problèmes tels que l’amplification algorithmique de la désinformation et de la polarisation en raison de ses œillères. se concentrer sur le biais de l’IA. L’entreprise publié un article de blog peu de temps après, soulignant l’importance de ce travail et affirmant en particulier que Facebook cherche à «mieux comprendre les erreurs potentielles susceptibles d’affecter notre système publicitaire, dans le cadre de notre travail continu et plus large pour étudier l’équité algorithmique des publicités».

«Nous avons pris des mesures significatives pour résoudre les problèmes de discrimination dans les publicités et des équipes travaillent aujourd’hui sur l’équité des publicités», a déclaré le porte-parole de Facebook Joe Osborn dans un communiqué. « Notre système prend en compte de nombreux signaux pour essayer de diffuser les publicités qui les intéresseront le plus, mais nous comprenons les préoccupations soulevées dans le rapport … Nous continuons à travailler en étroite collaboration avec la communauté des droits civiques, les régulateurs et les universitaires. sur ces questions importantes.

Malgré ces affirmations, cependant, Korolova dit qu’elle n’a trouvé aucun changement notable entre l’audit de 2019 et celui-ci dans le fonctionnement des algorithmes de diffusion d’annonces de Facebook. «De ce point de vue, c’est en fait vraiment décevant, car nous avons porté cela à leur attention il y a deux ans», dit-elle. Elle a également proposé de travailler avec Facebook pour résoudre ces problèmes, dit-elle. « Nous n’avons pas eu de réponse. Au moins pour moi, ils ne m’ont pas contacté. »

Lors d’entretiens précédents, la société a déclaré qu’elle n’était pas en mesure de discuter des détails de la manière dont elle travaillait pour atténuer la discrimination algorithmique dans son service de publicité en raison d’un litige en cours. L’équipe de publicité a déclaré que ses progrès avaient été limités par des défis techniques.

Sapieżyński, qui a maintenant effectué trois audits de la plate-forme, affirme que cela n’a rien à voir avec le problème. «Facebook n’a toujours pas reconnu qu’il y avait un problème», dit-il. Pendant que l’équipe résout les problèmes techniques, ajoute-t-il, il existe également une solution provisoire simple: elle pourrait désactiver le ciblage publicitaire algorithmique spécifiquement pour le logement, l’emploi et les annonces de prêt sans affecter le reste de son service. C’est vraiment juste une question de volonté politique, dit-il.

Christo Wilson, un autre chercheur de Northeastern qui étudie les biais algorithmiques mais qui n’a pas participé aux recherches de Korolova ou Sapieżyński, est d’accord: «Combien de fois les chercheurs et les journalistes doivent-ils trouver ces problèmes avant d’accepter simplement que l’ensemble du système de ciblage publicitaire soit en faillite? ? »