top of page
Rechercher
aigirlcoppelia

Une approche pour favoriser l'équité algorithmique

L'intelligence artificielle a un impact quotidien sur les décisions touchant les individus et les sociétés de différentes manières. Nous l'utilisons déjà de multiples façons simplement en nous servant de notre téléphone portable.


Il est donc crucial que les ces systèmes n'incorporent pas des critères discriminatoires provenant des humains. L'intelligence artificielle peut être mise à contribution dans des tâches de sélection et de recommandation, comme, par exemple, pour la sélection de candidat(e)s pour un emploi. Un cas célèbre de discrimination sexiste à l'embauche a fait la manchette chez Amazon qui rejetait les candidatures féminines pour des postes techniques.


D'ailleurs les praticien(ne)s de l'apprentissage automatique et de l'apprentissage profond d'ici doivent s'assurer que leur travail ne comporte pas des biais, car les lois applicables et la Charte des droits et les libertés de la personne vont s'imposer. En Europe, le Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données est plus précis quant aux recours en présence d'un système d'intelligence artificielle discriminatoire.


Justice algorithmique


Naturellement, une machine n'a pas la responsabilité juridique pour répondre de ses actes. Or, dans le cas d'une justice algorithmique, on pourrait souhaiter un algorithme interprétable et explicable qui repose sur la responsabilité des humains le confectionnant. Dans la sphère privée, le respect du secret commercial peut rendre plus difficile la volonté de transparence.


Un travail très intéressant pour viser l'équité algorithmique, afin d'éliminer les biais sexistes et racistes dans la détection faciale a attiré mon attention : Uncovering and Mitigating Algorithmic Bias through Learned Latent Structure.


Dans ce travail, les auteur(e)s développent un nouvel algorithme pour atténuer les biais cachés, et potentiellement inconnus, dans les données d'entraînement. Leur algorithme fusionne la tâche d'apprentissage d'origine avec un auto-encodeur variationnel pour apprendre de manière non supervisée la structure latente. Il utilise ensuite de façon adaptative les distributions latentes apprises pour pondérer à nouveau l'importance de certains points (aspects) des données pendant l'entraînement de celles-ci.


Interventions visant l'équité


Comme l'expliquent ces chercheur(e)s, les interventions qui visent à introduire l'équité dans la machine se classent généralement dans l'une des trois catégories suivantes : celle qui utilise le prétraitement des données avant l'entraînement, celle qui se situe en cours de traitement pendant l'entraînement et il y a aussi le post-traitement, soit après l'entraînement des données.


Dans un autre ordre d'idées, l'apprentissage par renforcement permet la création de nouvelles données par les interactions de l'agent avec son environnement. C'est une approche que les chercheur(e)s n'ont pas utilisée ici.


Si l'on revient au travail mis en lumière ici, un auto-encodeur comporte une fonction d'encodage et de décodage qui produit une reconstruction. C'est un réseau de neurones entraîné pour essayer de reproduire en sortie les données en entrée. La reconstruction constitue un apprentissage non supervisé. Les auto-encodeurs variationnels sont une variante probabiliste des auto-encodeurs. L'échantillon latent est calculé en échantillonnant la moyenne et l'écart type.


Un auto-encodeur variationnel est capable d'identifier les exemples sous-représentés dans l'ensemble de données d'entraînement et augmente ensuite la probabilité que l'algorithme d'apprentissage échantillonne ces données.


Différents types de biais


Les auteurs(e)s expliquent que bien qu'il ait été démontré que les systèmes fondés sur l'apprentissage profond permettent d'atteindre un rendement de pointe pour bon nombre de tâches, il a également été établi que les algorithmes entraînés avec des données biaisées conduisent à une discrimination algorithmique (Bolukbasi et al. 2016; Caliskan, Bryson et Narayanan 2017). Récemment, des repères quantifiant la discrimination (Kilbertus et al. 2017; Hardt et al. 2016) et des ensembles de données conçus pour les pour évaluer l'équité de ces algorithmes (Buolamwini et Gebru 2018) ont émergé.


C'est crucial de s'attaquer à ces problèmes pour ne pas renforcer la discrimination. Il existe plusieurs types de biais. Les biais cognitifs qui favorisent les stéréotypes prenant source d'une distorsion de pensée des humains. Les biais statistiques naissant carrément des données elles-mêmes en étant erronées, non-représentatives ou datées. Et les biais économiques qui sont créés dans le but de minimiser un coût.


Amini et son équipe rappelle que l'intelligence artificielle a déjà été utilisée pour déterminer si un être humain est admissible à l'aide financière pour recevoir un prêt (Khandani, Kim, et Lo 2010), comme le temps qu'un criminel devrait passer en prison (Berk, Sorenson et Barnes 2016) tout comme comme pour déterminer les biais algorithmiques parmi certains groupes démographiques choisis (Buolamwini et Gebru 2018) et même des diagnostics et des traitements pour les patients médicaux (Mazurowski et al. 2008). Par exemple, (Klare et al. 2012) ont analysé le système de détection des visages utilisé par les États-Unis et ont découvert une précision significativement plus faible pour les femmes de couleur âgées de 18 à 30 ans. Ces études nous rappellent les graves enjeux de société et les inégalités sociales que cela peut engendrer si les biais sont maintenus.


Si vous connaissez d'autres algorithmes ou d'autres solutions pour assurer plus d'équité algorithmique, faites-moi signe. C'est de notre responsabilité de les partager à la communauté !


Le papier qui présente les travaux cités ici :


Stéphanie Tessier

Comments


bottom of page