Prévenir la discrimination résultant de l’utilisation de l’intelligence artificielle

« L’émergence d’une intelligence artificielle (IA) non régulée par un processus démocratique indépendant et souverain risque de conduire à une augmentation des cas de violation des droits de l’homme, créant, perpétuant et même favorisant, consciemment ou inconsciemment, l’émergence et l’existence de graves facteurs de discrimination et d’exclusion », a souligné Christophe Lacroix (Belgique, SOC), rapporteur sur le thème « Prévenir la discrimination résultant de l’utilisation de l’intelligence artificielle » lors d’une audition organisée à Paris par la commission sur l’égalité et la non-discrimination.
Son rapport, a-t-il expliqué, a pour objet de définir et de proposer un cadre de base international en faveur d’une intelligence artificielle tournée vers l’être humain, qui repose sur des principes éthiques, sur la non-discrimination et sur l’égalité et la solidarité, et qui garantisse que les droits de chaque individu sont respectés, en particulier ceux des personnes potentiellement vulnérables telles que les travailleurs, les femmes, les personnes handicapées, les personnes âgées, les minorités ethniques, linguistiques et sexuelles, les enfants, les consommateurs et autres personnes exposées à un risque d’exclusion.

« L’intelligence artificielle manque de diversité dans sa main-d’œuvre et elle est très orientée. Ses partis pris résultent de la sous-représentation de certains groupes dans les jeux de données communs, des biais humains qui se répercutent sur les étiquettes des ensembles de données et de jeux de données reposant sur des données historiques marquées par des années d’inégalité sociale. Nous devons donc dompter les algorithmes », a confirmé Alice Coucke, scientifique chevronnée, spécialisée dans l’apprentissage automatique, Snips, Paris.

« Les nouvelles technologies et les algorithmes sont de plus en plus utilisés pour les prévisions et la prise de décision. De ce fait, la discrimination directe ou indirecte résultant de l’utilisation des algorithmes qui exploitent des mégadonnées est de plus en plus considérée comme l’un des défis les plus urgents à relever. Pour auditer les algorithmes en vue d’établir s’ils sont licites et conformes aux droits fondamentaux, on pourrait envisager, entre autres méthodes, de créer des profils qui serviraient de testeurs et de déterminer quelles données ont contribué le plus au résultat fourni par l’algorithme », a déclaré Aydan Iyigüngör de l’Agence des droits fondamentaux de l’Union européenne.
Les participants sont convenus que la transparence, l’explicabilité et la traçabilité sont essentielles à la réalisation d’un audit efficace des algorithmes, et qu’il est nécessaire de définir des garanties satisfaisantes en matière de droits fondamentaux sur la base d’une coopération internationale et d’une collaboration étroite entre statisticiens, juristes, sociologues, informaticiens et experts des différents domaines concernés.