Photo de Tim Douglas provenant de Pexels

Ce texte a été rédigé par Carolane Villeneuve, chargée de projet en communication chez Arsenal

Les algorithmes : catalyseurs et porteurs potentiels de discrimination

2022-02-14

Communications

En septembre 2021, l’algorithme de Facebook est accusé de racisme. Suite au visionnement d’une vidéo montrant des personnes noires, les utilisateurs ont reçu une question troublante de la part Facebook : « Voir plus de vidéo sur les primates ? ». Ce n’est pas la première fois que les limites de l’intelligence artificielle se font ressentir.

Dans cet article, nous démystifions pourquoi les algorithmes font défaillance et comment chacun d’entre nous peut faire une différence.

Comment l’intelligence artificielle (IA), non-humaine, devient-elle porteuse de propos racistes ?

D’abord, l’algorithme est l’un des éléments essentiels dans la performance de l’IA. En effet, pour que cette dernière soit en mesure de jauger l’exactitude d’une information et de la formaliser, elle se sert d’une base de données. Chez les médias socionumériques, les algorithmes se perfectionnent grâce à l’exploitation de milliers de données, notamment des vidéos, des textes et des images. Toutefois, ce qui est recueilli provient des utilisateurs, qui souvent, regorgent de biais sociaux et raciaux. L’explication est simple avec le scandale de Facebook, l’algorithme a probablement exploité des textes et des images associant malheureusement des personnes noires à des singes. À l’heure actuelle, l’IA n’est pas en mesure de déceler les stéréotypes et les préjugés des informations véridiques.

Or, le géant du Web social n’est pas la seule victime des limites de l’IA. Le Massachusetts Institute of Technology (MIT) a, quant à lui, décidé d’intervenir dans la lutte contre les biais du secteur des technologies. La base de données “80 Million Tiny Images” a ainsi été retirée de son site Internet, à la suite de nombreuses associations entre des images de femmes et de personnes noires à des termes misogynes et racistes.

Ces multiples erreurs de l’intelligence artificielle mettent en lumière une conclusion déplorable : les algorithmes sont en réalité le triste reflet d’une société portée parfois par des idéaux racistes et misogynes.

Prendre part au changement en identifiant ses propres biais cognitifs

Dans le rapport réalisé par l’Institut Montaigne, les auteur.es soulignent que le combat des biais algorithmiques fait référence à une problématique beaucoup plus grande, soit la discrimination dans la société. Les changements doivent ainsi s’opérer à plusieurs niveaux, notamment chez les citoyens. Une prise de conscience collective des biais cognitifs est la première étape pour briser ce cercle vicieux.

Portée par cette vision, deux doctorantes en psychologie à l’UQAM ont mis sur pied RACCOURCIS, une encyclopédie virtuelle visant à répertorier et vulgariser les différents biais cognitifs. Les auteures rappellent que personne n’est à l’abri des raccourcis de la pensée, car ils sont généralement inconscients. Concrètement, les biais :

« agissent en quelque sorte comme des automatismes et peuvent être liés à des émotions — peur, colère, anxiété — ou à des habitudes de pensée acquises depuis longtemps, explique la cofondatrice, Cloé Gratton. Ils surviennent, notamment, dans des contextes où l’on doit prendre une décision ou porter un jugement rapidement. »

Le scandale entourant l’outil de recommandation de Facebook lève le voile sur le biais dit d’« essentialisme » qui est au cœur de nombreuses discriminations. Ce dernier est associé à l’endossement de stéréotypes et de préjugés envers des groupes sociaux. C’est en fait une perception simplifiée et englobante d’une réalité beaucoup plus complexe et qui est souvent méconnue. Un exemple répandu en société est la déduction simpliste du sexe d’une personne par une caractéristique, soit la longueur des cheveux. Une personne ayant de longs cheveux serait ainsi associée au genre féminin.

À l’heure actuelle, l’IA n’est pas en mesure de déceler les stéréotypes et les préjugés des informations véridiques.

Pour lutter contre ce biais, RACCOURCIS offre quelques pistes de solutions afin de lutter contre nos biais cognitifs :
•Prendre conscience de la complexité des groupes sociaux;
•S’instruire sur l’interaction entre des différences réelles entre les groupes et les constructions sociales véhiculées à leur endroit;
•Diversifier son réseau social et prendre contact avec des gens issus d’autres groupes sociaux afin de reconnaître leur individualité.

Maintenant, quels changements peuvent s’opérer au cœur de l’IA ?

Dans le rapport de l’Institut Montaigne, l’enjeu soulevé par les auteur.es est de réduire le risque de biais sans nuire à la performance de l’algorithme. Les recommandations émises portent autant sur le volet technique que social :
•Tester la présence de biais dans les algorithmes comme l’on teste les effets secondaires des médicaments. Par exemple, effectuer un test avec des données sensibles, telles que l’âge, le genre et l’origine sociale pour détecter les possibles biais;
•Promouvoir une équité active, plutôt que d’espérer l’équité en ne mesurant pas la diversité. Cela consiste à un encadrement strict lors de la collecte et de l’utilisation d’une base de données;
•Assurer la diversité des équipes de conception et de déploiement des algorithmes;
•Être plus exigeant pour les algorithmes ayant un fort impact sur les personnes (droits fondamentaux, sécurité, accès aux services essentiels, etc.).

En somme, la lutte contre les biais algorithmiques n’est pas réservée aux travailleurs du secteur des technologies, mais s’étend à l’ensemble de la population. Devenir allié débute avec une prise de conscience collective de ses propres raccourcis de la pensée et de ceux de son entourage.