Comment l’IA renforce les préjugés sexistes, et ce que l’on peut faire pour tenter d’y remédier

Entretien avec Zinnya del Villar sur les biais sexistes de l’intelligence artificielle et la mise au point d’une technologie inclusive

L’intelligence artificielle (IA) transforme notre monde, mais lorsqu’elle reflète les préjugés existants, elle peut renforcer la discrimination à l’égard des femmes et des filles. Des décisions d’embauche aux diagnostics de santé, les systèmes d’IA peuvent amplifier les inégalités entre les sexes lorsqu’ils sont entraînés avec des données biaisées. Comment pouvons-nous donc faire en sorte que l’IA soit éthique et inclusive ? Lors d’une récente discussion avec ONU Femmes, Zinnya del Villar, éminente experte en IA responsable, a exposé le problème et proposé des solutions en la matière.

Image
Préjugés sexistes et racistes dans les technologies de l’IA. Photo : ONU Femmes / Ana Norman Bermudez.
Préjugés sexistes et racistes dans les technologies de l’IA. Photo : ONU Femmes / Ana Norman Bermudez.

Que sont les biais sexistes de l’IA et pourquoi est-il important d’en parler ?

« Les systèmes d’IA, qui apprennent à partir de données remplies de stéréotypes, reflètent et renforcent bien souvent les préjugés sexistes », explique Zinnya del Villar. « Ces préjugés peuvent limiter les possibilités des femmes et des filles et la diversité, surtout dans des domaines tels que la prise de décision, l’embauche, l’approbation de prêts et les décisions judiciaires. »

L’IA est, fondamentalement, une question de données. Il s’agit d’un ensemble de technologies qui permettent aux ordinateurs d’effectuer des tâches complexes plus vite que les humains. Les systèmes d’IA, tels que les modèles d’apprentissage automatique, apprennent à effectuer ces tâches à partir des données utilisées pour les entraîner. Lorsque ces modèles reposent sur des algorithmes biaisés, ils peuvent renforcer les inégalités existantes et alimenter la discrimination fondée sur le genre dans le domaine de l’IA.

Imaginez que l’on apprenne à une machine à prendre des décisions d’embauche en lui montrant des exemples du passé. Si la plupart de ces exemples comportent des préjugés conscients ou inconscients, par exemple en montrant des scientifiques masculins et des infirmières, l’IA peut en déduire que les hommes et les femmes conviennent mieux à certains rôles, et prendre des décisions biaisées lors du filtrage des candidatures.

C’est ce que l’on appelle les biais sexistes de l’IA – lorsque l’IA traite les gens différemment en fonction de leur sexe, parce que c’est ce qu’elle a appris des données biaisées utilisées pour l’entraîner.

Quels sont les effets des biais sexistes des applications de l’IA ?

Les biais sexistes de l’IA ont de graves conséquences dans la vie réelle.

« Dans des domaines critiques tels que les soins de santé, l’IA peut se concentrer davantage sur les symptômes masculins, ce qui entraînera un diagnostic erroné ou un traitement inadapté pour une femme », explique Mme del Villar. « Les assistants vocaux qui utilisent par défaut des voix féminines renforcent les stéréotypes selon lesquels les femmes sont adaptées aux rôles de service, et les modèles linguistiques tels que GPT et BERT associent souvent des emplois comme celui d’“infirmier/infirmière” aux femmes et celui de “scientifique” aux hommes. »

Mme del Villar cite quelques exemples de biais sexistes de l’IA qui ont été bien documentés : En 2018, Amazon a abandonné un outil de recrutement par IA qui favorisait les CV d’hommes. Les systèmes de reconnaissance d’images des entreprises ont eu du mal à identifier correctement les femmes, et en particulier les femmes de couleur, ce qui a conduit à des erreurs d’identification, lesquelles peuvent avoir de graves conséquences pour le maintien de l’ordre et la sécurité publique.

Image
L’équipe « Empowerment » a remporté la première place du Datathon sur le genre pour son projet sur les stéréotypes de genre contre les conductrices en Albanie. Photo : ONU Femmes.
L’équipe « Empowerment » a remporté la première place du Datathon sur le genre pour son projet sur les stéréotypes de genre contre les conductrices en Albanie. Photo : ONU Femmes.

Comment peut-on atténuer les biais sexistes des systèmes d’IA ?

L’intelligence artificielle reflète les préjugés présents dans notre société sur la base du sexe, de l’âge, de la race et de nombreux autres facteurs.

« Pour atténuer les biais sexistes de l’IA, il est capital que les données utilisées pour entraîner les systèmes d’IA soient diversifiées et représentent tous les sexes, toutes les races et toutes les communautés », précise Mme del Villar. « Cela signifie qu’il faut sélectionner activement des données qui reflètent différents milieux sociaux, différentes cultures et différents rôles, tout en éliminant les préjugés historiques, tels que ceux qui associent certains emplois ou traits de caractère à un sexe. »

« En outre, les systèmes d’IA devraient être créés par des équipes de développement diversifiées, composées de personnes de sexes différents et de différentes races et cultures. Cela favoriserait l’apport de différentes perspectives dans le processus de création et une diminution des “angles morts” qui peuvent conduire à des systèmes d’IA biaisés. »

La sensibilisation et l’éducation du grand public sont des éléments essentiels de cette stratégie, ajoute Mme del Villar. En aidant les gens à comprendre le fonctionnement de l’IA et les biais potentiels de ces systèmes, on peut leur donner les moyens de reconnaître et de prévenir les biais, mais aussi les inciter à maintenir un contrôle humain sur les processus décisionnels.

Comment l’IA peut-elle contribuer à identifier les biais sexistes et à prendre de meilleures décisions ?

Bien que les données générées par l’IA comportent des risques de biais sexistes, elles offrent également un important potentiel de détection et d’élimination des inégalités entre les sexes dans tous les secteurs. Par exemple, l’IA a contribué à l’analyse de grandes quantités de données visant à établir les écarts de rémunération entre les hommes et les femmes, et des outils comme Glassdoor montrent les différences de rémunération en fonction du sexe.

Dans le domaine de la finance, l’IA permet de surmonter les préjugés sexistes de longue date dans l’évaluation du crédit, comme en témoignent des entreprises telles que Zest AI, qui utilisent l’apprentissage automatique pour réaliser des évaluations de crédit plus équitables. L’IA améliore aussi l’accès des entrepreneures aux services de microfinance, en les aidant à accéder à des prêts et à des services financiers, en particulier dans les zones mal desservies.

L’IA a contribué à révéler la disparité en fonction du sexe du nombre d’inscriptions sur des plateformes telles que Coursera et edX , et elle a mis au jour des préjugés dans les manuels scolaires, ce qui a permis aux enseignant.e.s de réviser leur matériel pédagogique pour le rendre plus inclusif.

« L’IA suit la représentation des deux sexes aux postes de direction et encourage l’utilisation de quotas de femmes pour remédier aux inégalités », explique Mme del Villar. « Elle peut également contribuer à l’analyse et à la préparation de lois sensibles au genre en identifiant les modes de discrimination fondée sur le sexe et en proposant des réformes. À l’avenir, l’IA pourrait aider les gouvernements à évaluer les effets potentiels des lois proposées pour les femmes, et contribuer à prévenir la discrimination basée sur le genre et l’inégalité entre les sexes. »

Image
Zinnya del Villar anime des ateliers sur l’analyse sexospécifique des données et l’IA responsable lors du premier « Gender Datathon », en Albanie. Photo : ONU Femmes.
Zinnya del Villar anime des ateliers sur l’analyse sexospécifique des données et l’IA responsable lors du premier « Gender Datathon », en Albanie. Photo : ONU Femmes.

Comment l’IA peut-elle améliorer la sécurité des femmes et mettre fin aux violences numériques ?

Si la violence à l’égard des femmes et des filles facilitée par la technologie, en ligne et hors ligne, constitue une préoccupation croissante, de nombreuses avancées prometteuses dans le domaine de l’IA offrent des solutions innovantes pour lutter contre les violences numériques et protéger les survivantes.

Par exemple, des applications mobiles comme bSafe proposent des alertes de sécurité pour protéger les femmes, tandis que le site Botler.ai, basé au Canada, aide les victimes à comprendre si les incidents de harcèlement sexuel dont elles ont été victimes, violent le Code pénal américain ou le droit canadien. Des chatbots comme « Sophia » de Spring ACT et « rAInbow » d’AI for Good apportent un soutien anonyme aux survivantes et les aident à contacter des services juridiques et à accéder à d’autres ressources.

« Les algorithmes alimentés par l’IA peuvent également servir à rendre l’espace numérique sûr pour toutes et tous, en détectant et en supprimant les contenus préjudiciables et discriminatoires et en mettant fin à la diffusion d’images intimes non consensuelles », ajoute Mme del Villar.

Cinq étapes vers des systèmes d’IA plus inclusifs

L’intelligence artificielle peut être utilisée pour réduire ou perpétuer les préjugés et les inégalités dans nos sociétés. Voici les cinq étapes recommandées par Mme Villar pour rendre l’IA inclusive – et l’améliorer.

  • Utiliser des ensembles de données diversifiés et représentatifs pour entraîner les systèmes d’IA
  • Améliorer la transparence des algorithmes des systèmes d’IA
  • Veiller à ce que les équipes de développement et de recherche en matière d’IA soient diversifiées et inclusives afin d’éviter les angles morts 
  • Adopter de solides cadres éthiques pour les systèmes d’IA
  • Intégrer des politiques tenant compte des questions de genre dans le développement des systèmes d’IA