Cómo la inteligencia artificial refuerza los sesgos de género y qué podemos hacer al respecto

Entrevista con Zinnya del Villar sobre los sesgos de género en la inteligencia artificial y cómo podemos crear una tecnología inclusiva

La inteligencia artificial (IA) está transformando nuestro mundo. Sin embargo, cuando refleja los sesgos imperantes, refuerza la discriminación contra las mujeres y niñas. Desde decisiones de contratación hasta diagnósticos de salud, los sistemas de IA pueden amplificar las desigualdades de género cuando se nutren de datos sesgados. ¿De qué manera podemos garantizar entonces que la IA sea ética e inclusiva? Zinnya del Villar, experta destacada en el campo de la IA responsable, comparte con ONU Mujeres su perspectiva sobre los desafíos y soluciones.

Image
Género y sesgos raciales en las tecnologías de IA. Foto: ONU Mujeres/Ana Norman Bermúdez.
Género y sesgos raciales en las tecnologías de IA. Foto: ONU Mujeres/Ana Norman Bermúdez.

¿Qué son los sesgos de género en la IA y por qué es importante hablar de ellos?

“A menudo, los sistemas de IA, que se nutren de datos llenos de estereotipos, reflejan y refuerzan los sesgos de género”, afirma Zinnya del Villar. “Estos sesgos pueden limitar las oportunidades y la diversidad, en especial, en ámbitos como la toma de decisiones, las contrataciones, el otorgamiento de préstamos y los fallos judiciales”.

En el fondo, la inteligencia artificial está compuesta de datos. Es un conjunto de tecnologías que le permite a las computadoras hacer tareas complejas más rápido que los seres humanos. Los sistemas de IA, como los modelos de aprendizaje automático, aprenden a hacer tareas a partir de los datos con que se alimentan. Cuando estos modelos se nutren de algoritmos sesgados, refuerzan las desigualdades imperantes y fomentan la discriminación de género en la IA.

Imagina esta situación: entrenamos a una máquina para que tome decisiones de contratación con base en ejemplos del pasado. Si la mayoría de estos ejemplos están impregnados de sesgos conscientes o inconscientes —como mostrar a los hombres como científicos y a las mujeres como enfermeras—, la IA puede interpretar que los hombres y las mujeres tienen capacidades distintas para determinadas funciones y tomar decisiones sesgadas al filtrar las solicitudes.

Esta situación se denomina sesgos de género en la IA, es decir, cuando la IA trata a las personas de manera diferente según su género porque es lo que aprendió de los datos sesgados con que se alimentó.

¿Cuáles son las consecuencias de los sesgos de género en las solicitudes hechas con IA?

Los sesgos de género en la IA tienen profundas consecuencias en la vida real.

“En áreas fundamentales como la salud, la IA puede enfocarse en los síntomas de los hombres, lo que puede causar diagnósticos erróneos o tratamientos inadecuados para las mujeres”, comparte Del Villar. “Al emplear voces femeninas, los asistentes de voz refuerzan el estereotipo de que las mujeres están más capacitadas para llevar a cabo funciones de servicio; y los modelos lingüísticos de GPT y BERT a menudo asocian los empleos en ‘enfermería’ con mujeres y ‘ciencia’ con hombres”.

Del Villar comparte los siguientes ejemplos bien documentados de sesgos de género en la IA: en 2018, Amazon dejó de usar una herramienta de IA para contratar personas ya que favorecía los currículums de hombres. Por otro lado, los sistemas de reconocimiento de imagen de las empresas han tenido dificultades para identificar adecuadamente a las mujeres, en particular a las mujeres de color, lo que conduce a identificaciones erróneas con graves consecuencias para el cumplimiento de la ley y la seguridad pública.

Image
El equipo “Empowerment” ganó el primer lugar en Gender Datathon, un maratón de datos de género, por un proyecto que aborda los estereotipos de género contra las mujeres conductoras en Albania. Foto: ONU Mujeres.
El equipo “Empowerment” ganó el primer lugar en Gender Datathon, un maratón de datos de género, por un proyecto que aborda los estereotipos de género contra las mujeres conductoras en Albania. Foto: ONU Mujeres.

¿De qué manera podemos reducir los sesgos de género en los sistemas de IA?

La inteligencia artificial reproduce los sesgos presentes en nuestra sociedad en temas como género, edad, o raza, por mencionar algunos.

“Para reducir los sesgos de género en la IA, resulta fundamental alimentar sus sistemas con datos diversos que representen todos los géneros, razas y comunidades”, señala Del Villar. “Es decir, seleccionar activamente datos que reflejen distintas circunstancias sociales, culturas y funciones, y eliminar sesgos históricos, como aquellos que asocian determinados empleos o rasgos con un género”.

“Asimismo, los sistemas de IA deberían ser creados por equipos de desarrollo diversos formados por personas de distintos géneros, razas y orígenes culturales. De esta manera, el proceso se nutre de distintas perspectivas y se reducen los puntos ciegos que pueden causar sistemas de IA sesgados”.

Del Villar agrega que la concientización y educación de la opinión pública son fundamentales para dicha estrategia. Las personas, al entender cómo funciona la IA y sus posibles sesgos, pueden empoderarse para reconocer y prevenir sistemas sesgados, y conservar la supervisión humana en los procesos de toma de decisión.

¿De qué manera la IA puede ayudar a identificar los sesgos de género e impulsar mejores decisiones?

Si bien los datos generados con IA pueden reproducir sesgos de género, también tienen gran potencial para identificar y atender las desigualdades de género en muchos sectores. Por ejemplo, la IA ha permitido analizar grandes cantidades de datos para encontrar brechas salariales de género en la fuerza laboral, con herramientas como Glassdoor, que muestran diferencias salariales por género.

En las finanzas, la IA está permitiendo superar sesgos de género históricos la en calificación crediticia, como puede verse en empresas como Zest AI, que emplea aprendizaje automático para hacer evaluaciones crediticias más justas. La IA también está mejorando el acceso a los servicios de micro financiamiento para mujeres emprendedoras, de modo que puedan acceder a préstamos y servicios financieros, en particular en zonas desatendidas.

La IA ha contribuido a revelar la disparidad entre hombres y mujeres en las tasas de inscripción a plataformas como Coursera y edX, además de descubrir sesgos en textos escolares y ayudar a docentes a revisar los materiales de aprendizaje para que sean más inclusivos.

La IA está evaluando la representación de género en funciones de liderazgo y alentando el uso de cuotas de género para atender las desigualdades“, comparte Del Villar. “También puede asistir en el análisis y la redacción de leyes sensibles al género al identificar patrones de discriminación por motivos de género y proponer reformas. En el futuro, la IA podría ayudar a los gobiernos a evaluar las posibles consecuencias de género de las leyes propuestas y colaborar para prevenir la discriminación y la desigualdad de género”.

Image
Zinnya del Villar imparte sesiones sobre análisis de datos de género e IA responsable durante el primer Gender Datathon, un maratón de datos de género, en Albania. Foto: ONU Mujeres.
Zinnya del Villar imparte sesiones sobre análisis de datos de género e IA responsable durante el primer Gender Datathon, un maratón de datos de género, en Albania. Foto: ONU Mujeres.

¿De qué manera la IA puede mejorar la seguridad de las mujeres y frenar el abuso digital?

Si bien la violencia contra las mujeres y niñas facilitada por la tecnología, ya sea en línea o fuera de ella, es una preocupación creciente, existen muchos avances prometedores en el ámbito de la IA, que ofrecen soluciones innovadoras para atender el abuso digital y proteger a las supervivientes.

Por ejemplo, algunas aplicaciones para telefonía móvil como bSafe ofrecen alertas de seguridad para proteger a las mujeres, y Botler.ai, una empresa canadiense, ayuda a las víctimas a establecer si los incidentes de acoso sexual que sufrieron violan el código penal de los Estados Unidos o la ley canadiense. Algunos chatbots, como “Sophia” de Spring ACT y ““rAInbow” de AI for Good, dan apoyo anónimo y conectan a supervivientes con servicios jurídicos y otros recursos.

“También pueden emplearse algoritmos alimentados con IA para lograr que el espacio digital sea seguro para todas las personas, detectar y eliminar contenido discriminatorio y nocivo, y detener la propagación de imágenes íntimas no consentidas”, agrega Del Villar.

Cinco pasos para lograr sistemas de IA más inclusivos

La inteligencia artificial puede usarse para reducir o perpetuar los sesgos y las desigualdades que imperan en nuestras sociedades. Del Villar comparte las siguientes cinco recomendaciones para lograr una IA más inclusiva y, por tanto, mejor.

  • Usar conjuntos de datos diversos y representativos para entrenar los sistemas de IA
  • Mejorar la transparencia de los algoritmos en los sistemas de IA
  • Garantizar la diversidad e inclusión de los equipos de investigación y desarrollo de la IA para evitar puntos ciegos
  • Adoptar sólidos marcos éticos para los sistemas de IA
  • Integrar políticas sensibles al género en el desarrollo de los sistemas de IA