La inteligencia artificial (IA) a menudo se presenta como una herramienta neutral e imparcial. Sin embargo, como la IA es creada y diseñada por personas humanas, hereda los mismos sesgos que existen en la sociedad. Una forma de sesgo que se ha identificado en la IA es el sesgo de género. El sesgo de género en la IA puede tener consecuencias negativas significativas, desde limitar las oportunidades laborales hasta perjudicar a las comunidades más vulnerables. Por lo tanto, es crucial abordar todos los tipos de sesgos, y entre ellos  el sesgo de género en la IA para garantizar su uso equitativo.

Por ejemplo en el Harvard Business Review se señala que el sesgo de género en la IA se puede observar en el procesamiento del lenguaje natural (NLP) en dispositivos como Alexa de Amazon y Siri de Apple. Además, los algoritmos de incrustación de palabras pueden perpetuar estereotipos de género. Un ejemplo común que se suel compartir es que dichos sistemas a menudo asocian “hombre” con “médico” y “mujer” con “enfermera”. Estas asociaciones estereotipadas no reflejan el progreso de la sociedad, y en todo caso perpetúan las desigualdades.  También el sesgo de género en la IA puede ocurrir durante el aprendizaje automático. La falta de diversidad en las muestras de entrenamiento puede causar agujeros en el conocimiento de la IA, lo que lleva a errores de sesgo. 

En este sentido, para superar el sesgo de género en la IA, es necesario asegurarse de que las muestras de entrenamiento sean diversas, incluyendo más diversidad de género, culturales, edades y orientaciones sexuales. Además, las empresas de IA necesitan atraer a más mujeres a trabajos tecnológicos, y en última instancia entrenarlas en base a las evidencias científicas.

 

Secciones: subportada

Si quieres, puedes escribir tu aportación