La machine learning y big data tienen cada vez un rol más relevante en la toma de decisiones, desde a quién se entrevista para una oferta de trabajo, a quién se admite en una escuela, o quién recibe un préstamo, entre muchos otros ejemplos. Las decisiones tomadas por personas pueden estar guiadas por prejuicios de todo tipo o estar sesgadas. Sin embargo, aunque las decisiones tomadas por la tecnología tengan ventajas como, por ejemplo, la capacidad de procesar muchísimos datos, no están libres de estos sesgos y prejuicios. Y es que, los sistemas de machine learning se entrenan replicando decisiones presentes en los datos que se les presentan, por lo que muchas veces pueden tomar decisiones que, sin quererlo, discriminen a las personas y comunidades más marginadas y vulnerables.

Es por esto que cada vez más investigadores e investigadoras están trabajando por crear sistemas de Inteligencia Artificial (AI) y machine learning que tomen decisiones más justas. Entre ellas se encuentra Hanna Wallach, investigadora principal senior de Microsoft Research New York. Su investigación trata temas relacionados con la justicia, responsabilidad, transparencia y ética en AI y machine learning. Para ello, colabora con investigadores e investigadoras de diferentes disciplinas, desde las áreas de STEM a la sociología o ciencias políticas, entre muchas otras. Junto con diferentes investigadores e investigadoras, su trabajo en los últimos años se centra en cómo hacer frente a los múltiples retos que conlleva crear una AI y machine learning justas, y han creado un método para cambiar cualquier clasificador común en un clasificador justo, siguiendo una gran variedad de definiciones de justicia. Este tipo de técnicas se llaman “reducciones”, ya que reducen el problema que pretenden solucionar a otro problema estándar para el que ya hay diferentes algoritmos que pueden ayudar a solucionarlo. 

Con esta metodología, Wallach y su equipo están contribuyendo al debate sobre sistemas de AI más justos, aunque también dejan abiertas más preguntas y futuras investigaciones para seguir logrando una machine learning que nos ayude a tomar decisiones sin discriminar a nadie.