Investigadores e investigadoras de todo el mundo están trabajando para hacer que las nuevas tecnologías disminuyan los sesgos, por ejemplo de género o de etnia. Un ejemplo de las consecuencias negativas que tienen estos sesgos son las detenciones de personas afroamericanas inocentes a las que los algoritmos de reconocimiento facial han confundido con personas criminales.
Una de las personas que está trabajando en estos temas es Craig Watkins, de la University of Texas que está haciendo una estancia en MIT colaborando con el Institute for Data, Systems, and Society (IDSS). Watkins estudia el pacto de los sistemas basados en datos en el comportamiento humano, y en concreto en temas relacionados con el racismo sistémico, con el fin de poder construir modelos de Inteligencia Artificial que sean más efectivos ante estos problemas.
Sin embargo, cambiar los sistemas de IA y las nuevas tecnologías no es suficiente para hacer frente a estos problemas. Watkins explica que es necesario construir una sociedad alfabetizada en la IA para poder entenderla mejor y entender sus impactos de manera más dinámica.
PhD de la Universidad de Wisconsin-Madison
Comparte esto:
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para imprimir (Se abre en una ventana nueva)
- Haz clic para compartir en Reddit (Se abre en una ventana nueva)
- Más