La semana pasada se presentaba en la conferencia de Google IO un avance de una nueva herramienta basada en la inteligencia artificial (IA) que podría ayudar a identificar posibles problemas en la piel, sin pretender sustituir el asesoramiento médico. Sin embargo, según el análisis que algunas personas expertas han realizado sobre la investigación inicial publicada en Nature y Jama Network Open, la herramienta podría dar resultados negativos debido a un sesgo racial detectado. Esto ha planteado la importancia de no validarla hasta que no supere dicho sesgo, según informa Euronews.
Quizá entender la repercusión que puede tener un sesgo algorítmico en inteligencia artificial, en este caso racial, nos ayuda a entender su funcionamiento frente a otras discriminaciones como las de género. Pues, en definitiva, se trata de errores que se introducen en el conjunto de datos de la IA y que reflejan las desigualdades que persisten en la sociedad.
El funcionamiento de la herramienta de Google consiste en que las personas usuarias puedan subir tres imágenes de la zona de piel problemática y, a partir de las 65.000 imágenes anónimas de 16.114 casos individuales, podrían relacionarlas con algún tipo de afectación en la piel, cabello o uñas. Google señala que al año se dan casi 10.000 millones de búsquedas relacionadas con este interés. Sin embargo, personas del campo de la dermatología y de la digitalización de la asistencia sanitaria han detectado un error ocasionado por las imágenes de entrenamiento de la IA, las cuales carecen de la diversidad real que caracteriza a la sociedad global. Se trata de un sesgo causado por las desigualdades sociales persistentes. Pues, según se analiza, en el conjunto de datos están excluidas personas con tonos de piel más oscura al estar infrarrepresentadas en las imágenes. Se identifica que el error podría afectar de manera negativa a personas con tonos de color de piel oscuro que utilicen la herramienta, al no contar con tantos datos que estén relacionado su tono de piel y las posibles afecciones en la piel.
Este sesgo ha permitido remarcar la importancia que juega la equidad en la IA y la necesidad de tomar las medidas oportunas para que la diversidad sea representada en el conjunto de datos. Y así contribuir a eliminar las desigualdades provocadas por la discriminación para conseguir herramientas que hacen uso de la IA con un rendimiento potencial para todo el mundo que logren la mejora de la vida de todas las personas.
De momento la herramienta no está permitida para su uso público. En la Unión Europea su uso está aprobado como herramienta médica de categoría I y en Estados Unidos no está aprobada. Sin duda, son avances en las tecnologías innovadoras que permiten repensar el potencial que puede tener la IA, también para superar todo tipo de desigualdades, si consigue corregir las discriminaciones en los conjuntos de datos con que se trabaje y así eliminar el sesgo algorítmico.
Comparte esto:
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para imprimir (Se abre en una ventana nueva)
- Haz clic para compartir en Reddit (Se abre en una ventana nueva)
- Más