
Se habla mucho de sistemas de inteligencia artificial, pero poco sabemos en general sobre cómo se entrenan. Oímos conceptos como la caja negra que controla nuestra vida diaria, como la concesión de un crédito, un diagnóstico médico, o la sentencia en un tribunal de justicia. Tal y como se expone en este reportaje de El País, hay bastantes ejemplos de cómo varios sistemas de inteligencia artificial han dado resultados basados en prejuicios y han impactado negativamente en la vida de las personas afectadas. Pero también existen ejemplos de cómo hay sistemas de inteligencia artificial aplicados que impactan positivamente.
¿De qué depende?
Depende de qué datos se le han dado al sistema para aprender. Y estos datos son la clave. Si el sistema está recibiendo como variables inputs sesgados, ocurrentes, prejuiciosos, lo que va a dar como resultado va a ser precisamente un resultado ocurrente y prejuicioso. Ahí radica la importancia de reivindicar la transparencia sobre el proceso de entrenamiento de los sistemas de inteligencia artificial; como ciudadanas, tenemos derecho a saber qué datos se están dando para aprender, si se basan en evidencias científicas o en ocurrencias, porque luego van a ser esos sistemas los que faciliten los sistemas de toma de decisión.
Pongamos un ejemplo. Imaginaos que dirigís un centro educativo y que se ha implementado un sistema de inteligencia artificial (IA) para facilitar la toma de decisión de cómo agrupar al alumnado. Imaginemos que este sistema, en lugar de haber sido entrenado con datos basados en evidencias científicas, se ha entrenado con datos ocurrentes. El resultado es catastrófico, se pueden llegar a reproducir decisiones que conducen al fracaso escolar.
Por eso es importante que la ciudadanía sepamos que tenemos derecho a conocer cómo se han entrenado a las máquinas, es decir, que a las personas que nos den esos sistemas les preguntemos ¿con qué datos habéis entrenado los sistemas de IA? ¿En qué evidencias científicas están basados? ¿Cuáles son las variables utilizadas que contemplan los derechos humanos?
La caja negra se disipa cuando las preguntas van dirigidas a transparentar el proceso; la tecnología está creada por los seres humanos, por tanto, si la hemos creado, sabemos cómo se ha creado y, por tanto, no hay ningún punto de fuga, se puede perfectamente conocer su funcionamiento. La cuestión radica en democratizar este conocimiento y participar para que se dirija al avance de la humanidad y no a su encarcelamiento.
👀 Visitas: 355

Presidenta de la Asociación CSAS (Survivors of Childred Sexual Abuse) – Science and Friendship. Directora de DF Diario Feminista. Profesora de Periodismo y Comunicación Universitat Autònoma de Barcelona.
Comparte esto:
- Haz clic para compartir en Facebook (Se abre en una ventana nueva) Facebook
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva) LinkedIn
- Haz clic para compartir en X (Se abre en una ventana nueva) X
- Haz clic para compartir en Telegram (Se abre en una ventana nueva) Telegram
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva) WhatsApp
- Haz clic para imprimir (Se abre en una ventana nueva) Imprimir
- Haz clic para compartir en Reddit (Se abre en una ventana nueva) Reddit
- Más