Investigadores del Observatorio de Internet de Stanford han identificado contenido de abuso sexual infantil en LAION-5B, una base de datos masiva utilizada para entrenar inteligencias artificiales (IA) generativas, incluyendo populares modelos como Stable Diffusion. LAION-5B, con 5.850 millones de vínculos texto-imagen, busca “democratizar la investigación” en el entrenamiento de modelos multimodales a gran escala, aunque advierte sobre la naturaleza no supervisada y la presencia de contenido incómodo.

El Observatorio detectó 3.226 imágenes de niños abusados sexualmente, validando externamente 1.008. Este hallazgo sigue a informes anteriores que señalan cómo avances en aprendizaje automático permiten la creación de imágenes realistas para explotación sexual infantil mediante modelos de IA de código abierto. La novedad aquí es la confirmación de que estos modelos se entrenan directamente con material de abuso infantil de bases de datos públicas como LAION-5B, según informa La Vanguardia.

Averiguar cómo esas imágenes han llegado  a la base de datos, es importante para exigir responsabilidades. 

Secciones: Noticias

Si quieres, puedes escribir tu aportación