Investigadores del Observatorio de Internet de Stanford han identificado contenido de abuso sexual infantil en LAION-5B, una base de datos masiva utilizada para entrenar inteligencias artificiales (IA) generativas, incluyendo populares modelos como Stable Diffusion. LAION-5B, con 5.850 millones de vínculos texto-imagen, busca «democratizar la investigación» en el entrenamiento de modelos multimodales a gran escala, aunque advierte sobre la naturaleza no supervisada y la presencia de contenido incómodo.
El Observatorio detectó 3.226 imágenes de niños abusados sexualmente, validando externamente 1.008. Este hallazgo sigue a informes anteriores que señalan cómo avances en aprendizaje automático permiten la creación de imágenes realistas para explotación sexual infantil mediante modelos de IA de código abierto. La novedad aquí es la confirmación de que estos modelos se entrenan directamente con material de abuso infantil de bases de datos públicas como LAION-5B, según informa La Vanguardia.
Averiguar cómo esas imágenes han llegado a la base de datos, es importante para exigir responsabilidades.
Comparte esto:
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para imprimir (Se abre en una ventana nueva)
- Haz clic para compartir en Reddit (Se abre en una ventana nueva)
- Más