En la medida en la que se generaliza y expande el uso de modelos y espacios basados en Inteligencia Artificial, es imprescindible investigar cómo hacer que sean seguros para todos y todas, sobre todo quienes más lo necesitan. Por ejemplo, han salido ya varios casos de acoso hacia mujeres en espacios de IA. Para hacer una IA segura, el Frontier Model Forum (FMF), un colectivo sin ánimo de lucro sobre seguridad en IA, está colaborando con diferentes empresas y organizaciones.
La mayoría de las empresas más importantes de desarollo de IA ya se han unido como Google, Amazon, Microsoft u OpenAI, Meta, entre otras, como miembros de FMF. Uno de los objetivos principales es investigar y desarrollar mejores prácticas en seguridad en IA.
En cualquier ámbito, incluida la tecnología, es esencial identificar, estudiar e implementar actuaciones de éxito que logran los mejores resultados en contextos muy diversos.
PhD de la Universidad de Wisconsin-Madison
Comparte esto:
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para imprimir (Se abre en una ventana nueva)
- Haz clic para compartir en Reddit (Se abre en una ventana nueva)
- Más