En los últimos años los modelos de lenguaje de Inteligencia Artificial (AI) están logrando muchos avances. El modelo GPT-2 de OpenAI lanzado el año pasado lograba escribir líneas de textos comprensibles en diferentes estilos a partir de una frase inicial; desde hace unos meses, dando un gran salto desde aquel modelo, el GPT-3 ya es capaz de escribir textos enteros convincentes como si fueran escritos por personas humanas. Sin embargo, más recientemente ha salido la noticia de un nuevo sistema de AI centrado, no tanto en imitar el lenguaje humano para crear nuevos textos, sino más bien en la creación de información factual.

Se trata de un nuevo sistema creado por la start-up Diffbot, cuyo director ejecutivo explica que mientras el modelo de GPT-3 es muy bueno para imitar el lenguaje humano, no entiende lo que dice y por lo tanto no está entrenado para generar textos fiables y fácticos. Es por eso que para su modelo, utilizan un enfoque diferente: una AI que lea todas las páginas públicas de internet en diferentes idiomas para extraer información de los datos comprobados. En lugar de crear textos, este nuevo sistema crea series de datos de tres partes que relacionan el sujeto con el verbo y el objeto. Después estos datos se unen a otros existentes en una red de datos, generando gráficos de conocimiento. Tal y como indica la investigadora en procesamiento del lenguaje natural y representación del conocimiento Victoria Lin, este sistema evita tener que invertir todo el esfuerzo humano que requiere crear una gran base de conocimientos. 

Científicos y científicas pueden acceder de manera gratuita a los gráficos de conocimiento que se van creando y actualizando cada pocos días. En un futuro, lo que se pretende crear es lo que el director ejecutivo de Diffbot llama “un sistema universal de respuesta a preguntas fácticas”, es decir, que pueda responder a casi cualquier pregunta ofreciendo información contrastada y fuentes que la verifiquen. Estos sistemas pueden suponer un gran avance para hacer frente a la infodemia y otras fake news.

Secciones: subportada

Si quieres, puedes escribir tu aportación