En el artículo de hoy de la sección evidencias, comentamos los resultados de un estudio publicado recientemente en la revista ‘Social Media + Society’ y titulado Fact-checking the crisis: COVID-19, Infodemics, and the Platformization of Truth. Como apuntan las autoras, el papel de las plataformas sociales y la respuesta a la infodemia son un síntoma del surgimiento de la «sociedad de las plataformas», es decir, de cómo las plataformas han penetrado en el corazón de las sociedades, afectando a las instituciones, las transacciones económicas y las prácticas sociales y culturales. En este marco, Cotter y colegas llevaron a cabo un estudio con la finalidad de explorar cómo tres plataformas sociales en concreto (YouTube, Facebook y Twitter) respondieron a la infodemia durante las primeras etapas de la pandemia en 2020 en Estados Unidos, a través de políticas y prácticas emergentes de verificación de hechos (lo que se conoce como fact-check). En este sentido, la investigación pretendía estudiar cómo estas tres plataformas integraron sus estructuras de gobierno con la infraestructura existente de verificación de hechos, una cuestión que tradicionalmente ha sido competencia de los periodistas.
El estudio partía de las siguientes preguntas de investigación: ¿cómo han respondido las plataformas al COVID-19 durante las primeras etapas de la pandemia? ¿cómo han respondido a la crisis infodémica más grande a través de políticas y prácticas sobre la verificación de hechos? ¿cómo se posicionan dentro de la infraestructura más amplia de verificación de hechos?
Cotter, DeCook y Kanthala hicieron un análisis temático de documentos oficiales en inglés emitidos por Facebook, Twitter y YouTube que abordan el fact-checking (la verificación de hechos), centrándose en documentos que mencionan el COVID-19. También realizaron un estudio de caso retrospectivo del video viral ‘Plandemic’, que contenía una serie de afirmaciones falsas sobre el COVID-19 y los funcionarios y las funcionarias del sistema de salud pública. A partir de los datos recogidos en estas fuentes secundarias, principalmente informes de los medios, las investigadoras se centraron en entender tres cuestiones en concreto: qué acciones pusieron en marcha las plataformas en relación con los videos de ‘Plandemic’, cuándo se tomaron dichas acciones y cuál fue la justificación hecha por las plataformas para tomar estas medidas.
Los resultados del estudio apuntan que, en los primeros días de la pandemia, Facebook, Twitter y YouTube focalizaron sus esfuerzos en gestionar la visibilidad de la información errónea/desinformación sobre el COVID-19 en sus sitios a través de políticas y prácticas (a menudo descritas de forma vaga) llenas de contenido de carácter subjetivo. Tal y como comentan las investigadoras, esto representa una rearticulación de la insistencia de las plataformas en que ellas como tal no son árbitras de la verdad, des-responsabilizándose por lo tanto de si el tipo de contenido que tienen que permitir debe o no ser veraz. Las tres plataformas emplearon prácticas para verificar la información a través de la verificación de hechos basándose en una combinación tanto de algoritmos como de personal dedicado a ello. Asimismo, Twitter, YouTube y Facebook sí que eliminaron o etiquetaron contenido considerado falso o inexacto y en otros casos lo ‘degradaron’. Si bien estas políticas y prácticas pueden ayudar a mitigar la propagación de información errónea o contenidos que conllevan claramente la desinformación, como se observó con el caso del video ‘Plandemic’, no siempre limitan la exposición de los bulos de manera efectiva o suficiente.
Además de esto, el estudió apunta a que las plataformas querían regular la visibilidad de los hechos y los bulos de acuerdo con evaluaciones de riesgo subjetivas realizadas internamente, pero que no fueron compartidas en abierto, lo que apunta a una falta de transparencia sobre este proceso de verificación de datos. Tanto Facebook como Twitter tenían políticas que dictaban que la información falsa solo se eliminaría si existiera un potencial de daño; de lo contrario, sería degradada (Facebook) y etiquetada (Facebook y Twitter). Según apuntan las autoras, esto crea una jerarquía esencial de información falsa sobre el COVID-19 basada en juicios sobre las afirmaciones falsas o inexactas que probablemente, como lo expresó Facebook, “contribuyan a un daño físico inminente”. Como se observó con ‘Plandemic’, tales juicios son muy subjetivos: mientras que Facebook identificó una afirmación en el video que creían que podría conducir a un “daño inminente”, Twitter aparentemente no juzgó el video como generador de daño en el mundo real, con base en su decisión de no eliminar el vídeo.
Con todo, esta investigación demuestra cómo los regímenes de verificación de datos de plataformas sociales como son Twitter, Facebook o YouTube encarnan lo que las autoras llaman “una ideología ciber-libertaria” que acaba rigiendo las decisiones que se toman, incitando así a sus usuarios, usuarias, socias y socios de verificación de datos a convertirse en sujetos de sus reglas.
Comparte esto:
- Haz clic para compartir en Facebook (Se abre en una ventana nueva)
- Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)
- Haz clic para compartir en Twitter (Se abre en una ventana nueva)
- Haz clic para compartir en Telegram (Se abre en una ventana nueva)
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)
- Haz clic para imprimir (Se abre en una ventana nueva)
- Haz clic para compartir en Reddit (Se abre en una ventana nueva)
- Más