Para combatir la desinformación (Fake News) una plataforma experimental que pone la moderación en manos de sus usuarios demuestra que la gente evalúa las publicaciones de forma eficaz y comparte sus valoraciones con los demás.
En la lucha contra la difusión de la desinformación en todas las áreas, especialmente en la política y los negocios, las plataformas de las redes sociales suelen poner a la mayoría de los usuarios en el asiento del copiloto. Las plataformas suelen utilizar algoritmos de aprendizaje automático o verificadores de hechos humanos para señalar los contenidos falsos o desinformantes para los usuarios.
“Que sea el statu quo no significa que sea la forma correcta o la única forma de hacerlo”,
dice Farnaz Jahanbakhsh, estudiante de posgrado del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT.
La estudiante y sus colaboradores realizaron un estudio en el que pusieron ese poder en manos de los usuarios de las redes sociales.
Primero encuestaron a la gente para saber cómo evitan o filtran la desinformación en las redes sociales. A partir de sus resultados, los investigadores desarrollaron un prototipo de plataforma que permite a los usuarios evaluar la exactitud de los contenidos, indicar en qué usuarios confían para evaluar la exactitud y filtrar las publicaciones que aparecen en su noticia (feed) en función de esas evaluaciones.
A través de un estudio de campo, descubrieron que los usuarios eran capaces de evaluar eficazmente las publicaciones desinformativas sin recibir ninguna formación previa. Además, los usuarios valoraron la posibilidad de evaluar las publicaciones y ver las evaluaciones de forma estructurada.
Los investigadores también observaron que los participantes utilizaban los filtros de contenido de forma diferente: por ejemplo, algunos bloqueaban todo el contenido desinformativo mientras que otros utilizaban filtros para buscar esos artículos.
Este trabajo demuestra que un enfoque descentralizado de la moderación puede conducir a una mayor fiabilidad de los contenidos en las redes sociales, afirma Jahanbakhsh. Este enfoque también es más eficiente y escalable que los esquemas de moderación centralizados, y puede resultar atractivo para los usuarios que desconfían de las plataformas, señala.
“Muchas investigaciones sobre la desinformación parten de la base de que los usuarios no pueden decidir qué es verdad y qué no, y por eso tenemos que ayudarles. No vimos eso en absoluto. Vimos que la gente realmente trata el contenido con escrutinio y también intenta ayudarse entre sí. Pero estos esfuerzos no cuentan con el apoyo de las plataformas”,
afirma Jahanbakhsh
Jahanbakhsh escribió el artículo con Amy Zhang, profesora adjunta de la Escuela Allen de Ciencias de la Computación e Ingeniería de la Universidad de Washington, y el autor principal David Karger, profesor de ciencias de la computación en el CSAIL. La investigación se presentará en la Conferencia sobre Trabajo Cooperativo Asistido por Ordenador y Computación Social.
Lucha contra la desinformación
La difusión de información errónea en Internet es un problema muy extendido. Sin embargo, los métodos actuales que utilizan las plataformas de redes sociales para marcar o eliminar los contenidos desinformados tienen sus inconvenientes.
Por ejemplo, cuando las plataformas utilizan algoritmos o verificadores de hechos para evaluar las publicaciones, eso puede crear tensiones entre los usuarios que interpretan esos esfuerzos como una violación de la libertad de expresión, entre otras cuestiones.
“A veces los usuarios quieren que la desinformación aparezca en su feed porque quieren saber a qué están expuestos sus amigos o familiares, para saber cuándo y cómo hablar con ellos sobre el tema”,
añade Jahanbakhsh.
Los usuarios a menudo intentan evaluar y señalar la información errónea por su cuenta, e intentan ayudarse mutuamente pidiendo a amigos y expertos que les ayuden a dar sentido a lo que leen. Pero estos esfuerzos pueden resultar contraproducentes porque no están respaldados por las plataformas.
Para superar estos problemas y escollos, los investigadores trataron de crear una plataforma que ofreciera a los usuarios la posibilidad de proporcionar y ver evaluaciones estructuradas de la exactitud de las publicaciones, indicar a otras personas en las que confían para que evalúen las publicaciones y utilizar filtros para controlar el contenido que se muestra en su feed.
En última instancia, el objetivo de los investigadores es facilitar que los usuarios se ayuden mutuamente a evaluar la desinformación en las redes sociales, lo que reduce la carga de trabajo para todos.
Los investigadores empezaron por encuestar a 192 personas, reclutadas mediante FaceBook y una lista de correo, para ver si los usuarios valoraban estas funciones. La encuesta reveló que los usuarios son muy conscientes de la desinformación y tratan de rastrearla y denunciarla, pero temen que sus evaluaciones puedan ser malinterpretadas.
Son escépticos ante los esfuerzos de las plataformas por evaluar los contenidos por ellos. Y, aunque les gustaría que los filtros bloquearan los contenidos poco fiables, no confiarían en los filtros gestionados por una plataforma.
A partir de esta información, los investigadores crearon un prototipo de plataforma similar a Facebook, llamado Trustnet. En Trustnet, los usuarios publican y comparten artículos de noticias reales y completos y pueden seguirse unos a otros para ver los contenidos que otros publican.
Antes de que un usuario pueda publicar cualquier contenido en Trustnet, debe calificar ese contenido como exacto o inexacto, o preguntar sobre su veracidad, que será visible para los demás.
“La razón por la que la gente comparte información errónea no suele ser porque no sepa qué es verdad y qué es mentira. Más bien, en el momento de compartirla, su atención está desviada hacia otras cosas. Si se les pide que evalúen el contenido antes de compartirlo, les ayuda a ser más perspicaces”, dice.
Los usuarios también pueden seleccionar a personas de confianza cuyas evaluaciones de contenido verán. Lo hacen de forma privada, en caso de que sigan a alguien con quien estén conectados socialmente (quizás un amigo o familiar) pero en quien no confiarían para evaluar el contenido. La plataforma también ofrece filtros que permiten a los usuarios configurar su feed en función de cómo se han evaluado las publicaciones y por quién.
Probando Trustnet
Una vez completado el prototipo, realizaron un estudio en el que 14 personas utilizaron la plataforma durante una semana. Los investigadores comprobaron que los usuarios podían evaluar eficazmente los contenidos, a menudo basándose en su experiencia, en la fuente del contenido o evaluando la lógica de un artículo, a pesar de no haber recibido formación. También eran capaces de utilizar filtros para gestionar sus contenidos, aunque los utilizaban de forma diferente.
“Incluso en una muestra tan pequeña, fue interesante ver que no todo el mundo quería leer sus noticias de la misma manera. A veces, la gente quería tener publicaciones desinformativas en sus feeds porque le veían ventajas. Esto apunta a que esta agencia ha desaparecido de las plataformas de medios sociales, y debería devolverse a los usuarios”, afirma.
En ocasiones, los usuarios tenían dificultades para evaluar los contenidos cuando contenían múltiples afirmaciones, algunas verdaderas y otras falsas, o si un titular y un artículo estaban desarticulados. Esto demuestra la necesidad de dar a los usuarios más opciones de evaluación, tal vez indicando que un artículo es verdadero pero engañoso o que contiene un sesgo político, dice.
Como los usuarios de Trustnet a veces tenían problemas para evaluar los artículos cuyo contenido no coincidía con el titular, Jahanbakhsh puso en marcha otro proyecto de investigación para crear una extensión del navegador que permite a los usuarios modificar los titulares de las noticias para que se ajusten más al contenido del artículo.
Aunque estos resultados demuestran que los usuarios pueden desempeñar un papel más activo en la lucha contra la desinformación, Jahanbakhsh advierte que dar a los usuarios este poder no es una panacea. Por un lado, este enfoque podría crear situaciones en las que los usuarios sólo vean información de fuentes afines. Sin embargo, los filtros y las evaluaciones estructuradas podrían reconfigurarse para ayudar a mitigar ese problema, dice.
Además de explorar las mejoras de Trustnet, Jahanbakhsh quiere estudiar métodos que puedan animar a la gente a leer las evaluaciones de contenidos de quienes tienen puntos de vista diferentes, quizá mediante la gamificación.
Y dado que las plataformas de medios sociales pueden ser reacias a realizar cambios, también está desarrollando técnicas que permitan a los usuarios publicar y ver evaluaciones de contenidos a través de la navegación web normal, en lugar de en una plataforma.