Así se propagan las noticias falsas y la desinformación

“Nuestra sociedad ha estado lidiando en los últimos años con creencias generalizadas sobre conspiraciones, una creciente polarización política y la desconfianza en los hallazgos científicos”, cuenta Nicholas Rabb, estudiante de informática en la Escuela de Ingeniería Tufts y autor principal de un estudio que bajo el título Cognitive cascades: How to model (and potentially counter) the spread of fake news, se publicaba el pasado 7 de enero en la revista PLoS ONE. “Este modelo podría ayudarnos a comprender cómo se difunden la desinformación y las teorías de la conspiración para ayudar a idear estrategias para contrarrestarlas”, añade.

Y es que lo que Rabb y su equipo han desarrollado se trata de un modelo informático que refleja la forma en que la información falsa se propaga en la vida real, un trabajo que según los investigadores "podría brindar información sobre cómo proteger a las personas de la actual pandemia de noticias falsas y desinformación que amenaza la salud pública y la salud de la democracia".

Muchos de los científicos que estudian el fenómeno de la desinformación en la sociedad adoptan para sus estudios un enfoque epidemiológico en el que la expansión de una información errónea o falsa en las redes sociales se asemeja al modo en que una enfermedad se disemina en el mundo real. La mayoría de esos modelos, sin embargo, tratan a las personas en las redes como si todos aceptaran por igual cualquier nueva creencia que les transmiten sus contactos. Lo verdaderamente interesante del trabajo de los investigadores de Tufts, es que introducen en su modelo la noción de que las creencias preexistentes de las personas pueden influir fuertemente en el modo en que estas aceptan una nueva información.

Así, según los investigadores, muchas personas rechazan información fáctica y respaldada por evidencias si esta información les lleva demasiado lejos de las creencias que tienen asumidas. De hecho, durante la Pandemia de COVID-19 en los Estados Unidos, según afirman los autores, "los trabajadores de la salud nos han puesto sobre pista de la fuerza que tiene este efecto, observando que algunos pacientes que fallecen por COVID siguen aferrándose a la creencia de que la enfermedad nunca ha existido".

Muchas personas rechazan información fáctica y respaldada por evidencias si esta información les lleva demasiado lejos de las creencias que tienen asumidas

Para dar cuenta de esto en su modelo, los investigadores asignaron una "creencia" a cada individuo en una red social artificial. Así, los investigadores representaron las creencias de los individuos con un número del 0 al 6, donde el 0 representa una fuerte incredulidad, el 6 una fuerte creencia, y la escala numérica representaría el espectro de creencias sobre cualquier cuestión.

Por ejemplo, el número 0 podría representar una fuerte incredulidad de que las vacunas contra la COVID ayudan y son seguras, mientras que el número 6 podría ser la fuerte creencia de que las vacunas contra el COVID son, de hecho, seguras y efectivas. Luego, el modelo recreó una extensa red de personas virtuales, así como fuentes institucionales que originan gran parte de la información que se disemina en cascada a través de la red y que en la vida real podrían representar a los medios de comunicación, instituciones, gobiernos o personas influyentes en las redes sociales: básicamente los súperdifusores de información.

El modelo partió de una fuente institucional inyectando la información a la red, y los investigadores pudieron comprobar que si una persona recibe información cercana a sus creencias, por ejemplo, enmarcada en un nivel 5 en comparación con su creencia de nivel 6, esta tendría una mayor probabilidad de actualizar esa creencia a un 5. No obstante, si la información difiere mucho de las creencias previas del receptor, digamos que un 2 en comparación con respecto a un 6, es muy probable que esta información fuera rechazada por completo por el receptor produciendo un mayor apego a su creencia preestablecida.

Los investigadores también descubrieron que otros factores, como la proporción de contactos que se posicionan en distintos lugares del espectro de una idea -lo que es conocido como presión social- o el nivel de confianza en la fuente, pueden influir del mismo modo en cómo las personas actualizan sus creencias. Es de esta manera que el modelo en red de las interacciones de toda la población proporcionaría una imagen más real del poder de propagación y permanencia de la información falsa.

Si bien el modelo actual sugiere que las creencias pueden cambiar solo de forma progresiva, existen otros escenarios que pueden provoquen un gran cambio en las creencias de las personas. Los autores estipulan, por ejemplo, que un salto de 3 a 6 podría producirse en el caso de un acontecimiento dramático a una persona influyente, tal y como ha sucedido en diversos casos en que varios líderes de opinión que negaban la existencia del virus y la efectividad de las vacunas han tristemente fallecido a causa de la enfermedad.

Con el tiempo, según defienden los investigadores, el modelo puede volverse más complejo para reflejar con precisión lo que sucede en el terreno. “Se está convirtiendo en algo demasiado evidente que la simple transmisión de información fáctica no es suficiente para tener un impacto en la mentalidad del público, particularmente entre aquellos que están encerrados en un sistema de creencias que no está basado en hechos”, declara Lenore Cowen, profesora de ciencias de la computación de Tufts y coautora del paper publicado en PLoS ONE. “Nuestros esfuerzos para incorporar en nuestros modelos nuevas perspectivas y variantes que influyen en la mecánica de la desinformación en la sociedad podría ayudarnos a llevar la conversación pública de vuelta a los hechos y la evidencia”, sentencia. El problema apremia.