Poco antes de que los mercados financieros cerrasen el viernes en Estados Unidos, Mark Zuckerberg, máximo responsable de Facebook, escribía en su perfil que el feed de noticias de la red social priorizará las noticias que provengan de fuentes "confiables, informativas y locales" para combatir el sensacionalismo y la desinformación. ¿Pero quién asegura cuáles son los medios que reúnen tales condiciones? Los propios usuarios de Facebook a través de encuestas.
Hay demasiado sensacionalismo, desinformación y polarización en el mundo actual. Las redes sociales permiten a las personas difundir la información más rápido que nunca y, si no abordamos específicamente estos problemas, acabaremos amplificándolos. Es por eso que es importante que News Feed promueva noticias de alta calidad que ayuden a crear un sentido común.
La pregunta difícil con la que hemos luchado es cómo decidir qué fuentes de noticias son ampliamente confiables en un mundo con tanta división. Podríamos intentar tomar esa decisión nosotros mismos, pero no nos sentimos cómodos con eso. Consideramos la posibilidad de consultar a expertos externos, que tomarían la decisión fuera de nuestras manos pero que probablemente no resolverían el problema de la objetividad. O podríamos preguntarte a ti —la comunidad— y hacer que tu retroalimentación determine la clasificación.
La decisión de la red social, que provocó la subida de las acciones de grandes medios de comunicación como The New York Times, es importante por varios motivos, aunque resulta especialmente llamativa por dos detalles en particular.
En primer lugar, porque es del todo revelador que Facebook siga insistiendo en no querer decidir de primera mano qué medios son confiables y qué medios no lo son, ni siquiera dejando esa juicio en la mesa de expertos o moderadores como los 3.000 que quería poner a revisar contenido inapropiado. Como si ellos mismos no fuesen capaces de distinguir entre un medio de reconocido prestigio y un claro sitio web de noticias dedicado a la manipulación, la intoxicación o directamente a la mentira, cuando en el pasado sí han implementado mecanismos de diferente índole contra las noticias falsas. Por ejemplo, estableciendo filtros con fact-checking o mostrando mensajes de advertencia si se pretende publicar una información marcada como dudosa.
Y en segundo lugar, porque deja en manos de los usuarios decidir qué medios son los buenos y qué medios son los malos. Obviando, así al menos lo parece, que los usuarios puedan votar de acuerdo a intereses y afinidades y no respecto a verdadera credibilidad, reconociendo a los medios que dicen lo que ellos quieren escuchar, de acuerdo a su ideología, y castigando a los que informan en contra de sus ideas, aunque las noticias sean totalmente ciertas y objetivas.
El directivo explica que este cambio se suma al anunciado hace poco más de una semana, centrado en priorizar el contenido de amigos y familiares frente al de empresas, páginas y medios. Espera que de este modo las noticias se reduzcan un 20 % en Facebook, llegando a representar un 4 % del contenido, cuando ahora suponen un 5 % del total de contenidos de la red social.
Algo que choca de frente contra la estrategia de atracción de medios que durante años han llevado a cabo, aunque la caída libre en la visibilidad de las páginas en el servicio y en las cifras de usuarios llegados a los sitios desde Facebook presagiasen lo que llegó, ha llegado y probablemente esté por llegar. "Es un golpe duro, pero a algunos les va a afectar más que a otros", decían responsables de medios españoles sobre esta previsible pesadilla.
Sin embargo, apunta Zuckerberg, esta forma de puntuar la confiabilidad de las noticias "no cambiará la cantidad de noticias que ves en Facebook". Lo único que cambiará será, asegura, el balance entre noticias de medios en los que "la comunidad está decidida a confiar" y en los que no. "Mi esperanza es que esta actualización sobre noticias de confianza y la actualización de la semana pasada sobre interacciones significativas ayudará a que el tiempo en Facebook sea bien empleado", apostilla, reiterándose en la calidad del tiempo empleado.
Estas encuestas dan comienzo hoy en Estados Unidos, mientras su implementación en el resto del mundo ya está planeada para tiempos futuros.
El sistema anunciado por Facebook para preguntar a su comunidad sobre los medios de comunicación deja demasiadas dudas en el aire. La explicación que hace el CEO, es la siguiente:
Así es como funcionará esto. Como parte de nuestras encuestas de calidad continuas, ahora preguntaremos a las personas si están familiarizadas con una fuente de noticias y, si es así, si confían en esa fuente. La idea es que algunas organizaciones de noticias sólo son confiables para sus lectores u observadores, y otras son ampliamente confiables en toda la sociedad, incluso para aquellos que no las siguen directamente.
Un comunicado colgado en la sala de prensa, el jefe del News Feed, Adam Mosseri, no ofrece mayores explicaciones sobre las encuestas. ¿Por quién están hechas? ¿Comprueban que la familiaridad del usuario exista realmente con el medio que va a calificar? ¿Se tomarán en cuenta todas las valoraciones aunque manifiestamente contradigan cualquier valoración objetiva y realmente fidedigna? Las respuestas pueden ofrecer un escenario peligroso para los usuarios y para la propia red social, que "no es buena para la democracia" ni para su comunidad según el testimonio de varias figuras que ayudaron a crearla.
Un sistema supuestamente meritocrático como este en manos de los usuarios puede terminar en calificaciones acordes con los intereses y las afinidades de cada uno, como decíamos líneas más arriba, sin tener en cuenta la credibilidad real. Es lo que suele suceder en agregadores de noticias del estilo de Menéame, como decía Antonio Ortiz en un tuit: "sabemos que la gente vota adhesión (dice lo que yo pienso) y no calidad/credibilidad".
La trampa no es nueva: se trata del sesgo de confirmación, la tendencia que busca confirmar lo que uno piensa. Algo que lleva a convertir las cronologías propias de las redes sociales en cámaras de eco de opiniones que aprobamos y, en última instancia, polarizan todavía más debates con pareceres extremos de por sí. "La amplia disponibilidad de contenidos proporcionados por los usuarios en las redes sociales en línea facilita la acumulación de personas en torno a intereses, visiones del mundo y narrativas comunes", decía un estudio sobre este asunto publicado en la revista científica PNAS.
La magia en la iniciativa de Facebook podría surgir si al juntar lo que votan los usuarios de un lado del espectro político y lo que votan los del otro se obtiene un amplio conjunto de medios fiables que representen de una forma óptima la amplitud de los debates, los diferentes puntos de vistas sobre temas concretos y la diversidad de opiniones. Sin embargo, es difícil creer en este tipo de magias incluso si se cree que estos sistemas regidos por los propios usuarios van a funcionar usándose correctamente y con el fin para el que han sido diseñados.
Eso sin tener en cuenta que las medidas contra noticias falsas han puesto de manifiesto que muchos usuarios se sienten todavía más atraídos por las advertencias sobre su credibilidad. "La investigación académica sobre la corrección de la información errónea ha demostrado que poner una imagen fuerte, como una bandera roja, al lado de un artículo en realidad puede afianzar creencias profundamente arraigadas", decían responsables de la plataforma en diciembre.
Facebook, no cabe duda, tiene un poder de impacto inaudito sobre el mundo de la información a nivel global. La red social se ha convertido en una fuente de tráfico importante para muchos grupos comunicativos de todo el mundo y en una de las principales vías de información para muchos ciudadanos, muchos de esos 2 mil millones de usuarios mensuales que tiene. Tanto para aquellos con más posibilidades de informarse en otros ámbitos, como para los que tienen como único medio la plataforma. Es por eso que la red social liderada por Mark Zuckerberg tiene una responsabilidad —ahí continúa coleando el asunto de las injerencias rusas— aunque pretenda ponerse de lado frente a ella o dejar la toma de decisiones en manos de los usuarios, para poder lavarse las manos.