Facebook planea acabar con la difusión de las noticias falsas en su plataforma, y para ello emplea diversas herramientas; sus algoritmos las esconden, intenta educar a los usuarios para que puedan detectarlas, y colabora con varias organizaciones que comprueban si una información es veraz o no.
Las organizaciones que comprueban la veracidad de las noticias ponen etiquetas a cada una de ellas para distinguir, por ejemplo, entre una información falsa y una de broma
Por eso, con la intención de aumentar la transparencia de los procesos de Facebook, la compañía ha hecho público su modus operandi para descubrir las llamadas "fake news", o noticias que no son del todo ciertas, pero que al viralizarse generan un cambio de actitud o percepción en el usuario.
Facebook ha sido acusada de parcialidad a la hora de seleccionar a ciertos editores de noticias como veraces mientras esconde a otros, así como de favorecer a algunos candidatos políticos en diferentes elecciones en todo el mundo.
Los tres procesos que Facebook lleva a cabo para acabar con la desinformación en la red social pasan, primero, por hacer una criba de las cuentas que publican este tipo de información. Los perfiles que infringen las políticas de uso de la compañía son automáticamente suspendidas.
Después, Facebook va a donde duele: la monetización. Intenta que las noticias se compartan en menor medida "escondiéndolas", es decir, haciendo que su algoritmo detecte ciertos aspectos en una publicación, como la falta de un autor, fallos ortográficos o exclamaciones en el titular, para que no sea visible en la cronología. De este modo, a menos clics, menos ingresos.
La última baza de Facebook no pasa por penalizar al medio, sino empoderar a los usuarios, educándolos para advertir cuándo una noticia es más bien un artículo de opinión.
La acción conjunta llevada a cabo con organizaciones ajenas a la red social es también una pata importante de la estrategia de Facebook. El programa colaborativo comenzó en diciembre de 2016, y a día de hoy cuentan con 25 agrupaciones en 14 países, entre los que aún no se encuentra España.
Las organizaciones comienzan con aquellos artículos que, directamente, los usuarios han reportado como falsos. Una vez revisada la noticia, estos "fact-checkers", como se denominan en inglés, establecen una puntuación a la información y justifican de forma escrita por qué se le da ese nivel y no otro. Las noticias pueden variar desde completamente falsas a noticia de broma, no verificable, no calificada, verdadera o mixta.
Facebook reconoce que estas soluciones son solo parches, y que las limitaciones son variadas: el equipo puede equivocarse, muchas noticias se pasan por alto, y la viralización de un contenido irá siempre por delante de quien lo investiga.