Sangría en Facebook: Elimina el 24,4% de las cuentas por publicar spam

Facebook-logos

Facebook clasifica lo que está permitido publicar y lo que no en sus normas de la comunidad. Exactamente cómo se guía la compañía a la hora de retirar o no un contenido, es algo que se hizo público por primera vez hace unas semanas, y en TreceBits contamos cuáles eran esos criterios.

Pero ahora, además, como parte de esa política de transparencia, Facebook ha dado a conocer datos sobre el seguimiento de sus directrices por parte de los usuarios.

Los números muestran cuanto contenido inapropiado ha sido visto por los usuarios, cuanto de este contenido ha sido retirado y cuantas infracciones han sido detectadas antes de ser reportadas por la comunidad

En el informe, que proporciona información sobre el periodo comprendido entre octubre de 2017 y marzo de 2018, se tienen en cuenta las siguientes áreas: violencia gráfica, desnudos adultos y actividad sexual, propaganda terrorista, incitación al odio, spam y cuentas falsas.

Teniendo en cuenta las dimensiones de Facebook, las cifras de contenido y cuentas eliminadas son astronómicas. Por ejemplo, en cuanto al spam, se han retirado 837 millones de publicaciones en los primeros tres meses de 2018.

Esos contenidos fueron publicados por 583 millones de cuentas, que también han sido eliminadas. Eso supone el 24,4% de las cuentas totales de la red social, que a día de hoy son 2.200 millones, cifra que comunicó Facebook en su última publicación de resultados trimestrales correspondientes al Q1.

Hay que tener en cuenta que la mayoría del spam proviene de cuentas automatizadas, por lo que los números en otras áreas -donde es más probable que el contenido haya sido publicado por un humano- son menores.

Las publicaciones sexuales –desnudos y pornografía– retiradas durante el primer trimestre de 2018, han sido 21 millones, de las cuales el 96% fueron eliminadas antes de que las reportase ningún usuario. La tecnología de detección temprana hace que de unas 10.000 publicaciones vistas por los usuarios, solo de 7 a 9 sean inapropiadas, según datos de Facebook.

Las publicaciones sobre violencia e incitación al odio no tienen un porcentaje de éxito tan alto, ya que son más difíciles de detectar, y a menudo requieren del arbitraje humano.

En este sentido, e han retirado 3,5 millones de piezas clasificadas como violentas y 2,6 millones de contenidos que incitaban al odio. En el primer caso, el 86% fue detectado de manera automática y en el segundo, solo el 38% fue retirado sin que fuese reportado por los usuarios.

Con la tecnología de Blogger.