La violencia gráfica, los desnudos y el sexo han aumentado en Facebook durante los primeros tres meses
Facebook continúa haciendo ejercicios de necesaria transparencia y tras haber publicado hace tres semanas las directrices internas que utilizan para hacer cumplir los estándares comunitarios, este martes han publicado su primer informe de aplicación de las normas de la comunidad con interesantes cifras.
En este dosier la compañía asegura que el contenido susceptible de ser retirado está aumentando al igual que sus capacidades para detectarlo antes de que sea reportado por los usuarios. De los datos aportados se desprende que la violencia gráfica, los desnudos y el sexo han aumentado en Facebook durante los primeros tres meses de 2018 en comparación con los tres meses anteriores.
En cuanto a publicaciones relacionadas con la publicidad no deseada, las incitaciones al odio o el terrorismo el informe dice que no se puede estimar su prevalencia, aunque sí señala el aumento de las acciones contra este tipo de contenido —eliminaciones, advertencias u ocultación de los mensajes— si se compara el último trimestre con el anterior.
El informe abarca desde octubre de 2017 a marzo de 2018, el último trimestre del año pasado y el primero de este.
La mayor parte de las medidas que han tomado desde Facebook para eliminar contenido dañino están relacionadas con el spam y las cuentas falsas que se emplean para distribuirlo, según han indicado. Destacan que en el primer trimestre han desactivado alrededor de 583 millones de cuentas falsas, la mayoría desactivadas "a los pocos minutos de registrarse".
Además, dicen haber eliminado 837 millones de piezas de spam en los tres primeros meses del año, siendo encontradas la práctica totalidad antes de que ningún usuario pudiese llegar a denunciarlas.
Por otro lado, anuncian que han retirado 21 millones de publicaciones de desnudez y actividad sexual adulta en las mismas fechas, siendo encontradas el 96 % de las mismas antes de que fuesen reportadas. Esto es posible gracias a las tecnologías de detección de Facebook, sistemas automatizados que vienen mejorando para detectar más rápido y mejor los contenidos prohibidos en la red social.
En general, estimamos que de cada 10.000 piezas de contenido visualizadas en Facebook, de 7 a 9 fueron de contenido que violaba nuestros estándares de desnudez y pornografía para adultos.
En cuanto a violencia gráfica, en el primer trimestre de 2018 eliminaron o aplicaron etiquetas de advertencia a casi 3,5 millones de piezas de contenido violento. De ellas, el 86 % fue identificado por las tecnología de la compañía antes de que pudiesen ser denunciadas.
No obstante, reconocen que en cuanto a contenidos relacionados con la incitación al odio "nuestra tecnología todavía no funciona tan bien y, por lo tanto, necesita ser revisada por nuestros equipos de revisión". De las 2,5 millones de publicaciones retiradas por incitación al odio, solamente el 38 % habían sido detectadas por las tecnologías de Facebook.
La inteligencia artificial, aunque prometedora, está a años de ser efectiva para la mayoría de los malos contenidos porque el contexto es muy importante. Por ejemplo, la inteligencia artificial todavía no es lo suficientemente buena como para determinar si alguien está incitando al odio o describiendo algo que les ha sucedido para que puedan crear conciencia sobre el tema.
Según Guy Rosen, el alto ejecutivo de Facebook que ha presentado este primer informe, esta es la misma información que usan para medir el progreso de las medidas tomadas internamente. Viéndolas, parece claro que todo lo que está haciendo Facebook por moderar su contenido no está sirviendo de mucho.