Facebook vuelve a estar bajo el punto de mira después de la emisión de un reportaje en la televisión británica Channel 4, según recoge la BBC. En él se detallaba cómo el contenido gráfico que incumple las normas de la plataforma, en ocasiones, pasa desapercibido, o los moderadores deciden no eliminarlo, a pesar de todo. En concreto, sucede con los vídeos sobre abuso infantil.
Facebook reconoce errores a la hora de eliminar vídeos polémicos, como los que contienen abusos a niños
Además, el documental muestra la actitud más laxa del equipo humano de revisión de Facebook, que hace la vista gorda ante las publicaciones evidentes de usuarios que no tienen la edad mínima consentida para abrir una cuenta en la red social. Algunos de estos perfiles de niños, menores de 13 años, son reportados pero nunca eliminados, a menos que ellos mismos reconozcan que son menores de 13.
En el reportaje emitido se observa cómo una cámara oculta simula entrar a trabajar en una de las muchas sedes de detección de Facebook. Allí, los responsables comentan que no se puede censurar todo lo que sería conveniente eliminar porque si no "la gente pierde el interés en la plataforma".
Como ejemplo, los empleados toman un vídeo de una paliza a un niño en 2012 que nunca fue eliminado porque se considera únicamente "perturbador". Facebook alega que sí eliminó el vídeo pero que este ha sido reeditado y publicado en múltiples ocasiones.
Algunos de los centros de detección que Facebook tiene repartidos por el mundo son subcontratas, de modo que el compromiso de los empleados puede ser menor. Aunque Facebook no ha aclarado el número exacto de estos centros, el que aparece en el documental está en Dublín. Facebook ha abierto recientemente uno similar en Londres y tiene planes de hacerlo también en Barcelona.
Tras la emisión del documental, Facebook ha reconocido de forma oficial que se han cometido errores en la forma de trabajar revisando el contenido problemático, y desde la compañía adelantan que están investigando cómo ha podido suceder, cuánto material ha quedado impune y qué mecanismos implantar para evitar que ocurra nuevamente.
Además, el equipo implicado ha recibido otra vez el entrenamiento de los grupos que deben detectar el material no permitido en la plataforma. La compañía aumentará el número de moderadores, pasando de los 10.000 actuales a 20.000 a finales de este año.