Facebook ha estado en el ojo público en los últimos meses debido a cuestiones de privacidad y mal manejo de la información de sus usuarios, algo que no ha sido sencillo y que ha creado una especie de desconfianza en la labor que hace Mark Zuckerberg dentro de su red social. Aquí sólo basta nombrar las polémicas de los bots rusos y el caso de Cambridge Analytica para darnos una idea de lo que ha pasado.
Pues Zuck quiere limpiar su imagen y la de Facebook, y después del caos reciente, prometió que habría cambios a corto y medio plazo. Es así como hoy la compañía está publicando su primer informe de transparencia, el cual se basa en la efectividad de sus nuevas pautas para eliminar contenido no apropiado y prohibido dentro de la comunidad, con el que buscan ganarse nuevamente esa confianza y de paso demostrar que sí están trabajando en eliminar ese tipo de contenido.
Pero lo más atractivo de todo, es que la mayoría de esta labor se lleva a cabo usando herramientas automatizadas de inteligencia artificial.
El informe recoge interesantes detalles acerca de las acciones que está llevando a cabo Facebook, donde la inteligencia artificial tiene un papel muy importante. Por ejemplo, la compañía asegura que durante el primer trimestre de 2018, su herramienta moderadora basada en inteligencia artificial, detectó y eliminó la mayoría de las publicaciones donde se incluía violencia, pornografía y terrorismo.
Facebook explica que sus esfuerzos de moderación se basan en seis áreas principales: violencia gráfica, pornografía, propaganda terrorista, discursos de odio, spam y cuentas falsas. El informe detalla cuánto de ese contenido fue visto por los usuarios, cuánto fue eliminado y cuánto fue eliminado antes de que fuese reportado por algún usuario.
Las cifras nos muestran que durante el primer de este 2018, Facebook eliminó 837 millones de mensajes de spam, 21 millones de publicaciones con desnudos o actividad sexual, 3,5 millones de mensajes que mostraban contenido violento, 2,5 millones de mensajes con discursos de odio y 1,9 millones de contenido terrorista. Además, la compañía dice haber eliminando 583 millones de cuentas falsas, que sumadas a las eliminadas durante el último trimestre de 2017, estamos hablando de casi 1.300 millones de cuentas falsas deshabilitadas.
En el caso de las cuentas falsas, Facebook menciona que muchas de ellas eran bots cuya finalidad era propagar spam y efectuar actividades ilícitas. Asimismo, la compañía asegura que la mayoría de estas cuentas "fueron inhabilitadas pocos minutos después de haberse creado". Sin embargo, Facebook aceptó que no todas las cuentas falsas son eliminadas, y estima que entre el 3 y el 4% de sus usuarios activos son falsos, pero no representan un riesgo al no efectuar actividades ilícitas.
Facebook asegura que su sistema automatizado basado en inteligencia artificial ha sido determinante en esta tarea, ya que esto les ha permitido actuar antes de que un usuario haga el reporte. Por ejemplo, la compañía dice que su sistema logró detectar casi el 100% del spam y la propaganda terrorista, casi el 99% de las cuentas falsas y cerca del 96% de la pornografía. En el caso de las publicaciones con mensajes que incitaban a la violencia, Facebook dice que su sistema detectó el 86%.
Pero esta inteligencia artificial moderadora de contenido no es perfecta, ya que cuando se trata de mensajes con discurso de odio es cuando se encuentra con sus mayores problemas. Durante el primer trimestre de 2018, el sistema sólo logró detectar el 38% de los mensajes con estas características, el resto llegó por parte de reportes de los usuarios.
Facebook explica que la efectividad de su sistema de inteligencia artificial se debe a una mejora en la tecnología y procesos en la detección del contenido de las fotos, que es lo que les ha permitido ser tan eficiente en los casos del terrorismo y la pornografía. Pero cuando estamos ante mensajes, sobre todo escritos, donde hay señales de discurso de odio, es cuando el sistema no logra determinar y qué es y qué no es, esto debido a que caemos dentro del terreno de la subjetividad.
Imaginemos que una persona expresa su opinión acerca de un tema, y otra persona, o varias, creen que se trata de discurso de odio. La primera podría considerar que está haciendo efectivo su derecho a la libertad de expresión, y si su mensaje es borrado y recibe una advertencia, esta persona podría pensar que se trata de censura.
Es ahí donde Facebook tendría que ser más claro en sus reglas y definir bien qué es lo que considera "discurso de odio", ya que hay señales claras cuando se habla de ciertos temas, pero en los casos donde se mezcla opiniones subjetivas y no se trata de un ataque directo, es cuando están dentro de esa delgada línea. Si esto es complicado para los humanos, imaginemos cómo se las arreglará la inteligencia artificial.
Alex Schultz, vicepresidente de analítica de Facebook, mencionó: "El discurso del odio es realmente difícil. Hay matices, hay contexto. La tecnología simplemente no está lista para realmente entender todo esto, y mucho menos si se trata de una larga, larga lista de idiomas".
Por su parte, Mark Zuckerberg comentó: "Tenemos mucho más trabajo por hacer. La IA todavía necesita mejorar antes de que podamos usarla para eliminar efectivamente los problemas donde hay matices lingüísticos, como el discurso de odio en diferentes idiomas, pero estamos trabajando en ello. Mientras lo hacemos, esperamos compartir nuestro progreso".
El informe de transparecia de Facebook se publicará de forma trimestral y nos servirá para conocer las acciones de la compañía en estos temas tan complejos, lo que obviamente también servirá para demostrar que están haciendo algo al respecto y así tratar de limpiar su imagen.