Facebook ha decidido ser más transparente que nunca. Más aún desde el reciente escándalo del robo de cuentas por parte de Cambridge Analytica. Para demostrar el beneficioso trabajo que están realizando a favor de limpiar su red social de todo tipo de contenido que ponga en peligro la privacidad y seguridad de los usuarios, el equipo de Mark Zuckerberg ha sacado a la luz el primer informe que refleja las medidas que está llevando a cabo. Y las cifras no hacen sino confirmar que hay un repunte de publicaciones con violencia explícita y propagandaterrorista las cuales son impulsadas a la velocidad de la luz en las redes.

[image id=»96281″ data-caption=»» share=»true» expand=»true» size=»S»]

Gracias al sistema de inteligencia artificial que usan desde la compañía, son capaces de adelantarse entre un 86 y un 99.5% de los casos antes de que un usuario reporte el contenido inapropiado, según los casos. Para que os hagáis una idea de las cifras que han mostrado. Facebook ha llegado a retirar casi 2 millones de publicaciones relacionadas con la promoción o el enaltecimiento de bandas terroristas como Al Qaeda o ISIS en el primer cuarto de este 2018, un 73% más que en el último cuatrimestre de 2017. Por otro lado, se han llegado a eliminar 3,4 millones de imágenes violentas, casi el triple que en el último cuatrimestre del 2017.

En el caso de las imágenes sexuales, el número se dispara hasta los 21 millones de elementos en tan solo 4 meses de 2018. Aquí es donde los usuarios son más críticos, porque creen que el sistema no diferencia entre los pechos de una mujer y los de un hombre (los cuales no se suelen eliminar, al no considerarlos el sistema como ofensivos). De hecho, Facebook llegó a censurar la obra de arte “La Libertad guiando al pueblo” en la que se ve un pecho descubierto en la parte central del cuadro. La red social pidió disculpas un mes después.

El odio en Facebook

Es aquí donde la compañía tiene más problemas, ya que le cuesta llegar a detectar un discurso de odio como tal. A pesar de que han logrado suprimir 2 millones y medio de mensajes este año, un 56% más que el último trimestre de 2017, solo un 38 % fueron detectados antes de que alguien lo reportara. Así que es algo en lo que saben, deben trabajar más a fondo, ya que el sistema de inteligencia artificial no es capaz de diferenciar cuándo se están usando esos mensajes para atacar o para defenderse. De hecho, algunos colectivos han llegado a quejarse de que Facebook les ha vetado ciertos artículos en los que estaban tratando de denunciar precisamente por lo que les estaban borrando la publicación.

Veremos cómo evolucionan estos datos.

Alberto Pascual García