Redes sociales

Facebook reconoce que sus moderadores fallan al eliminar contenidos de odio

Facebook reconoce que sus moderadores fallan al eliminar contenidos de odio
Miércoles, 3 enero 2018 - 23:42 PM - Agencias
WhatsApp Email

La actividad de los moderadores de Facebook siempre ha generado mucha polémica. Su criterio para decidir qué comentario o publicación pasa el filtro y cuál se ve comprometido por el número de contenido a revisar, unos seis millones y medio de reportes semanales. Una nueva investigación señala que esto provoca que en ocasiones el personal elija la opción errónea a la hora de actuar sobre uno de ellos.

Propublica, el medio que se dedica a investigar a fondo la actividad de compañías como Facebook, y que ya le ha dado a Mark Zuckerberg más de un dolor de cabeza señalando sus malas prácticas, ha anunciado que los moderadores de la red social fallan cerca de la mitad de las ocasiones en las que tienen que tomar una decisión a la hora de eliminar una publicación.

La investigación se centró en 49 publicaciones que violaban, aparentemente, la política de uso de Facebook, que habían sido reportadas pero que habían permanecido sin problemas en los muros de los usuarios. Algunas de ellas hacían referencias directas a religiones y en general se centraban en el discurso de odio que tan de moda está en las redes sociales.

Según señala Propublica en su investigación, la imagen de un cuerpo inerte con la frase “el buen musulmán es solo aquel que está muerto” pasó el filtro revisor mientras que un comentario del estilo “muerte a los musulmanes” sí fue revocado.

Aunque parece evidente la relación entre ambos, ya que forman parte del contenido que Facebook no tolera, los dos post sufrieron reacciones distintas. La compañía encarga este trabajo a 7.500 personas que moderan el contenido que se reporta desde todo el mundo.

De los 49 post, 19 se eliminaron en el momento de ser denunciados y 22 continuaron visibles. Facebook ha reconocido, a raíz de esta llamada de atención, que sus empleados no toman siempre el camino correcto, debido en parte a la falta de información proporcionada por el usuario que reporta, por una denuncia incorrecta o porque el autor decide borrar para luego volver a publicar. Esto ocurrió en las ocho publicaciones que restan.

Desde la compañía han pedido disculpas por los errores cometidos, ya que no reflejan el tipo de comunidad que Facebook quiere construir, según el vicepresidente Justin Osofsky. También de acuerdo a sus palabras, que un post sea ofensivo no implica que se pueda borrar; se eliminan semanalmente cerca de 66.000 publicaciones de Facebook./Trecebits

LO MÁS VISTO