Facebook acaba de abrir en Barcelona un centro de control de contenidos que contará con 800 moderadores. Se trata de un paso más de la compañía de Mark Zuckerberg para atajar la publicación de contenido racista, con mensajes de odio o violento, cuya difusión ha sembrado el descrédito en torno a esta plataforma. El equipo de Facebook dedicado a control de contenidos supera los 30.000 empleados en todo el mundo -la mitad son moderadores-, una parte se dedica a revisar y modificar de manera periódica la extensa política de contenidos de la plataforma. En los tres primeros trimestres del año la compañía actuó contra cerca de 8 millones de contenidos por discurso de odio.