Los gigantes de Internet YouTube, Facebook, Twitter y Microsoft han redoblado sus esfuerzos por eliminar el contenido de extremistas de sus plataformas mediante la creación de una base de datos común.

Las compañías compartirán los hashes -identificaciones digitales únicas que asignan automáticamente a vídeos o fotografías- de contenido extremista que han eliminado de sus sitios web para permitir que las otras identifiquen el mismo contenido en sus plataformas.

"Esperamos que esta colaboración llevará a una mayor eficiencia mientras seguimos aplicando nuestras políticas para ayudar a frenar el urgente tema global del contenido terrorista en línea", señalaron en un comunicado conjunto publicado el pasado martes.

Las empresas del sector tecnológico se han resistido por largo tiempo a la intervención externa en la forma en que sus sitios deberían ser controlados, pero se han enfrentado a una creciente presión por parte de los gobiernos occidentales para que hagan más por suprimir el contenido extremista tras una serie de ataques terroristas.

YouTube y Facebook han comenzado a utilizar los hashes para eliminar automáticamente este tipo de contenido. No obstante, muchos proveedores han dependido hasta ahora principalmente de que los usuarios identifiquen el contenido que viola los términos de servicio. El material marcado es luego revisado individualmente por editores que borran las publicaciones que resulten violar los términos del servicio.

Twitter suspendió 235.000 cuentas entre febrero y agosto de este año y ha ampliado los equipos que revisan las informaciones de contenido extremista.

Cada compañía decidirá qué hashes de imágenes y vídeos incluyen en la base de datos y el contenido que coincida no será eliminado automáticamente, han explicado. La base de datos estará operativa a comienzos de 2017 y más compañías podrían sumarse a la iniciativa.Solo se retira el 28% del contenido radical

Sólo el 28 % de las alertas de incitación al odio que grandes empresas de internet recibieron en los últimos meses llevaron a una retirada de esos contenidos, según un informe difundido este martes por la Comisión Europea (CE).

El estudio recoge los primeros resultados de la aplicación de un código de conducta acordado por las grandes firmas de tecnologías de la información el pasado mayo para combatir la incitación al odio en la red en Europa. Los resultados iniciales revelan que, de 600 alertas recibidas, se produjo eliminación de contenidos en 169 casos.

Facebook recibió 270 alertas y retiró el 28%; Twitter de 163 solo eliminó el 19% y Youtube de 123 notificaciones retiró el 48,5%Facebook recibió 270 alertas y retiró el 28% de los contenidos impropios, seguida de Twitter con 163 alertas y 19% de retiradas y YouTube, con 123 notificaciones y un 48,5% de eliminaciones. Ninguna alerta se dirigió a Microsoft, según el informe.

El 23,7% de las notificaciones fueron por contenidos de carácter antisemita, el 21% denunciaba críticas por el "origen nacional" y el 20,2% eran casos de "odio antimusulmán".

La comisaria europea de Justicia, Vera Jourová, subrayó que las empresas dedicadas a los medios sociales deben asumir su parte de responsabilidad en relación con la radicalización en línea, el discurso del odio ilegal o las noticias falsas.

"Aunque las empresas están moviéndose en la buena dirección, los primeros resultados (del estudio) demuestran que las sociedades IT necesitan hacer más", constató la comisaria.

En particular, se refirió al retraso en la revisión de los contenidos, ya que las grandes empresas de internet revisan solo el 40 % de las notificaciones en un plazo de 24 horas y el 43 % en un plazo de 48 horas.

Los resultados de este informe se debatirán en un grupo de alto nivel para combatir el racismo, la xenofobia y todas las formas de intolerancia que tendrá lugar el 7 de diciembre en Bruselas. También se tratarán en la reunión de los ministros de Justicia del próximo jueves y en el Foro Europeo de Internet que se celebrará ese mismo día.