La Nueva España

La Nueva España

Contenido exclusivo para suscriptores digitales

Asturama

Inteligencia artificial al servicio de la protección del menor

El grupo del profesor Javier de Cos sigue para la observación de exoplanetas la metodología del coreano Sung Cho, capaz de detectar automáticamente ciberacoso en redes sociales

El profesor Cho, ante la Escuela de Minas, en Oviedo. MIKI LÓPEZ

Tecnología para atajar un uso dañino de la tecnología. Ese es el objetivo del profesor Sung-Bae Cho, de la Universidad de Yonsei (Corea), que ha participado en el Congreso de Inteligencia Artificial organizado en la Escuela Minas, Energía y Materiales de la Universidad de Oviedo. El profesor Cho dio a conocer cómo el uso de técnicas de aprendizaje automático y análisis de lenguaje sirve para descifrar comportamientos negativos de los usuarios a través de su participación en la redes sociales, en concreto, el cyberbulling o ciberacoso, una conducta que utiliza la tecnología e Internet para dañar y acosar a un individuo o grupo, basándose en difamaciones, creación de perfiles falsos en redes sociales, atentados contra la reputación o el robo de información para dañar a la víctima. La misma metodología es la que emplea el grupo del profesor Javier de Cos en la Universidad de Oviedo para la observación de exoplanetas.

El investigador coreano, que se confiesa como un enamorado de Asturias, donde aprecia gran cantidad de similitudes -"en la comida y en los templos"- con la cultura asiática, detalla que el modelo que emplea para detectar el ciberbullying es el aprendizaje profundo (deep learning), un tipo de técnica de inteligencia que permite trabajar con ingentes cantidades de datos y analizar el problema desde un punto de vista semántico y sintáctico de contexto. "Ahí es donde está la diferencia", indica. "Es algo que no se hacía antes, combinar semántica y sintáctica, algo que sí era capaz el ser humano pero no las máquinas", sostiene el profesor Cho. "Ese doble enfoque es lo que le da sentido al problema", agrega.

Compañías como Microsoft se han interesado por desarrollar un modelo similar. El gobierno coreano ha apostado fuertemente por ellos y ha subvencionado al grupo de Sung-Bae Cho, quien se muestra preocupado por cual debería ser el siguiente paso en la tecnología: "La búsqueda de una inteligencia artificial ética, una nueva disciplina que tendremos que atacar dentro de poco". Lo que buscaba con su especialización en la aplicación de la inteligencia artificial para detectar el ciberacoso era ser capaz de replicar la capacidad del ser humano de detectar ese tipo de conducta. "Nada hasta la fecha había sido capaz de hacerlo entonces decidimos emplear las redes neuronales que es la forma más parecida a la forma de procesar la información el ser humano, para obtener un algoritmo que nos llevara a ese objetivo", explica.

El resultado no pudo ser más convincente. "La máquina aprende como aprendemos los humanos. Son como cajas negras. Le enseñas un montón de casos y le dices cuales son ciberacoso y cuales no y el sistema aprende. Las redes neuronales se ajustan a eso", asegura. Y acude a un símil muy visual: "Es igual que cuando le explicas a un niño la diferencia entre una ventana y una puerta. Vas a tener algunas dificultades para concretarle porqué para entrar y salir no sirve también la ventana, o diferencia que una es de cristal y la otra madera, porque puede ser a la inversa o que una más grande que otra, pero después de haber visto muchas es como puedes explicarlo bien. Lo mismo ocurre con el ciberbullying, cuando le enseñamos muchos casos a la máquina, con qué combinaciones de palabras sí se da, la máquina aprende y luego es capaz de anticiparse", concluye Sung-Bae Cho.

Para los grupos de Metrología y Modelos y de Modelización Matemática Aplicada, que lideran José Ramón Villar, Enrique de la Cal y Javier de Cos, la conferencia del profesor de la Universidad de Yonsei les abre un nuevo campo de oportunidades para seguir situando a la Universidad de Oviedo a la vanguardia de las nuevas técnicas de inteligencia artificial.

El cibeacoso, una conducta muy frecuente en los últimos años entre menores de edad, y que puede llegar a tener consecuencias en su desarrollo de no tomarse medidas preventivas y correctivas para evitar que se propaguen, se ha convertido en "uno de los principales problemas de nuestra sociedad", a juicio del profesor coreano. Su principal empeño es que la inteligencia artificial no sea una herramienta solo para la industria, sino que tenga también otros fines sociales como la detección del ciberbullying, "muy difícil de localizar de manera automática y que tiene un impacto muy fuerte sobre la sociedad". Para lograrlo, continúa, hace falta información de contexto, "no es solo que se estén produciendo insultos o palabras malsonantes, sino que la frase entera en su contexto sí puede ser ciberbullying; ahí es donde reside la dificultad y donde las técnicas convencionales no son capaces de discriminar y de detectarlo", detalla el profesor Cho. Este experto en Ciencias de la Computación habla de la inteligencia artificial como "una herramienta poderosa" contra el ciberacoso.

Compartir el artículo

stats