Suscríbete

La Nueva España

Contenido exclusivo para suscriptores digitales

Carles Sierra Director del Instituto de Investigación de Inteligencia Artificial del CSIC

“No sé si Rusia tiene armas inteligentes, pero optó por una invasión del siglo XIX”

"Puede llegar a haber una inteligencia que sea superior a la nuestra, pero todavía estamos lejos"

Carles Sierra. Irma Collín

Carles Sierra (Barcelona, 1963) es el director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC), que tiene sede en Barcelona. Llegó al cargo a finales de 2019, tras once como vicedirector. Estos días ha estado participando en un curso de formación para directivos noveles que esta institución ha celebrado en Oviedo, en la sede de la Cámara de Comercio, donde está alojada. En las siguientes líneas, Sierra repasa los principales avances de la inteligencia artificial y su papel en ámbitos de la vida más dispares. También es el presidente de la Asociación Europea de Inteligencia Artificial.

–¿Cómo nos está cambiando la vida la inteligencia artificial?

–Los humanos nos pasamos la vida decidiendo cosas, qué comeremos hoy al mediodía, dónde iremos de vacaciones... Lo que ocurre es que de manera masiva hay muchísimos sistemas que están tomando decisiones por nosotros y que nos afectan directamente, esto se automatiza y se hace mediante técnicas de inteligencia artificial. Ante esa situación, ¿qué puede hacer el ciudadano? Estar muy bien informado, ser conocedor de los derechos que nos reconocen las diferentes regulaciones, porque la inteligencia artificial, a diferencia de otras tecnologías, se está regulando a nivel de los gobiernos o en el Parlamento Europeo.

–¿Tienen sesgos las decisiones que toman los sistemas de inteligencia artificial?

–Los mismos que tienen los humanos. La inteligencia artificial no es nada más que una serie de algoritmos que se están usando para tomar determinadas decisiones. Esos algoritmos se basan en datos que se les proporcionan, y si esos datos están sesgados –es decir, que no representan bien a la población– pues los resultados van a ser sesgados, obviamente. Son los humanos que programan las inteligencias artificiales los que tienen sesgos. Es ahí donde hay que estar muy vigilantes.

Puede llegar a haber una inteligencia que sea superior a la nuestra, pero todavía estamos lejos

decoration

–Stephen Hawking decía que una vez que la inteligencia artificial se estableciera totalmente acabaría con la raza humana.

–Hawking siempre era escandalosamente negativo respecto a la inteligencia artificial. Estamos lejísimos de llegar a una situación como la que él planteaba. Ahora se están automatizando muchos procesos de decisión, pero no estamos cerca en absoluto a una inteligencia artificial general parecida a la que pudiera tener un humano, que pudiera tomar el control de nuestra sociedad y de nuestras vidas. No digo que conceptualmente eso no sea posible, porque igual que tenemos una inteligencia basada en sistemas biológicos, también puede haber otro tipo de inteligencia basada en otro tipo de estructuras que pueda ser superior a la nuestra. Pero estamos muy muy lejos de llegar ahí.

–Una de las cuestiones que la psicología cuestiona de la inteligencia artificial es que es complicadísimo que una máquina pueda tener un lenguaje espontáneo, como el del ser humano.

–A veces nos sorprendemos de cómo funciona el lenguaje natural, pero también es impresionante cómo ha evolucionado estos últimos cinco años la traducción autómatica, el reconocimiento de voz y la generación de texto a voz que funciona muy bien en muchas lenguas, que son hiperrealistas. Pero eso ocurre sin que la máquina entienda lo que está haciendo, la parte de la semántica y la pragmática de la lengua está todavía lejos para ellas. A nivel tecnológico, la traducción automática entre idiomas nos está facilitando mucho la vida, pero tiene sus limitaciones, por lo que necesitamos mucha investigación. Por ejemplo, la traducción de frases hechas sigue siendo un tema de montar tablas, de “esta frase hecha se traduce por esta otra”, porque no hay un mecanismo automático que sea capaz de hacerlo.

–Los que sí que han arrancado son los coches autónomos.

–Todas las compañías fabricantes de coches están planteándose que para el año 2040 habrá coches autónomos circulando. De hecho, ya los hay. La autonomía total, el nivel cinco que se dice que es aquel en el que te puedes echar una siesta en el coche, va a tardar, porque hay situaciones de muchos imprevistos y necesitamos que el sistema esté muy preparado para afrontar cada uno de ellos. Iremos avanzando, y lo mismo que se han cambiado las calles cuando pasamos de los carros a los coches, cuando las dotamos de semáforos, ahora harán falta otra serie de elementos que faciliten la conducción autónoma. El número de accidentes se reducirá y no harán faltan semáforos.

Los académicos han pedido prohibir las armas autónomas, aunque China, EE UU, Israel y Rusia se han opuesto

decoration

–En su instituto están creando un algoritmo para mejorar la formación de grupos en educación. Explique en qué consiste.

–Algo que ocurre mucho en las organizaciones humanas y también en el aula es la dificultad para la formación de equipos, lo que se conoce como aprendizaje colaborativo. Lo que hemos hecho son algoritmos que a partir de encuestas psicológicas se clasifica a los alumnos en 16 tipos de personalidad. Hay estudios que dicen que si en un grupo tienes un líder, un introvertido y el resto tienen una diversidad de personalidades el equipo funciona muy bien porque se complementan. Si son todos introvertidos el equipo no funciona, si son líderes acaban peleándose entre ellos. Hay algoritmos que optimizan la solución de manera que el peor equipo sea el mejor posible. También lo estamos intentando usar para casar a aquel que busca empleo con una empresa.

–También trabajan en medicina.

–Una de las decisiones más mágicas de los humanos es la de hacer un diagnóstico a partir de unos signos. Si alguien viene tosiendo, yo, como médico, tendré que saber qué tipo de bacteria tienes en los pulmones para decidir cómo te trato. Ya en los años 60 se construyeron unos sistemas, llamados sistemas expertos, que recogían ese conocimiento de los humanos para hacer diagnósticos y funcionaban muy bien. Hoy en día esto ha mejorado muchísimo en las radiografías o en pruebas médicas basadas en imágenes, porque la clasificación es algo que la inteligencia artificial puede hacer muy bien si tienes muchos ejemplos. El diagnóstico de cáncer a partir de radiografías pulmonares está en un 95 por ciento de acierto, mientras que los humanos están en el 90%.

–¿Les cuesta encontrar investigadores especialistas en inteligencia artificial?

–Google tiene contratos con alrededor del 40% de los investigadores en inteligencia artificial del mundo. En Estados Unidos ha habido auténticas fugas de cerebros de las universidades a las empresas. Es un problema. Por ejemplo, los investigadores de Digimind, que se hicieron superfamosos porque consiguieron ganar a uno de los mejores jugadores de Go, surgieron de una Universidad británica, pero Google los contrató a todos.

Somos incapaces de que las máquinas entiendan los elementos más simples de la semántica

decoration

–¿La inteligencia artificial provocará desempleo?

–Esta es una tecnología más en los procesos de automatización, pero es muy disruptiva porque está transformando muchos sectores. Habrá muchos tipos de empleos que pueden desaparecer y esto sucederá en un tiempo relativamente corto. El tema de tener empleo y que los ciudadanos tengan dinero para vivir dignamente es una cuestión política. Si la tecnología hace que en lugar de trabajar 40 horas tengamos que trabajar 20, pues hagámoslo. También se crearán nuevos empleos, si tienes estudios en Informática o Inteligencia Artificial vas a tener trabajo mañana seguro. Se necesitará personal para crear las caras empáticas de los robots o sensores para coches autónomos. Será un empleo especializado y en mucha cantidad. ¿Será suficiente para compensar al otro (el que se destruya)? No lo sé, pero, si no lo es, el que tiene que actuar es el poder público.

–Qué papel está jugando la inteligencia artificial en el conflicto entre Rusia y Ucrania.

–Hay un poco de mito en este tema. Soy el presidente de la Asociación Europea de la Inteligencia Artificial y si miras las contribuciones de los rusos a los congresos que hemos organizado son muy reducidas. Los motores de la inteligencia artificial son China, la Unión Europea y Estados Unidos. Eso no quiere decir que no tengan gente que sepa de inteligencia artificial. Simplemente tienen armas que son muy sofisticadas y que no necesariamente llevan inteligencia artificial, pero que tienen sensórica y reconocimiento del terreno. Ucrania está mal en este tema.

–Pero ya hay armas que funcionan de forma autónoma.

–Hay un gran debate sobre las armas letales autónomas, que son las que van a tener la inteligencia artificial para tomar la decisión de disparar o para lanzar una bomba. Ahora hay muchos drones que funcionan de manera remota que pueden estar controlados por un individuo que está, por ejemplo, en Arizona viendo en una pantalla lo que ve el dron y es él el que suelta la bomba. Hay mucha sensórica, mucha comunicación, pero la decisión inteligente o no la toma el individuo. Muchos académicos están ahora por prohibir que sea el propio dron el que tome esta decisión. ¿Podemos garantizar que el sistema va a reconocer la semántica o los significados determinados gestos como el de la paz? Es muy difícil. Un humano seguro que sí que puede. Los académicos han pedido a las Naciones Unidas (ONU) que estas armas se prohíban, pero ni EE UU, ni China, ni Israel ni Rusia aceptan. ¿Los rusos tienen alguna arma de ese tipo? No lo sé, pudiera ser. Lo que creo es que han optado por una invasión de las del siglo XIX con tanques y militares que van allí totalmente desmotivados.

–El científico Ray Kurzeweil decía que gracias a la teoría de la singularidad podrían solucionarse este tipo de conflictos.

–Esa teoría dice que ahora somos los humanos los que vamos programando y mejorando los sistemas, pero llegará un momento en será la inteligencia artificial la que se mejorará a sí misma, y eso será algo exponencial, el humano ya no necesitará intervenir. Estamos muy lejos de eso. Somos incapaces de que las máquinas entiendan los elementos de la semántica más simples. Una máquina sabrá distinguir lo que es un perro de un gato, pero no habrá estado jugando con un gato que es lo que les va a dar esa relación emotiva. Hasta que estos sistemas no sean capaces de experimentar con el mundo, la parte de la semántica estará siempre coja.

Compartir el artículo

stats