Entrevista | Miguel Luengo-Oroz Experto y emprendedor en inteligencia artificial (IA)

"Si la democracia no es muy sólida, la IA puede usarse para oprimir a minorías"

"Las sociedades humanas se construyen implícitamente sobre la confianza pero esta se halla cada vez más fragmentada y los cimientos más sólidos para construirla y que toda la humanidad siga teniendo algo en común son la ciencia y el método científico basado en evidencias"

Miguel Luengo-Oroz (Oviedo, 1981), experto en inteligencia artificial (IA) |

Miguel Luengo-Oroz (Oviedo, 1981), experto en inteligencia artificial (IA) |

Javier Cuervo

Javier Cuervo

Miguel Luengo-Oroz (Oviedo, 1981), experto en inteligencia artificial (IA) para el impacto social y la salud es un ingeniero Telecomunicaciones en Madrid con el último año de ingeniería de Minas en París con un máster en una escuela de ciencias sociales y un doctorado en el área de la biomedicina. "Creo en la ciencia antidisciplinar: no existen barreras entre las disciplinas".

Creció en La Fresneda (Siero) hasta los 18 años en que fue a Madrid a estudiaren la Universidad Politécnica, pero conserva en Asturias familia y amigos. Estuvo tres meses en Silicon Valley con la NASA trabajo 10 años para Naciones Unidas en dar soluciones algorítmicas a crisis humanitarias o modelos epidemiológicos para poblaciones vulnerables durante el covid... Es fundador y consejero delegado de Spotlab, empresa experta en IA para investigación clínica y diagnóstico que diseña soluciones para empresas farmacéuticas, instituciones de salud pública, proveedores de atención médica e investigadores. Desde hace dos semanas pertenece al consejo científico de la compañía asturiana Química del Nalón. Casado, dos hijas, viven en Madrid.

–¿Trabaja en la parte luminosa de la IA?

–Sí, en Spotlab trabajamos para que la IA ayude a conseguir una medicina de precisión y personalizada.

–Por ejemplo.

–Descubrir patrones y mutaciones comunes a un grupo de pacientes oncológicos para elegir el tratamiento más adecuado, ganar tiempo en el diagnóstico de la leucemia, el linfoma y otros cánceres de la sangre; erradicar los errores diagnósticos, como los relacionados con antibióticos resistentes.

–¿Qué más?

–Buscar fármacos más eficaces para enfermedades raras, desatendidas e incurables. Desarrollamos tecnología accesible a hospitales grandes y pequeños en Europa y también en Latinoamérica y África, colaborando con la fundación de Bill & Melinda Gates para diagnosticar enfermedades infecciosas que afectan a más de mil millones de personas. Los médicos del futuro serán directores de orquesta de algoritmos de IA.

–¿Qué podría hacer un Josef Mengele de la IA aplicada a la medicina?

–La tecnología puede usarse para el bien y para el mal. Seguramente Josef podría querer diseñar armas biológicas artificiales con predilección por ciertos rasgos genéticos o hackear resonancias magnéticas introduciendo tumores "deep fake" en la imagen que nunca han existido.

–Vaya.

–En todo caso, el principio de Hanlon es más relevante: "No achaques a la maldad lo que puedas achacar a la ignorancia". Uno de los grandes retos es no cegarse por la luz de la IA y creer las decisiones de la IA a pies juntillas. Hay que diseñar y validar sistemas de manera correcta – hoy parece que todo el mundo sabe de IA- teniendo en cuenta posibles sesgos: un algoritmo validado en radiografías de hombres blancos californianos podría no funcionar en datos de una mujer de la península ibérica.

Ha sido el primer científico de datos que ha trabajado en la Oficina del Secretario General de la ONU sobre pobreza, seguridad alimentaria, refugiados y migrantes, epidemias, infodemia y clima...

–Durante una década me ha permitido ver el mundo desde muchas perspectivas diferentes. He tenido el privilegio de vivir en Nueva York y ver cómo funciona la sala de máquinas de las relaciones internacionales y abrir laboratorios de innovación en Kampala (Uganda) y Jakarta (Indonesia), desarrollar algoritmos para ver imágenes satélite de crisis humanitarias con colegas en el CERN, hacer estudios clínicos en Mozambique o trabajar en el sistema de distribución de agua potable en un campo de refugiados en Jordania en la frontera con Siria.

–¿Mucho en el terreno?

–Con un equipo distribuido por el mundo, la silla de playa en mi despacho de casa en Madrid desde la que he hecho videoconferencias se hizo bastante famosa... y motivo de chiste.

–¿La IA trae el maquinismo para las tareas intelectuales en las que desaparece el trabajador y las artes y artesanías? Dice que el coste de las tareas cognitivas va a tender a cero.

–Sí, la IA es capaz de procesar información a una velocidad, escala y eficiencia sin precedentes. Aprende con ejemplos (datos) y cuando tiene suficientes de algo lo puede hacer de manera muy eficiente y sencilla. Como la rueda o la máquina de vapor multiplicaron nuestra capacidad para realizar trabajo físico, vamos a multiplicar nuestra capacidad de hacer trabajo intelectual. De momento la IA ha conseguido dominar el lenguaje y puede realizar tareas de consultores, abogados y escritores y pronto de matemáticos, ingenieros y armadores. En muchos trabajos del futuro usaremos IA para amplificar nuestras capacidades, otros serán automatizados y surgirán otros nuevos. La clave es adaptarnos a tiempo a esta transición como sociedad y que no haya una clase social innecesaria para el sistema productivo.

–Usted propone un sello Made in human, para indicar si lo hace una persona. Recuerda a los productos modificados genéticamente.

–O a la etiqueta de composición de los alimentos. El mundo de las ideas antes solo habitado por creaciones humanas ahora convive con creaciones que vienen de las máquinas o de humanos usando máquinas. Asumiendo que ponemos las líneas rojas, la regulación y las reglas necesarias, es posible que vivamos en muy poco tiempo donde el contenido humano, el “madeinhuman” es la excepción.

–¿Así lo cree?

–En uno de los futuros posibles, donde hemos sido capaces de controlar la proliferación de contenido sintético en nuestras sociedades, un ángulo diferente sería comenzar a marcar de forma voluntaria aquello hecho por humanos. Si lo hecho a mano tiene su valor -la ropa o la artesanía- y se diferencia de lo hecho de manera industrial, lo hecho a humano puede que tenga algo especial. Lo imperfectamente humano.

–¿Nos hará más tontos o más listos?

–Nos hará diferentes. Con superpoderes nuevos y más tiempo libre. Tenemos que evitar ser esclavos del algoritmo, mantener nuestra independencia y capacidad para decidir. No tiene sentido que el trabajo de un ser humano sea solo seguir los pasos que indica la pantalla. El humano debe poder hackear el algoritmo.

–¿Futuro para los hijos?

–Necesitamos un plan. ¿Se imagina una generación que no sepa redactar porque solo usa asistentes de escritura? No porque haya calculadoras hemos dejado de aprender aritmética básica. Necesitamos enseñar pensamiento computacional en los colegios. El desafío es dar respuestas y saber hacer las preguntas correctas.

Sam Altman, jefe ejecutivo de la creadora de ChatGPT, desconfía de los resultados a que pueda llevar la IA y Bill Gates planteó un "gobierno global" como posible solución para regular el avance de la IA. Son dos visionarios ¿Qué ven?

–Un cambio de fase. En el futuro próximo nuestras interacciones en el ecosistema digital estarán mediadas por los copilotos de IA o asistentes personales inteligentes. Les preocupa el concepto de alineamiento.

–¿Qué es eso?

–Asegurar que los sistemas de IA actúen de acuerdo con los intereses y valores humanos. Más que un gobierno global necesitamos mecanismos que permitan delimitar líneas rojas, como hemos hecho con la manipulación de la genética humana o parar el agujero en la capa de ozono.

–¿Es optimista?

–Mi enfoque de la IA es un equilibrio optimista. Una visión de cómo esta tecnología puede beneficiar a la sociedad, y ser consciente de sus riesgos y trabajar para mitigarlos.

Con la propagación de bulos indetectables en la política, el periodismo y también el comercio el mal uso de la IA trae una abolición de la verdad y de la certeza. ¿Hay forma de defenderse?

–Hemos de estar preparados para tsunamis de desinformación. Lo básico es asegurarnos de que lo que vemos en el mundo digital refleja la realidad física. El artista Simon Weckert metió 100 teléfonos móviles con el GPS encendido en un carrito de la compra y lo paseó por su calle vacía. Un buen plan para disociar el mundo real del digital y simular un atasco en Google Maps y que ningún coche pasase por su calle.

–¿Cómo verificamos lo cierto?

–Una posible solución es que los fabricantes de cámaras y micrófonos de nuestros smartphones y otros dispositivos añadieran una marca de agua al fichero en el mismo momento de la captura de la imagen audio o vídeo, un código único que solo se podría generar en ese momento en ese lugar, una especie de sello físico estampado en el documento digital desde su nacimiento. Cualquier imagen que no dispusiese de ese código habría sido manipulada o creada en el entorno digital. Además, cada pieza de información tendría asociada una especie de certificado de trazabilidad con una línea temporal de sus modificaciones.

–¿Es mejor no confiar en nadie?

–El Foro de Davos y la ONU han dicho que 2024 es el año para reconstruir la confianza. Problemas de todos que parece que no son de nadie, como el clima y la desinformación, requieren de cooperación global basada en la confianza. Hace un par de meses me encargaron revisar las actas de la "Nobel Prize Summit", una convención de premios Nobel y expertos que debatían sobre verdad y confianza en la era digital.

–¿Qué concluyó?

–Mi interpretación es que todas las sociedades humanas se construyen implícitamente sobre la confianza, pero estamos presenciando que la confianza de las sociedades está cada vez más fragmentada. Nos dividimos en grupos más pequeños y polarizados, desde la política internacional a las asociaciones de vecinos. Un mundo en llamas lleno de deep fakes, con un umbral para ir a la guerra muy bajo, es un caldo de cultivo perfecto para más grupúsculos locales y divergentes. Necesitamos una visión compartida del mundo. La ciencia y el método científico basado en evidencias son los cimientos más sólidos para construir confianza y que la humanidad siga teniendo algo común.

–Personajes públicos poco apocalípticos hablan de riesgos muy serios para la democracia en el mundo.–

Este año van a votar más de dos mil millones de personas en más de 50 países. Las herramientas de IA generativa son como las redes sociales con esteroides. Vamos a ver nuevas estrategias para arañar votos.

–¿Como cuáles?

–Personalización de las campañas: ¿te imaginas a un candidato mandando un mensaje de voz personalizado a tu whatsapp? Deepfakes con información falsa y verdades incómodas disfrazadas como deepfakes. Donde la democracia y las instituciones no son muy sólidas, la IA puede usarse para oprimir a minorías y a sus candidatos. Para alinear los valores democráticos con los objetivos tecnológicos, todos los actores deben tener responsabilidades y mecanismos de rendición de cuentas, desde los que desarrollan la tecnología hasta los que distribuyen los contenidos.

¿Cuánto trabaja?

–Soy un robot muy humano. Sé organizarme para disfrutar y estar disponible al máximo en todos los planos de mi vida. Cuando me dan dos opciones a escoger cojo ambas.

¿Qué tal se vive de la IA?

–Sin queja. Aunque emprender e innovar no es fácil, soy un privilegiado por trabajar en algo que me apasiona en un momento trascendente.

Suscríbete para seguir leyendo