La Nueva España

La Nueva España

Contenido exclusivo para suscriptores digitales

Alejandro Huergo Lora

Gobernar con algoritmos, gobernar los algoritmos

Todos los esfuerzos para evitar el mal uso de las nuevas tecnologías y hacerlas fiables al ciudadano están más que justificados

Hace ya casi tres años organicé en la Facultad de Derecho el congreso "La regulación de los algoritmos", que dio lugar a la publicación, al año siguiente y casi en pleno confinamiento, de un libro con el mismo título. Desde entonces he participado en múltiples iniciativas, siendo, por ejemplo, cofundador de la Fundación de la Inteligencia Artificial Legal (FIAL) y he tenido ocasión de hablar en decenas de foros sobre los problemas jurídicos que plantea el uso de la inteligencia artificial y los algoritmos, especialmente cuando los utilizan los poderes públicos. Junto a múltiples congresos, recientemente me han llamado para explicar estas cuestiones en cursos organizados por la Fiscalía General del Estado o la Abogacía del Estado. Cuento esto para explicar el por qué de estas líneas y también para dar a conocer la labor que se realiza en la Universidad, muchas veces desconocida en la sociedad. En los próximos tres años habrá ocasión de continuar este trabajo y de impulsar desde Oviedo una investigación internacional, porque en la última convocatoria de proyectos del Ministerio de Ciencia e Innovación uno de los que ha sido seleccionados es el que dirijo en relación con este tema, la mitad de cuyos integrantes no pertenecen a la Universidad de Oviedo, siendo varios de ellos de Universidades extranjeras.

El concepto de inteligencia artificial es demasiado genérico e impreciso, cuando estamos hablando, básicamente, de aplicaciones que permiten hacer predicciones en ciertos contextos y a partir del análisis matemático de datos. Es como comparar el eterno sueño humano de volar con la aviación tal como la conocemos.

Sus múltiples aplicaciones (cada día nos sorprende una nueva) suelen reducirse a un mismo esquema. Intentamos averiguar la respuesta a una pregunta: por ejemplo, qué personas son compradores potenciales de un producto (para dirigir a ellas la publicidad), qué averías se van a producir en una flota de aviones (para tratar de llevar los repuestos adecuados o incluso hacer un mantenimiento preventivo), qué clientes van a devolver un préstamo (para darles crédito a ellos y no a los demás), qué pacientes tienen más riesgo de desarrollar una determinada enfermedad (para aplicarles sólo a ellos una técnica de análisis que, por su coste y riesgos, no puede aplicarse a toda la población), qué empresas es más probable que estén cometiendo una infracción (para dirigir a ellas a los pocos inspectores disponibles) o cuál es el mejor momento –dentro de un margen de varias semanas– para realizar una cosecha y mejorar la calidad y el rendimiento. En todos los casos se trata de decisiones cuyo acierto permite obtener beneficios económicos (en unos casos) o sociales (cuando, por ejemplo, se detectan las infracciones realmente cometidas, o se logra identificar a los pacientes que necesitan tratamiento). Esas decisiones se toman normalmente con criterios que van desde el "ojo clínico" o la experiencia del responsable, hasta el azar (cuando, por ejemplo, se dirige la publicidad de manera general y aleatoria, sin seleccionar a sus destinatarios).

Las predicciones algorítmicas se obtienen analizando el pasado: el historial de créditos de un banco, las infracciones detectadas y sancionadas en los últimos años, los datos de las personas que han desarrollado una determinada enfermedad o de quienes han comprado un determinado producto. Ello permite obtener un "retrato robot", una serie de datos o características que se dan con más frecuencia en esas personas que en el resto. De lo que se trata es de utilizar ese retrato robot (que ha funcionado en el pasado) para intentar predecir el futuro. Del mismo modo, a través del análisis masivo de textos publicados en varios idiomas se han creado "traductores" informáticos (que todos utilizamos) que, aunque no conocen ni aplican las reglas de la gramática, saben cuál es la palabra inglesa que equivale a una española en un determinado contexto.

Este tipo de predicciones requieren tres elementos, que se han juntado en la última década: abundancia de datos analizables, capacidad computacional e instrumentos matemáticos (algoritmos) que permiten realizar ese análisis. El premio "Princesa de Asturias" 2022 de Investigación Científica y Técnica ha recaído en Geoffrey Hinton, Yann Lecun, Yoshua Bengioy y Demis Hassabis por ser quienes más destacadamente han trabajado en este campo, poniendo a punto las técnicas matemáticas que se encuentran en su base.

Idealmente, disponemos así de predicciones "basadas en datos" frente al imperio de lo subjetivo, de los prejuicios o de los tópicos, a que estamos muy acostumbrados. Como predicciones que son, su éxito o fracaso depende de su tasa de acierto.

Salta a la vista (y de ahí los esfuerzos de regulación jurídica) que todo depende del contexto en el que se utilicen las predicciones basadas en inteligencia artificial. Si las utiliza una empresa para decidir sus inversiones o dónde va a abrir nuevas tiendas, se trata de una decisión libre que no plantea ningún problema. Cosa distinta es que se utilicen para decidir cómo se trata a las personas: por ejemplo, para ofrecer diferentes condiciones contractuales a unos u otros consumidores, para decidir a qué trabajadores se contrata, a quiénes se promociona o quiénes son despedidos, o incluso que las utilicen las Administraciones Públicas. Respecto a esto último, las Administraciones tienen que aplicar la Ley, y ésta les ordena tomar unas decisiones u otras en función de los hechos constatados (por ejemplo, sancionar a quien ha cometido una infracción). No se puede sustituir la constatación de un hecho por una predicción. Por eso, las predicciones sirven fundamentalmente para orientar a la Administración, indicándole dónde puede ser más necesaria u oportuna su intervención, más que para tomar decisiones.

Frente al enfoque optimista de la inteligencia artificial, ha surgido y seguramente predomina una visión negativa, que subraya el peligro de los "sesgos". Las predicciones algorítmicas pueden contener errores de muchos tipos. Se basan en predecir el futuro a partir de datos del pasado, y esto puede fallar, entre otras cosas porque se producen cambios que hacen que lo que valió en el pasado ya no valga pocos años después (a partir de 2020 esos cambios son constantes, como todos sabemos). Además, si se utilizan datos incorrectos o tomados de otras latitudes, los errores están asegurados. La utilización de datos del pasado puede conducir también a que se perpetúen patrones de desigualdad, por ejemplo, de género. Con frecuencia, estos errores acaban perjudicando a los colectivos y personas más débiles, que sufren un nuevo perjuicio que agrava aún más sus condiciones de vida. Todo esto debe corregirse, aunque sin olvidar que, en la forma tradicional de toma de decisiones, totalmente humana, los sesgos y los prejuicios son constantes e indetectables, como han probado numerosos estudios empíricos. Cuando un operador humano tiene un margen de decisión, de forma que puede tomar dos decisiones distintas (al seleccionar candidatos para un puesto, al poner una nota, al estimar o desestimar una reclamación, etc.), son múltiples los factores que pueden llevarle a tomar una decisión u otra, y muchos de ellos son internos y subjetivos y no figuran en el razonamiento que justifica jurídicamente la decisión tomada.

Después de numerosas declaraciones y recomendaciones no vinculantes, la Unión Europea ha aprobado una propuesta de reglamento sobre inteligencia artificial, que actualmente se tramita en el Parlamento Europeo y que seguramente se aprobará en los próximos meses. Un reglamento que se ha elaborado fundamentalmente en la sede que el Centro Común de Investigación (JRC) de la Comisión Europea tiene en Sevilla y que se dedica entre otras cosas a la inteligencia artificial.

Este reglamento exige que, en los sistemas de inteligencia artificial "de alto riesgo", que son aquellos que pueden producir consecuencias más graves para terceros (por ejemplo, porque afecten al funcionamiento de máquinas o instalaciones críticas, o porque pueden afectar al tratamiento de personas, por ejemplo, en el empleo, la educación, la sanidad, etc.), se tomen medidas desde el principio para reducir los riesgos. Así, se deberá garantizar la calidad de los datos, dejar constancia de todos los procesos para que se puedan revisar y detectar posibles errores, ser transparentes en cuanto a las características del algoritmo y facilitar la revisión humana de su funcionamiento, evitando que funcione de forma independiente. De un modo similar a lo que sucede en la normativa de protección de datos, se establecen pocas prohibiciones u obligaciones concretas. Se proclaman principios u objetivos y se exige que cada operador adopte las medidas que en cada caso sean adecuadas para cumplirlos, medidas que no serán las mismas en todos los casos y que el operador deberá poder justificar ante la autoridad competente. En algunos casos se exige que un tercero verifique esas medidas. Es como si el código de la circulación, en lugar de establecer un límite de velocidad concreto (120 kilómetros por hora), dijese que los conductores adaptarán la velocidad a las circunstancias de la vía y del vehículo. Es una normativa compleja, cuya concreción quedará, en buena medida, en manos de quienes la apliquen a los casos individuales. No ayuda el hecho de que el fenómeno es tan difícil de entender y analizar en sus detalles, que sólo los expertos pueden verificar si se cumplen las normas o enterarse de que la causa de que a alguien no le llamen a una entrevista de trabajo es una predicción algorítmica.

En todo caso, creo que el verdadero potencial de esta tecnología todavía no se ha mostrado y que todos los esfuerzos dirigidos a evitar su mal uso y a hacerla fiable para los ciudadanos están más que justificados.

Compartir el artículo

stats