La Nueva España

La Nueva España

Contenido exclusivo para suscriptores digitales

Eduardo Lagar

Regreso al futuro

Eduardo Lagar

Llega la máquina del exterminio

Los drones asesinos autónomos pronto serán una realidad que sobrepasa una "línea roja" moral

Matar es una capacidad fieramente humana. Pero puede dejar de serlo en exclusiva con la entrada en servicio de los primeros "killer robots", los robots asesinos, drones dotados con Inteligencia Artificial (IA) que detectan y atacan a vehículos y personas sin necesidad de que medie ninguna participación humana. Aunque ese tipo de armas aún no existen, parece que pronto serán una realidad, según un reciente anuncio del ejército de Estados Unidos. "Una vez que estén terminados, estos drones representarán la militarización máxima de la IA y desencadenarán amplias implicaciones legales y éticas para la sociedad", advierte Peter Lee, investigador en la Universidad de Portsmouth, en un artículo en "The Conversation". "Existe la posibilidad de que la guerra pase de la lucha al exterminio, perdiendo cualquier apariencia de humanidad en el proceso", añade este experto, que prepara un libro sobre los drones tripulados, para el que ha entrevistado a más de cien pilotos militares. Y todos le han dicho que incluso en estos pulcros asesinatos a distancia reina la humanidad: " Tenemos la mentalidad de permitir que un insurgente, aunque sea un objetivo importane, salga con vida en vez de asumir un impacto arriesgado que pudiera matar civiles", de indicaron a Lee.

Los "killer robots" son una pesadilla futura que ya está aquí, una amenaza real. La asociación internacional Human Rights Watch impulsa desde hace cinco años una campaña, al parecer infructuosa, para detener del desarrollo de este tipo de armas. La responsable del grupo de armas en esta ong, Bonnie Docherty, firmaba hace días un artículo en "The Guardian" donde insistía en la necesidad de que la ONU "actúe rápido" para frenar a los robots asesinos. "Estos drones carecerían de juicio humano, lo que significa que sería muy difícil garantizar que sus decisiones se ajustaran a las leyes humanitarias y de derechos humanos. Un robot no podría ser preprogramado para evaluar la proporcionalidad del uso de la fuerza en cada situación, y le resultaría difícil juzgar con precisión si el daño civil pesa más que la ventaja militar en cada caso particular", escribe. Y añade: "Sería legamente difícil y potencialmente injusto responsabilizar a cualquier persona por daños imprevisibles a civiles". ¿Encarcelaríamos a la máquina?

Peter Lee apunta que, en este caso, la responsabilidad que ahora recae en el humano que al final aprieta el gatillo se trasladaría a los científicos expertos en Inteligencia Artificial. En ese caso, escribe, "las compañías como Google, sus empleados o sus sistemas, podrían ser atacados por un estado enemigo". Y además, estas máquinas están diseñadas para optimizar sus resultados, para aprender cómo mejorar cada vez más (cómo matar más), así que habrá que establecer un tope: "Eso significa que los líderes politicos, militares y de la industria tendrán que especificar cuántas muertes civiles contarán como aceptables a medida que se perfeccione la tecnología".

Compartir el artículo

stats