Según el Diccionario de la RAE, un robot es una máquina o ingenio electrónico programable, capaz de manipular objetos y [de] realizar operaciones antes reservadas solo a las personas. Desde que el dramaturgo checo Karel Chapek utilizó esta palabra por primera vez en 1920 y algunos autores, como el célebre escritor Isaac Asimov, se plantearon cuáles serían las leyes de la robótica, la tecnología ha evolucionado de tal manera que, hoy en día, ya es capaz de proporcionarnos sistemas que una vez activados –como ha reconocido la ONU– pueden seleccionar y atacar objetivos sin necesidad de intervención humana; dando lugar a graves cuestiones relacionadas con la protección de la vida en tiempos tanto de guerra como de paz. El informe A/HCR/23/47 del Consejo de Derechos Humanos de la ONU [Human Rights Council (HRC)] cita los ejemplos del sistema Phalanx para cruceros de la clase Aegis, de EE.UU.; el Harpy, de Israel, un sistema de armas autónomo del tipo “dispara y desentiéndete”; el “modo automático” de los robots situados en la frontera entre las dos Coreas que permite detectar objetivos mediante sensores de rayos infrarrojos; o el prototipo de avión de combate no tripulado con motor de reacción Taranis, de Gran Bretaña, que permite buscar, identificar y localizar enemigos de forma autónoma. Robocop o Terminator están, cada día, más cerca de abandonar la ficción para convertirse en realidad.
En este contexto, el analista Peter Warren Singer considera que, en el siglo XXI, la implicación robótica ya tiene una importancia equivalente a la introducción de la pólvora y las bombas nucleares [SINGER, P. W. Wired for War. Nueva York: Penguin, 2009, p. 203].
El 23 de agosto de 2010, un informe que ha resultado ser pionero, el A/65/321, escrito por el Relator Philip Alston para la Asamblea General de las Naciones Unidas, alertó a la comunidad internacional de que permanecía anclada firmemente en el siglo XX, abordando de manera sumamente lenta las repercusiones de las nuevas tecnologías en esferas tales como la robótica y sus efectos en la protección de los derechos humanos. Casi tres años más tarde, el 9 de abril de 2013, se presentó un nuevo informe anual –el A/HRC/23/47 que citábamos anteriormente– del Relator Especial Christof Heyns, donde este profesor sudafricano ha profundizado en la protección de la vida y el uso de los denominados robots autónomos letales [Lethal Autonomous Robotics (LAR)].
Estos robots –al igual que sucede con los vehículos aéreos de combate no tripulados [unmanned combat aerial vehicles (UCAV) a los que suele denominarse, simplemente, como drones o aviones no tripulados] y los asesinatos selectivos (los llamados targeted killings)– comienzan a ofrecer motivos de preocupación en relación con la protección de la vida, en el marco legal del Derecho Internacional de los Derechos Humanos [International Human Rights Law (IHRL)] y el Derecho Internacional Humanitario [International Humanitarian Law (IHL)] puesto que no debe olvidarse la primacía y el carácter imperativo que posee el derecho a la vida en virtud de los tratados y del Derecho Internacional, de acuerdo con los Arts. 4.2 y 6 del Pacto Internacional de Derechos Civiles y Políticos que la ONU aprobó en 1966.
En opinión del profesor Heyns, la tecnología moderna, en las sociedades que tienen acceso a ella, permite aumentar la distancia entre los usuarios de armas y la fuerza letal que estas proyectan; de forma que los drones, por ejemplo, permiten a quienes controlan la fuerza letal no estar físicamente presentes cuando la despliegan, sino activarla sentados frente a computadoras a mucha distancia y permanecer alejados de la línea de fuego. Si los robots autónomos letales se unen a los arsenales de los Estados, añadirían una nueva dimensión a ese distanciamiento, ya que los propios robots podrían adoptar las decisiones relativas a la selección de los objetivos. Además de estar físicamente distanciados de la acción cinética, el ser humano estaría también más alejado de las decisiones de matar y de su ejecución.
Supuestamente, ningún gobierno prevé utilizar robots autónomos letales en los conflictos armados u otras situaciones; pero, como recuerda con buen criterio el Relator de las Naciones Unidas: los aeroplanos y aviones no tripulados se empezaron a utilizar en conflictos armados únicamente con fines de vigilancia, y se descartó su empleo con fines ofensivos por las consecuencias negativas que comportaría; sin embargo, la experiencia posterior indica que, cuando se dispone de tecnología que proporcione una clara ventaja sobre un adversario, a menudo se olvidan las intenciones iniciales.
Por ese motivo, es necesario que se refuerce el marco jurídico internacional ahora, cuando todavía estamos a tiempo, para determinar si los robots autónomos letales podrán cumplir las exigencias del Derecho Internacional Humanitario porque la tecnología se está desarrollando de manera exponencial, y (…) en consecuencia, es casi imposible determinar cuán cerca se está de disponer de robots totalmente autónomos listos para su uso.
No hay comentarios:
Publicar un comentario