Ya puedes escuchar y descargar nuestros podcast desde la plataforma iTunes.

Clave7 en iTunes

miércoles, 15 de abril de 2015

El desafío de los 'robots asesinos'

Se llama Atlas, es un robot y está siendo entrenado para convertirse en bombero. Un robot bombero. Se trata de un sofisticado humanoide de aluminio y titanio de 1,80 metros de altura desarrollado por la empresa Boston Dynamics en colaboración con DARPA, la Agencia de Proyectos de Investigación Avanzados del Departamento de Defensa de EEUU. Desde que fue presentado en 2013, sus capacidades han ido perfeccionándose con el objetivo de que algún día participe en tareas de rescate.

Atlas es un ejemplo de lo que la robótica podría hacer por la humanidad en el futuro: reemplazar a las personas en misiones peligrosas. Desde intervenciones en incendios o áreas devastadas por terremotos, a accidentes nucleares como el de Fukushima, en el que los operarios de la central japonesa arriesgaron su vida (algunos de ellos la perdieron) para contener la fuga radiactiva. Los sistemas actuales son programados por el hombre y requieren, en mayor o menor medida, de su intervención. Sin embargo, los avances en Inteligencia Artificial (IA) apuntan a que dentro de unos años, décadas quizás, las máquinas serán autónomas. Podrán tomar decisiones y ejecutarlas.


El uso militar de los drones o vehículos aéreos no tripulados ya resulta polémico. Pero, ¿qué ocurriría si esos futuros robots autónomos reemplazaran a los soldados en el campo de batalla? La misma tecnología que permitiría salvar vidas humanas, podría usarse en guerras. Y el sector militar es uno de los más interesados en financiar y desarrollar este tipo de armamento.

Desde hace años, varias organizaciones internacionales, entre las que se encuentran Human Rights Watch y la plataforma Stop Killer Robots, están alertando a la comunidad internacional sobre el que consideran un inquietante y preocupante escenario de futuro. El lunes comenzó en Ginebra la segunda reunión informal de expertos convocada por miembros de la Convención sobre Armas Convencionales (CCW) de la ONU para avanzar en un futuro acuerdo que prohíba el desarrollo de los Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés), conocidos como robots asesinos.

Se trata de una tecnología que plantea importantes cuestiones éticas: ¿Quién sería jurídicamente responsable de la actuación de un robot autónomo? ¿Es aceptable que una máquina decida sobre la vida de una persona?

«Creo que, definitivamente, es posible crear un tratado internacional que prohíba las armas autónomas que seleccionen objetivos y los ataquen sin un control humano significativo. La tecnología para fabricar ese tipo de armas ya existe. No desarrollar ese armamento es sólo una cuestión de voluntad de países y sus ejércitos», explica a EL MUNDO Peter Asaro, cofundador y vicepresidente del Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés). Asaro es uno de los expertos que, hasta el viernes, participan en los debates y mesas en las que se sientan políticos, diplomáticos, científicos, ingenieros, abogados y representantes de los derechos civiles para debatir sobre los robots asesinos, cuya prohibición ha sido solicitada también por el Vaticano. Hay precedentes. En 1995, por ejemplo, se acordó vetar el uso de armas láseres cegadoras.

«Ya es hora de que las naciones pasen de hablar sobre este tema a tomar medidas», ha reclamado durante su intervención la activista Jody Williams, Premio Nobel de la Paz en 1997 por su trabajo para prohibir el uso de minas antipersona y municiones de racimo, y miembro fundador de la campaña Stop Killer Robots.

«Debería ser obvio que el uso de cualquier arma debe permanecer bajo control humano», sostiene Thomas Nash, confundador de Stop Killer Robots y director de Article 36, una organización que pretende reducir los daños causados por las armas.

Según recuerda Stop Killer Robots, aunque los ejércitos de EEUU, China, Israel, Corea del Sur, Rusia o Reino Unido ya utilizan sistemas de armamento parcialmente autónomos, estos necesitan, en distintos grados, que una persona tome la decisión final. Se teme que una mayor autonomía se traduzca en sistemas que hagan posible que una máquina tenga la capacidad de seleccionar un objetivo y atacarlo sin intervención humana.

«Ahora mismo se puede desarrollar un programa que tome decisiones en función de los datos que se le den. La pregunta es cómo de buena es esa decisión (es decir, cuál es el criterio que se le ha dado para tomarla) y, sobre todo, cuántos y qué datos se han dado al computador», reflexiona el catedrático Pascual Campoy, del Centro de Automática y Robótica de la Universidad Politécnica de Madrid (UPM-CSIC).

Se puede prohibir el uso de los robots asesinos pero, ¿es posible evitar que se desarrollen? «Por supuesto, podría haber países que lo hicieran pese a la prohibición, aunque sufrirían las consecuencias. Es el mismo caso que las armas químicas. Están prohibidas y, pese a su uso ocasional, no han sido desarrolladas totalmente o empleadas como si no hubieran sido prohibidas», argumenta Peter Asaro.

No obstante, esta campaña para detener el desarrollo de los robots asesinos, subraya, «no pretende prohibir el desarrollo de sistemas autónomos y robóticos más generales. Sólo los que específicamente vayan a ser diseñados como armas. Usando el mismo ejemplo, no tememos que la prohibición de las armas químicas y biológicas vaya a impedir a los investigadores hacer ciencia que ayude a la población en el campo de la química y de la biología», señala.

El experto en robótica Murray Shanahan, asesor de la película de ciencia ficción Ex Machina, sobre una máquina que piensa y siente como un humano, es uno de los grandes defensores de las ventajas que la robótica avanzada aportará a nuestra civilización. Frente a las advertencias de científicos como Stephen Hawking o del empresario espacial Elon Musk, que han alertado sobre sus riesgos, Shanahan cree que harán nuestra vida fácil. No obstante, subraya que «el asunto es obviamente más complejo y hay aspectos que merecen que sean debatidos».

Según explica a este diario, «faltan décadas» para que se haga realidad ese escenario en el que las máquinas puedan pensar como un humano: «No sabemos cómo construir una máquina así, de modo que es importante aclarar que hablamos de riesgos a largo plazo. Por otro lado, hay cuestiones más a corto plazo sobre cómo usamos la Inteligencia Artificial, y las aplicaciones militares son una de ellas. No necesitamos una máquina comparable a una persona para que sea un arma totalmente autónoma, capaz de tomar una decisión sin intervención humana. Más difícil es asegurar que esa decisión sería la misma que tomaría una persona, que es la razón por la cual, afortunadamente, esta vía despierta tanto rechazo», añade. «Sospecho que será difícil detener el desarrollo de esta tecnología porque ningún gobierno querrá que su ejército esté en desventaja».

Concepción Monje, investigadora del Laboratorio de Robótica de la Universidad Carlos III y asesora de la película Autómata, también cree que los intereses militares dificultarán la prohibición de este armamento. No obstante, se muestra partidaria de «colocar la venda antes de la herida».

Aunque numerosos científicos se han mostrado en contra de los LAWS, de momento sólo una empresa de armamento robótico, la canadiense ClearPath Robotics, se ha comprometido a no desarrollar estos sitemas autónomos.

Las conclusiones que se extraigan de esta reunión servirán de base par la cumbre anual de la CCW que se celebrará en noviembre. «Esperamos que las discusiones puedan reconducirse hacia un escenario más formal y que el CCW avance hasta conseguir un tratado», dice Asaro.

Fuente:
El Mundo

No hay comentarios:

Publicar un comentario

.