WASHINGTON | Human Rights Watch ha denunciado que Estados Unidos, China, Rusia, Corea del Sur, Israel, Alemania y el Reino Unido están involucrados en el desarrollo de de robots militares automáticos que busquen objetivos para atacar y tomen por su cuenta la decisión de matar.
En una rueda de prensa que tuvo lugar este pasado lunes en Washington, la organización de defensa de los derechos humanos ha pedido que los gobiernos prohíban el desarrollo de estas armas. “Pedimos una prohibición del desarrollo, producción y uso de estas armas completamente autónomas, tanto a nivel nacional de Estados Unidos como a través de un tratado internacional que las prohíba de forma integral”, instó Steve Goose, director de la división de Armas de esta ONG.
Goose presentó el informe preparado por la ONG, titulado ‘Losing Humanity: The Case against Killer Robots' ('Perdiendo la humanidad: el caso contra los robots asesinos').
AVANCES TECONOLÓGICO
Los drones usados en los ataques en Pakistán, Afganistán y Yemen son controlados por personas y no pueden matar sin autorización humana . Sin embargo, Human Rights Watch advierte que ya existen tecnologías que necesitan poca intervención humana, aunque la creación de robots militares completamente autónomos puede tardar 20 o 30 años.
Por ejemplo, el sistema de armamento Phalanx usado en los buques estadounidenses es capaz de detectar el fuego y destruir los proyectiles adversarios por su cuenta. Northrop Grumman X-47 Pegasus es un drone de tamaño de un avión normal que puede despegar y aterrizar en los buques portaaviones sin un piloto y hasta pueden repostar gasolina en el aire.
Finalmente el mecanismo quizá más parecido a una especie de ‘Terminator’ es un robot de guardia elaborado por Samsung y usado en Corea del Sur. El robot es capaz de registrar movimientos en el territorio, conversar con los visitantes y, en caso de recibir la autorización de un controlador humano, disparar.
¿QUIÉN ES RESPONSABLE?
Muchos países están muy interesados en crear robots capaces de atacar sin intervención humana para poder minimizar la intervención de tropas y disminuir la cantidad de muertes de los soldado s, destacó Goose en la rueda de prensa. Pero alertó que la aplicación de robots que seleccionan objetivos para atacar pone en peligro a los civiles , porque los robots no distinguirán si una persona es militar, ni sienten compasión .
Por otro lado, el organismo asegura en el informe que el uso de estas armas dificulta la búsqueda de responsabilidades, porque los robots no pueden ser condenados por sus actos ni está claro quién podría asumir la responsabilidad en la jerarquía militar. “Si un robot se vuelve loco, ¿quién va a ser responsable? Seguramente no el robot”, dice Noel Sharkey, profesor de robótica de la Universidad de Sheffield.
“No hay ninguna manera de definir quién tiene que asumir la responsabilidad, algo que es muy importante para la ley marcial”, expresa el científico. Además, cree que se entraría en guerras con mayor facilidad y los regímenes dictatoriales podrían usarlo para ir en contra de su propia población.
Fuentes: AFP, RT
Editado por: Protestante Digital 2012
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.