En uno de sus más famosos relatos de ciencia ficción, Runaround (1942), Isaac Asimov enunció la ley fundamental de la robótica: un robot no puede hacer daño a un ser humano. Sin embargo, la última generación de aviones no tripulados (drones) y otros sistemas de defensa que pueden seleccionar y atacar objetivos sin necesidad de intervención humana, están a punto de violar la ley fundamental de Asimov.
La campaña Stop killer robots lanzada por Human Rights Watch y otras ONG y el relator de la ONU sobre Ejecuciones Extrajudiciales, Christof Heyns, quieren lograr una moratoria internacional que detenga el ensayo, producción, fabricación, transferencia, despliegue y empleo de robots asesinos. Al presentar en el Consejo de Derechos Humanos su informe anual, Heyns advirtió que esas tecnologías ya están disponibles o lo estarán muy pronto.
Los robots no pueden juzgar la necesidad o conveniencia de iniciar un ataque, reaccionar proporcionadamente a las amenazas o discriminar entre combatientes y civiles. La supuesta racionalidad de ese tipo de armas es evitar el “factor humano” en las decisiones militares, condicionadas muchas veces por sentimientos como el miedo, la venganza, la crueldad o la compasión.
Un dron convencional, guiado a control remoto, puede ser “secuestrado” por un hacker. Los sistemas completamente autónomos, en cambio, son virtualmente inmunes a ese tipo de manipulaciones. Y su poder de fuego será devastador. El X-47B de la US Navy, por ejemplo, tendrá una autonomía de vuelo de 3.000 kilómetros, y una tecnología cibernética que permitirá que decenas o cientos de esos aparatos puedan ser utilizados simultáneamente sin control humano alguno en el momento de elegir sus objetivos.
Los nuevos drones podrán resistir niveles de radiación que matarían a un piloto o destruirían los circuitos electrónicos de cualquier aparato. Además de misiles convencionales, futuras versiones del X-47B…