Drones militares autonomos: Ya no es algo de la Ciencia Ficcion.

La posibilidad de que algún día las decisiones de vida o muerte sean tomadas por máquinas que no están bajo el control directo de los humanos debe tomarse en serio. En los últimos años hemos visto un rápido desarrollo en el campo de la tecnología de drones, con un grado cada vez mayor de autonomía. Si bien no hay sistemas de drones autónomos aprobados que estén operativos, por lo que sabemos, es una tecnología que se está probando y desarrollando actualmente. Algunos ven las nuevas oportunidades y los beneficios potenciales que el uso de drones autónomos pueden ofrecer, otros consideran que el desarrollo y el uso de dicha tecnología son inherentemente inmorales. Personas influyentes como Stephen Hawking, Elon Musk y Steve Wozniak ya han instado a que se prohíba la guerra utilizando armas autónomas o inteligencia artificial. Entonces, ¿dónde estamos y cuáles son los principales problemas legales y éticos?

Hasta el momento, no existe una definición acordada o legal del término “drones autónomos”. La industria usa la etiqueta de “autonomía” extensamente, ya que da una impresión de tecnología muy moderna y avanzada. Sin embargo, varias naciones tienen una definición más estricta de lo que deberían llamarse drones autónomos, por ejemplo, el Reino Unido los describe como “… capaces de comprender un nivel más alto de intención e intención” (Ministerio de Defensa británico, El enfoque del Reino Unido para los sistemas de aeronaves no tripuladas, 2011 ) En general, la mayoría de las autoridades militares y de aviación llaman a los vehículos aéreos no tripulados “Aeronaves pilotadas a distancia” (RPA) para recalcar que vuelan bajo el control directo de los operadores humanos.

La mayoría de la gente probablemente entiende el concepto de “drones autónomos” como algo sofisticado, por ejemplo, drones que pueden actuar en función de su propia elección de opciones (lo que comúnmente se define como “iniciativa del sistema” y “autonomía total” en terminología militar). Tales drones están programados con una gran cantidad de respuestas alternativas a los diferentes desafíos que pueden enfrentar al realizar su misión. Esto no es ciencia ficción, la tecnología está desarrollada en gran medida, aunque, hasta donde sabemos, no hay sistemas de drones autónomos aprobados todavía operativos. El factor limitante no es la tecnología, sino más bien la voluntad política de desarrollar o admitir tener una tecnología tan delicada desde el punto de vista político, que permita que las máquinas letales funcionen sin estar bajo el control directo de los humanos.

Uno de los mayores desafíos para el desarrollo y aprobación de aeronaves con dicha tecnología es que es extremadamente difícil desarrollar sistemas de validación satisfactorios, lo que garantizaría que la tecnología sea segura y actúe como lo haría un ser humano. En la práctica, estos drones sofisticados incluirían la programación de un número increíble de combinaciones de cursos de acción alternativos, por lo que es imposible verificarlos y probarlos al nivel que estamos acostumbrados para los aviones tripulados. También hay quienes piensan que la autonomía significa “inteligencia artificial”, sistemas que aprenden e incluso desarrollan por sí mismos posibles cursos de acción ante nuevos desafíos. No tenemos conocimiento de que estamos cerca de un gran avance en dicha tecnología, pero muchos temen que en realidad podamos estarlo.

Los drones autónomos, es decir, los drones avanzados programados con algoritmos para innumerables cursos de acción definidos por el ser humano para enfrentar los desafíos emergentes, ya están siendo probados por varias universidades civiles e instituciones de investigación militar. Vemos pruebas de “enjambres de drones” (drones que siguen y toman tareas de otros drones) que, por supuesto, son totalmente dependientes del procesamiento autónomo.

También vemos pruebas de drones autónomos que operan con aviones tripulados, todos los que la Fuerza Aérea de los EE. UU. llama aviones “Loyal Wingman”, hasta el sistema de vigilancia marítima de área amplia (BAMS) quien ya ha probado la patrulla marítima Poseidon P-8 y aviones TRITON no tripulados. También vemos un mayor desarrollo de sistemas no tripulados que se enviarán desde aviones tripulados, para trabajar de forma independiente o en la extensión de la “aeronave madre”, por ejemplo, los nano drones PERDIX probados recientemente, de los cuales 100 drones fueron lanzados desde un F-18 “Madre aeronave”. Tales drones necesariamente operarían con un alto grado de autonomía. Estos muchos desarrollos y aspiraciones están bien descritos en, por ejemplo, el documento de planificación estadounidense USAF RPA Vector – Vision and Enabling Concepts 2013-2038 publicado en 2014, y otra documentación e incluso  hay videos de dicha investigación que están ampliamente disponibles. Las perspectivas de la tecnología autónoma, ya sean drones voladores, vehículos submarinos u otros sistemas de armas letales, claramente traen nuevas oportunidades para las fuerzas militares.

En el caso de aviones voladores, hemos aprendido que hay largos plazos de entrega para educar a los pilotos y operadores. Uno de los mayores cambios que vendrá del desarrollo de drones autónomos es que las fuerzas militares en el futuro (cercano) podrían desarrollar un gran poder de combate en plazos mucho más cortos que antes. Es importante señalar, y muchos lo han hecho, que crear la infraestructura y educar a la tripulación de tierra para operar drones no es más barato o más fácil de lo que es educar a la tripulación. Sin embargo, una vez en su lugar, la tripulación de drones y los centros de operación podrían operar un gran número de drones. Del mismo modo, los aviones tripulados “de legado”o “legacy” estarían en el centro de un sistema local de combate o inteligencia extendido con drones que sirvan, por ejemplo, en roles de soporte para interferencia, como plataformas de entrega de armas o como un sistema de plataformas multisensor.

Estas perspectivas para los nuevos tipos de sistemas de armas de alta tecnología, y los temores que despiertan, son el trasfondo de la investigación que realizamos sobre drones autónomos y sistemas de armas. Es casi imposible evaluar cuándo se generalizarán estas tecnologías, esto dependerá de la situación y la necesidad de los estados. Sin embargo, las tecnologías se están volviendo disponibles y están madurando, y podríamos argumentar que las difíciles discusiones sobre los desafíos legales y éticos deberían abordarse antes, en lugar de despues.

Las perspectivas legales

Se aplican reglas generales, pero no es tan simple.

Los drones autónomos, siempre y cuando se utilicen durante un conflicto armado, estarían sujetos a los principios y reglas generales de la Ley de Conflicto Armado. A este respecto, los drones autónomos no deben distinguirse de otras armas, sistemas de armas o plataformas de armas. Al igual que con cualquier “medio de guerra”, los drones autónomos solo deben dirigirse a objetivos legales (objetivos militares y combatientes) y no se debe esperar que los ataques causen un daño colateral excesivo.

Algunas características particulares de los drones autónomos pueden, sin embargo, desafiar la aplicación de la Ley de Conflicto Armado. Los zánganos autónomos, independientemente de cómo uno elija finalmente definirlos, podrían operar por sí mismos hasta cierto punto en tiempo y espacio. Esta (potencial) ausencia de interferencia humana con el arma o sistema de arma, durante los ataques, plantea la cuestión de cuándo y dónde la ley requiere la presencia humana en el ciclo de decisión. Antes de proporcionar algunas respuestas tentativas a esta pregunta, debemos destacar algunos aspectos de los requisitos legales que incumben a los comandantes durante las decisiones de ataque.

La ley requiere un comandante razonable que actúe de buena fe

Varias de las obligaciones legales aplicables durante el conflicto armado se hacen para adaptarse a la “niebla de la guerra”. Algunas de estas reglas legales contienen expresiones flexibles que dejan a los comandantes militares con cierto margen de discreción cuando interpretan y deciden, por ejemplo, lo que equivale a una “ventaja militar” y cuán importante es esta ventaja para el ataque en su conjunto. Además, tienen que ponderar la importancia relativa de esta ventaja en comparación con el daño colateral anticipado (el principio de proporcionalidad).

Este margen de discreción se combina con la expectativa de que el comandante militar actúe de buena fe y evalúe la ventaja militar (así como el daño colateral) en función de la información razonablemente disponible para él o ella en ese momento. Durante las decisiones de ataque, los comandantes militares involucrados en la planificación o ejecución del ataque deben tomar todas las “precauciones factibles” para “verificar” que el ataque no está dirigido a una persona protegida u objeto protegido y que no se espera que el ataque viole el principio de proporcionalidad. ¿Cómo se aplican estas nociones discrecionales al uso de drones autónomos?

¿Cuánto toque humano se requiere?

Los drones autónomos no son capaces de razonar en el sentido humano. Ellos no poseen conciencia humana. Hasta ahora, los drones autónomos (o cualquier sistema autónomo) no pueden reemplazar al ser humano dentro de la ley. Los requisitos establecidos anteriormente parecen suponer un “ser humano en el ciclo” (“human in the loop”) del ciclo de decisión. En algún momento durante las decisiones de ataque, un ser humano debe decidir qué atacar y qué tan importante es el objetivo. La pregunta clave gira en torno a qué tan amplio es el ciclo de decisión.

Obviamente, los operadores humanos pueden ser asistidos por máquinas autónomas (así como animales “autónomos”) limitados en el tiempo y el espacio, pero ¿dónde se requieren limitaciones? Al igual que con cualquier pregunta legal sobre guerra, la respuesta seguramente será circunstancial. Si el entorno está densamente poblado (como zonas urbanas), las limitaciones deben necesariamente ser más estrictas que en áreas menos pobladas (como en alta mar o bajo el agua). Aquí, como en todas partes, el diablo está enterrado en los detalles: en algunas circunstancias, un sistema autónomo de armas puede (legalmente) “quedarse solo” para operar durante horas o días, mientras que en otras circunstancias toda la autonomía debe ser cerrada para confiar en juicio humano – o error.

De la ley a la ética

También debemos reconocer la relevancia de la ética en los debates sobre drones autónomos. El cumplimiento de la ley es fundamental para cualquier política militar y política, incluido el desarrollo y uso de drones autónomos. Aunque la ley y la ética a menudo se superponen, puede haber importantes cuestiones éticas en juego, particularmente en el caso de las tecnologías militares emergentes, que la ley actual no aborda adecuadamente. La reflexión ética puede, en otras palabras, complementar la ley proporcionando orientación normativa en estas “áreas grises”. También puede ser importante enfatizar cuándo las obligaciones éticas deben exceder las obligaciones legales en interés de una buena gobernanza política.

Perspectivas éticas sobre drones autónomos

La delegación de decisiones de vida o muerte a agentes no humanos es una preocupación recurrente de quienes se oponen a los sistemas de armas autónomas. Una preocupación principal es que permitir que una máquina “decida” matar a un ser humano socava el valor de la vida humana. Desde esta perspectiva, la vida humana tiene un valor tan significativo que es inapropiado que una máquina decida terminar una vida, en otras palabras, hay algo intrínsecamente inmoral sobre el desarrollo y uso de drones autónomos.

Puede ser difícil argumentar que los drones autónomos pueden satisfacer el jus in bello criterio de discriminación en la “tradición de guerra justa”. Hacer juicios morales acerca de a quién puede legítimamente apuntar en la “niebla de la guerra” es difícil incluso para los soldados humanos. El temor es que permitir a los drones autónomos hacer tales distinciones probablemente resulte en bajas civiles y daños colaterales inaceptables. Incluso si tales sistemas de armas pudieran discriminar entre combatientes y no combatientes, todavía es una cuestión si un avión no tripulado autónomo podría evaluar si un ataque es proporcionado o no, es decir, si el ataque causaría sufrimiento innecesario. Sin embargo, más allá de la incertidumbre de las capacidades tecnológicas que los drones autónomos poseerán en el futuro para hacer tales distinciones, también se puede argumentar que si estos sistemas de armas no pueden funcionar dentro de los requisitos de jus in bello, es poco probable que se desplieguen, al menos en entornos operativos donde el riesgo de causar daños excesivos a civiles es alto. Por otro lado, también podría argumentarse que el uso de drones autónomos no solo es aceptable desde una perspectiva moral sino que incluso es moralmente preferible a los soldados humanos. Los drones autónomos podrían procesar más información sensorial entrante que los soldados humanos y, por lo tanto, podrían tomar decisiones más informadas. Y dado que los juicios de las máquinas no estarían empañados por emociones como el miedo y la ira, posiblemente podrían reducir el riesgo de crímenes de guerra que de otro modo podrían haber sido cometidos por soldados humanos.

El uso de drones autónomos también puede mejorar ciertos aspectos de las misiones humanitarias, beneficiando a los civiles que reciben asistencia y reduciendo los riesgos para los soldados. El uso de sistemas autónomos para buscar áreas peligrosas o realizar tareas de alto riesgo, como la eliminación de bombas o la limpieza de una casa, eliminaría el riesgo de que soldados humanos resulten heridos o asesinados. Por otra parte, tales desarrollos pueden tener implicaciones para los criterios jus ad bellum de la “tradición de guerra justa”. Limitar el riesgo a los soldados sacándolos del campo de batalla podría hacer que la guerra sea “fácil”, reduciéndola a una empresa tecnológica de bajo costo que ya no requiere ningún compromiso público o moral.

¿Dónde estamos parados y a dónde deberíamos ir?

Es difícil predecir el futuro, pero el potencial tecnológico de los drones autónomos ya se está probando y desarrollando. En qué medida se convertirán en importantes tecnologías militares dependerá de cuáles sean las necesidades de las naciones, que a su vez estarán determinadas por la situación de seguridad futura. Sería mejor desarrollar un marco legal y ético antes de llegar a tal situación.

Claramente, los drones autónomos plantean importantes cuestiones judiciales y éticas sobre la responsabilidad por daños no intencionales. Las tecnologías crean algunas brechas de responsabilidad moral. Cuando se despliegan sistemas militares autónomos, se vuelve menos claro cómo repartir la responsabilidad. Y tales brechas potenciales de responsabilidad deben abordarse adecuadamente a través de soluciones técnicas y regulaciones legales. Por lo tanto, la OTAN y sus aliados deberían entablar discusiones internacionales sobre estos temas. Al mismo tiempo, la evolución tecnológica continuará y un dron autónomo, sin importar cuán sofisticado tecnológicamente esté diseñado, sigue siendo un producto, una herramienta en manos de los humanos. Nuestra responsabilidad fundamental de la guerra y cómo se libran las guerras nunca puede ser “subcontratada” moralmente, y menos aún a las máquinas.

Coautores: Coronel (PhD) Gjert Lage Dyndal, actualmente trabajando en el equipo de capacidad de análisis estratégico de la OTAN y ex decano de la Academia de la Fuerza Aérea de Noruega, y LtCol (PhD) Tor Arne Berntsen y Ass. Profesor Sigrid Redse-Johansen, ambos de la Universidad de Defensa de Noruega. El artículo se basa en su investigación conjunta y libro reciente publicado en noruego. Nota al pie: Lo que se publica en la Revista de la OTAN no necesariamente representa la posición o política oficial de los gobiernos miembros, o de la OTAN.

 

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google+ photo

You are commenting using your Google+ account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

w

Connecting to %s