Retos Globales

Inteligencia artificial y armas autónomas

Se entiende que son sistemas de armas que, mediante el uso de IA y tecnologías relacionadas, pueden seleccionar y atacar objetivos sin intervención humana significativa

Inteligencia artificial y armas autónomas
Carlos de Icaza / Retos Globales / Opinión El Heraldo de México Foto: Especial

El Secretario General de la ONU, António Guterres, al presentar el año pasado su Nueva Agenda para la Paz de 2023 pidió a los Estados miembros que concluyan, para 2026, un instrumento jurídicamente vinculante para prohibir los sistemas de armas letales autónomas que funcionan sin control o supervisión humana.

No existe una definición comúnmente acordada sobre estos armamentos, en la ONU se entiende que son sistemas de armas que, mediante el uso de Inteligencia Artificial (IA) y tecnologías relacionadas, pueden seleccionar y atacar objetivos sin intervención humana significativa. Armas autónomas más comunes y rudimentarias –minas antipersonales– están en operación hace décadas.

Los sistemas más modernos incluyen sistemas de defensa antimisiles y centinela, que pueden detectar y atacar objetivos de forma autónoma.

En la Guerra de Ucrania se han utilizado drones para bombardear ciudades, infraestructura estratégica y apuntar a radares e instalaciones militares. Estos drones, se controlan de forma remota, pero podrían actualizarse –según los expertos– para volverse autónomos.

En un estudio publicado el mes pasado en Foreign Affairs, The Perilous Coming Age of AI Warfare de Paul Scharre, se da cuenta de que China, Francia, India, Rusia, Reino Unido y Estados Unidos están trabajando aceleradamente en drones de combate encubiertos o sigilosos (stealth drones).

En guerras futuras, estos podrían apuntar de forma autónoma a defensas aéreas u operar como lanzadores de misiles móviles. Asimismo, los robots terrestres también podrían ser equipados con armas autónomas letales sin supervisión humana.

La guerra en Ucrania ha demostrado que en nuestro mundo interconectado, las consecuencias de los conflictos repercuten más allá de las fronteras nacionales. Según datos de la ONU, 25% de la población mundial vive ahora en zonas afectadas por conflictos.

La paz global se ha comprometido en los últimos 15 años, alcanzando los niveles más bajos desde la Segunda Guerra Mundial.

Estas nuevas tecnologías apoyadas en sistemas de IA avanzan rápidamente, sin que podamos predecir las consecuencias de estos cambios ni sus efectos para la humanidad. La ausencia de regulaciones multilaterales específicas sobre el diseño, desarrollo y uso de estos sistemas plantean preocupaciones humanitarias, legales, de seguridad y éticas que representan una amenaza directa a los derechos humanos y las libertades fundamentales.

Un consorcio de más de 250 organizaciones no gubernamentales, han formado la Campaña para detener a los robots asesinos (www.stopkillerrobots.org/), pidiendo un tratado jurídicamente vinculante para prohibir las armas autónomas.

Los sistemas autónomos son cada vez más complejos.

Las tecnologías que cambian su propio comportamiento o adaptan su programación de forma independiente no dan garantías reales para ser controladas. No es aceptable que el debate para acordar un marco regulatorio internacional tropiece nuevamente con la falta de voluntad política de las potencias que velan por sus intereses. Frente a ello urge movilizar a la opinión pública global. 

POR CARLOS DE ICAZA

EMBAJADOR EMÉRITO Y EXSUBSECRETARIO DE RELACIONES EXTERIORES

EEZ

Temas