La inteligencia artificial generativa (IA) –incluyendo ChatGPT 4– es percibida (e incluso temida) por algunos como “una amenaza para la humanidad”. Sea cierto o no, los numerosos riesgos que representa el vertiginoso desarrollo de la IA para los derechos fundamentales, la seguridad y la autonomía humana ya repercute en todos los sectores de la economía y la sociedad.
Publicidad
Tomemos como ejemplo la IA en defensa: ya sea por la plataforma de IA Palantir, del estilo de ChatGPT pero usado para la toma de decisiones militares, o por los sistemas de reconocimiento facial de Clearview para identificar enemigos, o por los drones autónomos utilizados deliberadamente como sistemas de armas letales, todo el sector militar depende cada vez más de la IA. Y cuando la IA se despliega en defensa, los riesgos se amplían y la UE tiene que realizar un gran esfuerzo para regular sus implicaciones.
Las grandes inversiones en IA militar (alrededor de 6.000 millones de dólares en 2021) como porcentaje de los crecientes gastos mundiales en defensa (2 billones de dólares en 2020) reflejan el floreciente idilio de la industria de defensa con esta tecnología. Más allá del armamento, la IA es fundamental para diversas tareas de Inteligencia, Vigilancia y Reconocimiento (ISR) a nivel estratégico, operativo y táctico, así como para el razonamiento automatizado, la logística, la formación y demás funciones.
En conjunto, la IA permite lo que los expertos denominan “superioridad informativa”, en pocas palabras, obtener una ventaja estratégica sobre la defensa de otras naciones a través de los datos y la inteligencia, con implicaciones geopolíticas de gran alcance.
De hecho, la tecnología basada en la IA suministrada por la industria europea es una de las principales bazas de Ucrania contra Rusia. Los vehículos aéreos no tripulados (suministrados por Estados Unidos, Noruega, Luxemburgo y el Reino Unido) y los drones submarinos autónomos (proporcionados por Holanda) tienen la misión de prevenir los ataques rusos. Los vehículos terrestres no tripulados (cortesía de Alemania) y los centros móviles de inteligencia autónoma mejoran la inteligencia geoespacial, así como el procesamiento de datos sobre el terreno. Las soluciones de vigilancia acústica a través de IA también pueden detectar misiles entrantes.
Estos ejemplos demuestran que la IA puede marcar la diferencia en los conflictos, a través de la inteligencia y la disuasión. Así pues, el uso de la IA en el campo de la defensa es un punto de inflexión para el desenlace de la geopolítica y la guerra. Sin embargo, mientras la industria militar europea de la IA prospera, sus dirigentes políticos han decidido hacer la vista gorda ante sus usos y los riesgos asociados.
El diablo está en los detalles (el Reglamento sobre IA)
La propuesta de Reglamento sobre Inteligencia Artificial (la Ley de IA), que pronto entrará en negociaciones a tres bandas, promueve usos de la IA que sean éticos y respeten los derechos fundamentales, pero discretamente menciona en una nota a pie de página que los usos militares de la IA no entran en su ámbito de aplicación.
Esto deja a los Estados miembros un amplio margen de maniobra para regular el uso de la IA en la guerra. Dada la inversión de la Unión en IA y otras tecnologías avanzadas que alcanzará el valor de casi 8.000 millones de euros entre 2021-2027, podría ser preocupante. Esto es posible gracias al Fondo Europeo de Defensa y a que la UE no prohíbe el uso de armas autónomas, a pesar de las resoluciones aprobadas por el Parlamento Europeo en 2014, 2018 y 2021.
Aunque la IA militar esté excluida, la Ley de IA tendrá sin embargo un significativo impacto en la defensa europea. Muchos sistemas de IA no se desarrollan o utilizan exclusivamente para la defensa, sino que son de doble uso por naturaleza, lo que significa que pueden utilizarse para fines tanto civiles como militares (por ejemplo, un algoritmo de reconocimiento de patrones puede desarrollarse para detectar células cancerosas o para identificar y seleccionar objetivos en una operación militar).
En estos casos de doble uso se aplicaría la Ley de IA, que exige que los sistemas cumplan sus disposiciones para la IA de alto riesgo. Sin embargo, la aplicación de los requisitos normativos puede resultar a menudo inviable para los sistemas que operan de forma autónoma o en un entorno clasificado. Además, la mayoría de las organizaciones de defensa no siguen de cerca la evolución de la política digital civil, por lo que pueden estar poco preparadas para la Ley de IA una vez que entre en vigor.
A nivel político, los gobiernos se están implicando cada vez más en las cuestiones regulatorias en torno a la IA militar. El gobierno holandés y el surcoreano organizaron conjuntamente una cumbre sobre la IA responsable en el ámbito militar (REAIM) en febrero de 2023, que reunió a más de 50 representantes gubernamentales para respaldar un llamamiento conjunto a la acción, con el objetivo de situar “el uso responsable de la IA en un lugar más destacado de la agenda política”. Los Departamentos de Defensa de Canadá, Australia, EEUU y Reino Unido ya han establecido directrices para el uso responsable de la IA. La OTAN adoptó su propia Estrategia de IA en 2021, junto con una Junta de Revisión de Datos e Inteligencia Artificial (DARB) dedicada a garantizar el desarrollo legal y responsable de la IA mediante una norma de certificación.
Sin embargo, la Estrategia de IA de la OTAN puede enfrentarse a obstáculos de aplicación. Aparte de la estrategia pública de Defensa de la IA de Francia, no existe un marco legal y ético a escala de la UE para los usos militares de la IA. En consecuencia, los Estados miembros pueden adoptar enfoques diferentes, lo que provocará lagunas en la regulación y la supervisión.
Es hora de que la UE dé un paso al frente
Por ello, la UE debería dar un paso al frente y desarrollar un marco tanto para las aplicaciones de doble uso como para las aplicaciones militares de la IA, concretamente bajo un enfoque a escala europea para promover el uso responsable de la IA en defensa, basado en la clasificación por niveles de riesgo de la Ley de IA. Esto orientaría a las instituciones de defensa y a la industria a desarrollar, adquirir y utilizar la IA de forma responsable basándose en valores compartidos.
Aunque la defensa no sea una competencia de la UE en virtud de los Tratados, la UE ha encontrado formas de influir en su respuesta a la invasión rusa de Ucrania. El primer enfoque significativo para gobernar los riesgos de la IA en todas las instituciones provendría de un primer marco general de la UE. En última instancia, el establecimiento de un marco unificado para la IA responsable en defensa señalaría las ambiciones de liderazgo mundial de la UE a la hora de configurar el futuro de la gobernanza de la IA basada en valores, mitigando los riesgos más graves tanto en contextos militares como civiles.
En resumen, Europa no puede permitirse pasar por alto las importantes implicaciones de la IA en la defensa. La legislación actual de la UE solo cubre en parte las aplicaciones de la IA en defensa (en el caso de la IA de doble uso) o no las cubre en absoluto (la IA militar está excluida de la Ley de IA). Esto deja la responsabilidad política y la gestión de riesgos en manos de los Estados miembros o, en el peor de los casos, solo de la industria de defensa.
El tan elogiado enfoque de la UE sobre la IA basado en riesgos merece la pena si también se regulan eficazmente los sistemas militares, quizá el sector más crítico en lo que a estas tecnologías se refiere. De lo contrario, los riesgos reales seguirán sin abordarse y no se aprovecharán todos los beneficios potenciales de una IA responsable.
Artículo traducido del inglés de la web del Centre of European Policy Studies (CEPS).