Inteligencia artificial en la guerra: desafíos y preocupaciones
Para mostrar este contenido de , debe autorizar las cookies de medición de audiencia y publicidad.
Primera modificación:
La inteligencia artificial (IA) forma parte activa de los conflictos actuales, como la guerra en Ucrania o Gaza, donde potencia las capacidades militares, logística y selección de blancos. Sin embargo, su avance plantea retos técnicos, legales y éticos. La falta de confiabilidad de las armas autónomas y su posible desvinculación de la supervisión humana generan riesgos catastróficos.
El mundo enfrenta actualmente 56 conflictos activos, una cifra sin precedentes desde la Segunda Guerra Mundial.
Estos enfrentamientos no solo afectan a países específicos como Ucrania, Gaza, Sudán, Etiopía, Afganistán, Siria o la República Democrática del Congo, sino que también involucran a 92 naciones fuera de sus fronteras, consolidando un panorama bélico de dimensiones internacionales.
En este contexto, la inteligencia artificial (IA) se ha convertido en un elemento central en la estrategia militar. Su implementación abarca desde tareas de logística y reconocimiento hasta operaciones de ataque coordinado, transformando la naturaleza de los conflictos, como se la conocía antes de esta explosión tecnológica.
Aunque el empleo de la IA en conflictos armados ha ganado notoriedad durante las guerras en 2024, su uso se documentó por primera vez en 2019, durante la guerra civil libia, con el dron turco Kargu 2, conocido por su capacidad de ataque autónomo. A pesar de las controversias sobre su autonomía, marcó un precedente en el uso de la tecnología en escenarios bélicos.
En el conflicto Nagorno Karabaj, Azerbaiyán utilizó el dron Harop, equipado con IA, para identificar y neutralizar objetivos con precisión, contribuyendo a su victoria.
Mientras que en la Operación Guardián de los Muros (2021), Israel implementó por primera vez una estrategia militar basada en IA para supuestamente optimizar la identificación y selección de objetivos en Gaza.
Por su parte, el conflicto en Ucrania ha mostrado cómo la IA potencia las capacidades de los drones no tripulados. Desde modelos turcos como el Bayraktar TB2 hasta el dron ucraniano Saker Scout, la adaptación rápida de esta tecnología ha redefinido las estrategias militares. Los drones ahora pueden identificar objetivos ocultos mediante sistemas de detección avanzados, superando las capacidades humanas.
Leer también"Todos los ojos en Rafah", una imagen de IA compartida más de 40 millones de veces
¿Qué es la IA y cómo se aplica en el campo de batalla?
La inteligencia artificial viene consolidándose como una herramienta determinante en los conflictos armados modernos debido a su capacidad para procesar grandes cantidades de información y tomar decisiones rápidas con mínimos errores.
Según el especialista en nanotecnología Adrián Tozzi, entrevistado por France 24, "esta disciplina viene a ser la simulación del pensamiento humano para realizar tareas de manera más rápida y con menor margen de error, apoyándose en la tecnología".
La IA es especialmente apreciada para la definición de objetivos. Los algoritmos pueden analizar una multitud de datos a gran velocidad, generando cálculos de probabilidades que ayudan a seleccionar los blancos a atacar.
Además, a nivel táctico, permite coordinar enjambres de drones, una técnica que está siendo perfeccionada por potencias como China. En el futuro, se espera que estos drones sean capaces de comunicarse entre sí y actuar de manera autónoma en función de objetivos predefinidos.
A nivel estratégico, la IA facilita la modelización de escenarios de batalla, permitiendo evaluar rápidamente distintas hipótesis de respuesta ante ataques, incluyendo el uso o no de armas nucleares. Este tipo de simulaciones, explica Tozzi, "procesa experiencias pasadas de una manera mucho más rápida que el ser humano, ajustando los escenarios posibles con gran precisión".
Sin embargo, el especialista advierte que la eficacia de la IA depende en gran medida de la calidad de los datos que recibe.
"Es una disciplina hipersensible a la información proporcionada por los humanos. Los sesgos y la desinformación pueden afectar gravemente su rendimiento, especialmente en el contexto de conflictos globales", agrega Tozzi.
La IA también ha demostrado su utilidad en sistemas de defensa como la Cúpula de Hierro israelí, que intercepta proyectiles enemigos mediante el análisis rápido de su trayectoria y posible impacto. Este avance tecnológico, aunque efectivo, plantea preguntas sobre el nivel de control humano en la toma de decisiones críticas.
Leer tambiénRodolfo Tesone: 'La inteligencia artificial ya se está regulando en el contexto internacional'
Los retos a la hora de desarrollar armas autónomas
En la carrera hacia la autonomía de los sistemas militares, la IA enfrenta retos fundamentales.
Según Paul Scharre, autor de ‘Four Battlegrounds: Power in the Age of AI’, el principal desafío es la confiabilidad de estas tecnologías. "Muchas veces lo que pasa es que funcionan bien en pruebas y en laboratorios. Pero, una vez las sacas al mundo real, donde todo puede pasar, especialmente en el campo de batalla, estos sistemas pueden fallar con frecuencia, con consecuencias catastróficas", advierte Scharre.
Sin embargo, este riesgo se torna crítico cuando se trata de armas autónomas que operan sin intervención humana directa. Por lo que la evolución hacia una mayor autonomía plantea dilemas éticos y estratégicos.
Scharre subraya la importancia de establecer regulaciones internacionales que eviten una "carrera hacia el abismo". Estas reglas deberían garantizar que la tecnología sea usada para minimizar bajas civiles y mantener la responsabilidad humana en decisiones críticas.
"Queremos encontrar una manera de usar esta tecnología para ser más precisos y humanos en la guerra, para evitar bajas civiles, sin renunciar a nuestra humanidad", afirma.
Otro reto señalado por Scharre es la capacidad de adaptación de las instituciones militares. Aunque la IA es una tecnología globalmente accesible, la clave estará en cómo cada país haga una integración de manera efectiva en sus fuerzas armadas. "Las organizaciones que sean más efectivas en esto van a ser las que lideren la revolución de la IA", concluye.
Leer tambiénDavos día 4: los desafíos de la inteligencia artificial y el conflicto entre Israel y Hamás
¿La IA desafía el Derecho Internacional Humanitario?
La integración de la inteligencia artificial en los conflictos armados plantea importantes desafíos al Derecho Internacional Humanitario (DIH).
Este conjunto de normas busca limitar los efectos de los conflictos, protegiendo a quienes no participan en los combates y restringiendo los métodos y medios de guerra, como lo explica Jhon Escobar, experto en seguridad y defensa, a France 24.
Sin embargo, el desarrollo de la IA militar enfrenta dificultades en tres ámbitos clave: técnico, legal y ético. Aunque los algoritmos pueden procesar datos con mayor precisión y rapidez que los humanos, Escobar señala que "no hay tecnología que haga que una máquina se comporte como un ser humano, quien puede determinar si una acción es lícita o ilícita y decidir no continuar con lo programado, teniendo como objetivo primordial la protección de las víctimas".
Según Escobar, el artículo 36 del DIH, que regula el uso de armas nuevas, es lo más cercano a una normativa que aborde el uso de la IA en conflictos armados. Aun así, este marco no menciona explícitamente la inteligencia artificial, lo que deja una "ventana abierta" para interpretaciones y posibles abusos.
Países como Estados Unidos y Francia han desarrollado principios para garantizar que los sistemas de armas basados en IA estén sujetos a supervisión humana efectiva y sean compatibles con las leyes internacionales.
El experto también advierte sobre los riesgos de la desinformación en la era de la IA. "Estamos dejando una ventana muy grande abierta dentro de esta regulación mundial. Aunque avanzamos hacia una regulación de la IA, las excepciones para su uso militar son alarmantes", afirma.
Para el especialista, la supremacía militar dependerá de la capacidad de los países para integrar y utilizar tecnologías como la IA y la computación cuántica en sus estrategias. "Definitivamente, el que gobierne estos dos aspectos será quien maneje las reglas de la guerra en el futuro", asegura Escobar.
Leer tambiénGaza: muerte de trabajadores humanitarios aumenta dudas sobre el uso israelí de IA para elegir objetivos
¿Cómo deben usar la IA los ejércitos y gobiernos para minimizar daños?
El uso responsable de la inteligencia artificial en contextos militares y gubernamentales debe priorizar la reducción de daños colaterales y la mejora en la toma de decisiones. De manera que se eviten errores que puedan exacerbar los conflictos o generar consecuencias mortales.
Adrian Tozzi resalta que "el ser humano es el que tiene que ser muy cauto y muy delicado a la hora del análisis de la materia prima de la información que se le da a la inteligencia artificial".
Además, se están llevando a cabo esfuerzos internacionales para regular el uso de la IA en el ámbito militar. Según Tozzi, "se están armando muchos actos, reuniones o centros de estandarización en Europa, Israel, Estados Unidos o China, donde están poniendo un freno de mano para regular y ver con cautela estos aspectos".
Por otro lado, Jhon Escobar propone un enfoque más amplio para el uso de la IA. "Deberíamos usarlo no solamente para hacer la paz entre los países que están en un conflicto en este momento, sino para acabar con el hambre mundial".
Según Escobar, la IA podría ser una herramienta crucial para realizar análisis predictivos y llevar recursos a las zonas más necesitadas, mejorando significativamente la calidad de vida en regiones vulnerables.
Paul Scharre también enfatiza la importancia de un uso ético y estratégico de la IA. "Claramente, existen oportunidades para que las Fuerzas Militares sean más efectivas y que, al mismo tiempo, el uso de esta tecnología permita reducir las bajas civiles", señala.
Sin embargo, advierte que esto no sucederá de manera automática y requiere de un marco regulatorio sólido. "Probablemente, en los próximos años, tendremos una fugaz ventana de oportunidad para que los países se unan e implementen una especie de regulación internacional para estas armas", asegura Scharre.
Finalmente, Scharre subraya que las instituciones militares deben adaptarse rápidamente para integrar la IA de manera efectiva. "Lo que más va a importar es qué vas a hacer con ella y cómo vas a usar la Inteligencia Artificial para transformar a tus Fuerzas Militares", concluye.