La IA toma decisiones militares cada vez más importantes

Durante mucho tiempo, imaginamos el futuro tecnológico de la guerra como una especie de escenario a lo Terminator: dominado por inteligencia artificial, soldados robot, drones voladores completamente armados y tanques blindados que se desplazan de forma autónoma por el campo de batalla.

En cierto modo, las cosas van precisamente en esa dirección: las armas autónomas (capaces de moverse por sí solas, localizar el objetivo y, potencialmente, incluso disparar sin necesidad de intervención humana) se han convertido en una realidad, principalmente en forma de drones, pero también de torretas de patrulla equipadas con ametralladoras o de vehículos autónomos armados (como el Rex MK II empleado por el ejército israelí).

En resumen, siempre hemos pensado que los «robots asesinos» representaban la nueva infantería. Que la inteligencia artificial se utilizaría principalmente para sustituir, o más bien para flanquear, a los soldados sobre el terreno. En cambio, la situación está evolucionando en una dirección muy diferente y, si cabe, aún más inquietante.

Comandante IA
Los algoritmos de aprendizaje profundo (sistemas que ahora son sinónimo de inteligencia artificial) se están convirtiendo, de hecho, cada vez más en oficiales capaces de tomar decisiones estratégicas, elegir qué objetivos atacar (y cuántos) e incluso identificar los puntos débiles del ejército enemigo. En resumen, la inteligencia artificial está escalando en las jerarquías militares.

El ejemplo más conocido es el denominado Proyecto Lavender, empleado por las Fuerzas de Defensa de Israel (IDF) para identificar y atacar el mayor número posible de objetivos durante el conflicto de Gaza. Un sistema que la revista israelí +972 (que reveló su existencia el pasado mes de abril) calificó de «una fábrica de asesinatos en masa».

Lavender no es un arma. Se trata más bien de un software de gestión basado en inteligencia artificial, que analiza la enorme cantidad de datos que le proporciona el ejército: los nombres y características de cada persona que vive en Gaza (obtenidos a través de la vigilancia masiva llevada a cabo sobre la población), imágenes recibidas desde drones, mensajes interceptados, análisis de redes sociales, y mucho más. Cruzando toda esta información, Lavender evalúa si un individuo forma parte o no de Hamás o de otros grupos armados palestinos, determina dónde y cuándo hay más probabilidades de alcanzarlo y transmite toda esta información al ejército, que en la mayoría de los casos ordena un ataque aéreo para matar al objetivo.

Según el ex jefe de las FDI Aviv Kochavi, este sistema es capaz de detectar hasta 100 objetivos al día: «Para dar una perspectiva», explicó Kochavi a The Guardian, «en el pasado solíamos obtener 50 objetivos al año. Dado el número de objetivos obtenidos, no es de extrañar que (como señala una publicación nada propalestina como Foreign Policy, «la mayoría de estos ataques se hayan dirigido hasta ahora contra los rangos inferiores de Hamás, considerados objetivos legítimos como combatientes, pero de escasa importancia estratégica».

Lo más visto
La Tierra está recibiendo rayos cósmicos sorprendentemente potentes y solo sabemos que la fuente está cerca
Ciencia
La Tierra está recibiendo rayos cósmicos sorprendentemente potentes y solo sabemos que la fuente está cerca
Por Jorge Garay
Cuevana3 cierra: la Alianza para la Creatividad y el Entretenimiento celebra la victoria
Cultura Digital
Cuevana3 cierra: la Alianza para la Creatividad y el Entretenimiento celebra la victoria
Por Jorge Garay
¿Cómo saber si están usando o espiando tu WhatsApp desde otro dispositivo?
Seguridad
¿Cómo saber si están usando o espiando tu WhatsApp desde otro dispositivo?
Por Fernanda González
Revelan por primera vez una imagen de la forma de un fotón
Ciencia
Revelan por primera vez una imagen de la forma de un fotón
Por Marta Musso
Como escribe Alice Civitella en la página web de la Sociedad Italiana de Derecho Internacional, «Lavender analiza la información recogida previamente por un sistema de vigilancia masiva sobre ciudadanos palestinos, y luego les asigna una puntuación del 1 al 100 según la probabilidad de que sean militantes de Hamás o de la Yihad Islámica».

Confiar de este modo en un sistema informático plantea varios aspectos problemáticos, en primer lugar, continúa explicando Civitella, debido a la vaguedad de los datos proporcionados al sistema durante la fase de entrenamiento, Lavender cometió varios errores en la identificación de personas, confundiendo a policías y trabajadores de la defensa civil con militantes de Hamás o indicando objetivos erróneos debido a una homonimia banal.

Errores, por lo demás, imputables solo en parte al sistema: al informar sobre los objetivos que deben ser alcanzados, Lavender indica cuál es el umbral de precisión de su predicción. A continuación, corresponde al ejército israelí decidir qué tasa de error está dispuesto a aceptar: cuanto más alta sea, mayor será el riesgo de alcanzar a inocentes.

Según Foreign Policy, el porcentaje de error tolerado por el ejército se ha fijado en el 10%. Los objetivos que superan este porcentaje son revisados rápidamente por un equipo de analistas humanos. El enorme número de objetivos identificados, el hecho de que en la mayoría de los casos se les alcance cuando están en sus casas y que a menudo se utilicen ataques aéreos para llevar a cabo las matanzas tiene una consecuencia obvia y trágica: el enorme número de víctimas civiles.

Según fuentes oídas por +972, el ejército israelí considera aceptable matar hasta 15 civiles por cada combatiente de Hamás de los rangos inferiores. Esta cifra llega hasta 100 en el caso de comandantes u otros miembros destacados de la milicia palestina.

Dado que los objetivos seleccionados por Lavender son (presuntos) combatientes, esta modalidad parecería respetar el derecho internacional y en particular, explica Foreign Policy, la «doctrina del doble efecto», que «permite daños colaterales previsibles pero no intencionados, siempre que la consecución del objetivo no dependa de que se produzcan estos daños colaterales, como es el caso de un ataque aéreo contra un objetivo legítimo que se produciría de todos modos, en presencia o ausencia de civiles».

En resumen, el ejército israelí seguiría en sus acciones la denominada «lógica operativa de los asesinatos selectivos», a pesar de que (debido al enorme número de objetivos señalados por el sistema Lavender) sus acciones se asemejan a menudo a bombardeos en alfombra, prohibidos por el derecho internacional.

Dilemas éticos y jurídicos

Por un lado, por tanto, el uso de estos sistemas corre el riesgo de provocar el llamado «sesgo de automatización»: la tendencia de los seres humanos a aceptar las indicaciones de la máquina (considerada un sistema objetivo, ya que actúa sobre una base estadística) incluso en circunstancias en las que, de otro modo, habrían actuado de forma diferente (por ejemplo, ignorando el riesgo de un intercambio de personas). Por otro lado, el uso de programas informáticos como Lavender elimina al menos parte de la responsabilidad de los agentes que se basan en ellos.

Según leemos en la página web de la red italiana de Desarme por la Paz (que forma parte de la campaña internacional Stop Killer Robots, que promueve la prohibición de las armas autónomas), el uso de estos sistemas suscita «serias preocupaciones por el creciente uso de la inteligencia artificial en los conflictos, los sesgos inherentes a las formas de automatización, la deshumanización digital y la pérdida de control humano en el uso de la fuerza».

Lo más visto

La Tierra está recibiendo rayos cósmicos sorprendentemente potentes y solo sabemos que la fuente está cerca
Ciencia
La Tierra está recibiendo rayos cósmicos sorprendentemente potentes y solo sabemos que la fuente está cerca
Por Jorge Garay
Cuevana3 cierra: la Alianza para la Creatividad y el Entretenimiento celebra la victoria
Cultura Digital
Cuevana3 cierra: la Alianza para la Creatividad y el Entretenimiento celebra la victoria
Por Jorge Garay
¿Cómo saber si están usando o espiando tu WhatsApp desde otro dispositivo?
Seguridad
¿Cómo saber si están usando o espiando tu WhatsApp desde otro dispositivo?
Por Fernanda González
Revelan por primera vez una imagen de la forma de un fotón
Ciencia
Revelan por primera vez una imagen de la forma de un fotón
Por Marta Musso
También son preocupantes, explica el sitio, «los informes sobre la aprobación general por parte de los oficiales de la adopción de las listas de asesinatos de Lavender, sin ninguna obligación de investigar a fondo por qué la máquina tomó esas decisiones o de examinar los datos de inteligencia brutos en los que se basaban».

Aún más preocupante es el hecho de que el ejército israelí no es el único que utiliza este tipo de software, que (por el contrario) se está extendiendo rápidamente. Aparte del conocido caso de China, que utiliza desde hace tiempo sistemas de inteligencia artificial en la provincia de Xinjiang para identificar y encontrar a miembros de la minoría uigur sospechosos de actividades subversivas, otras herramientas de inteligencia artificial del tipo DSS (Decision Support System, que apoyan así el proceso de toma de decisiones del operador humano) se utilizan también en los teatros de guerra de Occidente.

La empresa líder en nuestra parte del mundo es Palantir, la compañía estadounidense de análisis de datos fundada por Peter Thiel que está desempeñando un papel importante en el conflicto entre Rusia y Ucrania. Según leemos en Time, la plataforma desarrollada por Palantir y empleada por las fuerzas ucranianas «es capaz de integrar datos de múltiples y diversas fuentes (satélites, drones e inteligencia) y luego cruzarlos para proporcionar a los militares información relevante. […] El algoritmo de Palantir puede, por ejemplo, ser extraordinariamente hábil para identificar un centro de mando enemigo».

Palantir no revela oficialmente cómo se utiliza su software en el campo de batalla, pero se cree que el ejército ucraniano emplea los sistemas de inteligencia artificial, por ejemplo, para identificar vulnerabilidades a lo largo de las líneas del frente ruso o para maximizar los daños. En declaraciones a Time, un comandante ucraniano dio un ejemplo de cómo el ejército utiliza los sistemas desarrollados por Palantir: «Cuando lanzamos numerosos ataques a lo largo de toda la línea del frente, Rusia se ve obligada a sacar a la luz fuerzas de reserva, que podemos vigilar en tiempo real utilizando imágenes de satélite y de drones, así como algoritmos de reconocimiento de imágenes, para golpearlas con una rapidez y precisión sin precedentes».

Otro sistema, denominado Kropyva, permite al ejército ruso introducir las coordenadas del objetivo en una tablet, tras lo cual el software calcula automáticamente la distancia y la dirección en la que dirigir el fuego. Al mismo tiempo, la plataforma de Palantir sugiere al operador humano qué armas debe utilizar para completar la tarea y, por último, evalúa los daños causados, cuyos resultados analiza el algoritmo para mejorar aún más su eficacia. Desde que el algoritmo identifica los objetivos hasta que los alcanza, transcurren como máximo dos o tres minutos, mientras que antes, explica Time de nuevo, se tardaba hasta seis horas.

Independientemente de que sean utilizados por las fuerzas aliadas o enemigas, por quienes se defienden de una invasión o por quienes la perpetran, el hecho de que este software de ayuda a la toma de decisiones permita alcanzar una enorme cantidad de objetivos en muy poco tiempo solo significa una cosa: más combates, más bombardeos y, por tanto, más muertes, entre soldados y civiles.

Si antes se pensaba que incluso conduciría a la paz universal, ahora sabemos que (entre armas autónomas y sistemas de apoyo a la toma de decisiones) la inteligencia artificial está, si cabe, haciendo la guerra aún más letal.

Artículo originalmente publicado en WIRED Italia. Adaptado por Mauricio Serfatty Godoy.

La entrada La IA toma decisiones militares cada vez más importantes se publicó primero en Periódico EL JAYA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *