La inteligencia artificial de Israel decide a quién se bombardea en Gaza
El ejército recurre a la automatización para seleccionar sus objetivos humanos en una práctica inédita hasta ahora
Israel ha cruzado una línea más en la automatización de la guerra. Sus Fuerzas Armadas han desarrollado un programa apoyado en inteligencia artificial (IA) para seleccionar las víctimas de sus bombardeos, un proceso que tradicionalmente exige comprobaciones manuales de indicios hasta verificar que un objetivo merece serlo. Bautizado como Lavender (lavanda), este sistema marcó durante las primeras semanas de guerra a 37.000 palestinos, y se usó en al menos 15.000 asesinatos desde el 7 de octubre hasta el 24 de noviembre en la invasión de Gaza, según revela una investigación periodística de dos medios israelíes, +972 Magazine y Local Call, publicada también en The Guardian.
La herramienta ha generado controversia por la frialdad con la que los mandos militares responsables de dar luz verde o no a las sugerencias del sistema Lavender gestionan la muerte de personas como meras estadísticas. Entra dentro de los parámetros aceptables, por ejemplo, que por cada alto cargo de Hamás o Yihad Islámica muera un centenar de civiles en el bombardeo, que suele afectar a varios edificios. El sistema está diseñado para atacar en el domicilio del objetivo y de noche, lo que aumenta las probabilidades de que este esté en casa, pero también de que mueran con él sus familiares y vecinos.
Nunca antes había trascendido que nadie automatizara una tarea tan sensible. Las Fuerzas Armadas israelíes negaron en un comunicado oficial tras la publicación del reportaje que se esté dejando a una máquina determinar “si alguien es un terrorista”. El escrito dice que los sistemas de información “son meras herramientas para los analistas en el proceso de identificación de objetivos”, si bien las fuentes citadas aseguran que los oficiales se limitan a validar las recomendaciones de Lavender, sin hacer comprobaciones.
La investigación, que tiene como fuente a varios oficiales del ejército y los servicios de inteligencia israelíes, incluyendo la Unidad 8200, no revela qué parámetros se usan para determinar si un sujeto tiene o no relación con Hamás o la Yihad Islámica. Se enumeran algunos, como que el individuo cambie frecuentemente de teléfono (algo que sucede constantemente en un contexto de guerra) o que sea varón (no hay mujeres con rango de oficial).
Lavender trabaja con estimaciones y, por tanto, comete fallos. Al menos el 10% de los individuos marcados como objetivo no lo eran, según fuentes oficiales citadas en el reportaje. El dato arroja un saldo de miles de palestinos, la mayoría mujeres y niños, asesinados por indicación del software sin tener vinculación alguna con las milicias.
El programa Lavender se complementa con otro llamado Where is Daddy? (¿Dónde está papá?, en inglés), usado para rastrear a los individuos ya marcados y llevar a cabo el bombardeo cuando estén en casa, y con The Gospel (El evangelio), dirigido a identificar edificios y estructuras desde las que, según el ejército, operan militantes de Hamás.
Lavender procesa información recogida de los más de 2,3 millones de residentes en la franja de Gaza, lo que confirma la tupida red de vigilancia digital a la que son sometidos todos sus habitantes. Se elabora una puntuación para cada individuo que va de 1 a 100, de menor a mayor procuerda babilidad estimada de que esté vinculado al brazo armado de Hamás o a la Yihad Islámica.
Según la investigación periodística, los oficiales apenas hacían comprobaciones. Dedicaban pocos segundos a ver cada caso, presionados por la necesidad de recopilar cada día nuevos objetivos a los que disparar.
La jurista Magda Pacholska, investigadora del TMC Asser Institute y especialista en la intersección entre tecnologías disruptivas y derecho militar, reque el ejército israelí ya había usado anteriormente sistemas de apoyo automatizado, al igual que Estados Unidos, Francia o Países Bajos, entre otros, aunque siempre contra objetivos materiales. “La novedad es que, esta vez, emplea estos sistemas contra objetivos humanos”, resalta la experta.
Arthur Holland Michel, a quien la ONU ha encargado informes sobre el uso de armas autónomas en conflictos armados, considera que lo realmente novedoso es la escala y la velocidad a la que se está utilizando el sistema. El número de personas que se ha identificado en tan solo unos meses es asombroso”. Igualmente sorprendente, subraya, es la velocidad en la respuesta.
Luis Arroyo Zapatero, rector honorario de la Universidad de Castilla-La Mancha y especialista en Derecho Penal Internacional, recuerda que no es legal en las guerras matar a civiles. “El sistema Lavender es directamente una máquina de asesinar civiles, pues admite muertes colaterales”, asegura.
Los palestinos saben bien lo que es estar vigilados. Los servicios de inteligencia israelíes llevan años recolectando todo tipo de datos sobre cada uno de ellos. El rastro digital de sus móviles, desde ubicaciones a interacciones en redes sociales, se procesa y almacena. Las cámaras con sistemas automáticos de reconocimiento facial forman parte de su día a día al menos desde 2019. The Washington Post informó sobre un programa, Blue Wolf, dirigido a registrar los rostros de cada habitante de Cisjordania, incluidos niños y ancianos, y asociarlos a una ficha de “peligrosidad”, de manera que los soldados, al fotografiar por la calle a un sujeto con su móvil, vieran sobre la marcha un código de colores que les indicara si lo tendrían que arrestar. The New York Times ha informado del uso de un sistema similar en la Franja de Gaza.
Todas estas tecnologías las desarrollan empresas israelíes, que se las venden a sus Fuerzas Armadas y luego las exportan con la garantía de haber sido probadas en el terreno. “Este Estado es una incubadora de tecnologías de vigilancia”, dice Cody O’Rourke, de la ONG Good Shepherd Collective, desde Beit Sahour, un pueblo palestino al este de Belén.
Hay quien lee la investigación de +972 Magazine como una gran campaña de marketing de las Fuerzas Armadas israelíes. “Yo sugeriría que se trata más bien de propaganda que intenta afianzar su papel en la economía política global como desarrollador de armas”, explica a EL PAÍS Khadijah Abdurraman, directora de Logic(s) Magazine, una revista especializada en la intersección entre tecnología y sociedad. “Una puede imaginarse fácilmente a las Fuerzas de Apoyo Rápido de Sudán haciendo un pedido de los sistemas Lavender antes de que acabe la semana”, añade.
Hay un 10% de errores, lo que arroja un saldo de miles de palestinos muertos
El sistema procesa información de los más de 2,3 millones de residentes de Gaza
Los programas de reconocimiento facial se aplican todos los días en la Franja