INVESTIGACIÓN PERIODÍSTICA
‘Lavender’: la máquina de IA que dirige los bombardeos de Israel en Gaza
El ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos para proceder a su asesinato utilizando un sistema de asignación de objetivos con poca supervisión humana, revelan +972 y Local Call
Yuval Abraham (+972 Magazine / Local Call) / Traducción: Paloma Farré 10/04/2024
En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí
En 2021, se publicó en inglés un libro titulado The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World [‘El equipo humano-máquina: cómo crear una sinergia entre la inteligencia humana y la artificial que revolucionará nuestro mundo’] cuyo autor firmaba bajo el seudónimo de “Brigadier General Y.S”. En él, el escritor –un hombre que, según hemos confirmado, es el actual comandante de la unidad de élite 8200 de la inteligencia israelí– defiende el diseño de una máquina especial que podría procesar rápidamente ingentes cantidades de datos con el fin de generar miles de potenciales “objetivos” para ataques militares en el fragor de una guerra. Dicha tecnología, escribe, resolvería lo que describió como un “atasco humano tanto para localizar nuevos objetivos como para la toma de decisiones que aprueben dichos objetivos”.
Resulta que una máquina así existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, cuya existencia revelamos en +972 Magazine. Según seis agentes del servicio de inteligencia israelí, que han servido en el ejército durante la actual guerra en la Franja de Gaza y tuvieron una participación directa en el uso de IA con el fin de generar objetivos para asesinar, Lavender ha desempeñado un papel fundamental en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, influía hasta tal punto en las operaciones militares que básicamente trataban los resultados de la máquina de IA “como si fuera una decisión humana”.
Formalmente, el sistema Lavender está diseñado para marcar como posibles objetivos de bombardeo a todos los sospechosos de pertenecer al brazo armado de Hamás y la Yihad Islámica Palestina, incluidos los de rango inferior. Las fuentes revelaron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos –y sus hogares– como presuntos militantes para posibles ataques aéreos.
Durante las primeras fases de la guerra, el ejército autorizó a los oficiales para que asumieran como buenas las listas de objetivos a matar que generaba Lavender sin necesidad de comprobar a fondo por qué la máquina tomaba esas decisiones o de analizar la información sin procesar en la que se basaban. Una fuente declaró que el personal humano a menudo solo servía de “sello” para aprobar automáticamente las decisiones de la máquina, y añadió que, por lo general, tan solo dedicaban personalmente unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, únicamente para asegurarse de que el objetivo marcado por Lavender era un varón. Y ello a pesar de saber que el sistema comete lo que se consideran “errores” en aproximadamente el 10% de los casos y de que, en ocasiones, marca a personas que apenas tienen una ligera conexión con grupos militantes o ninguna conexión en absoluto.
Además, el ejército israelí atacaba sistemáticamente a las personas marcadas como objetivos cuando se encontraban en sus hogares –generalmente de noche, con toda la familia presente– y no en el transcurso de las actividades militares. Según las fuentes, esto se debía a que, desde el punto de vista de los servicios de inteligencia, era más fácil localizarlas en sus domicilios particulares. Otros sistemas automatizados, incluido uno llamado “¿Dónde está papá?”, cuya existencia también revelamos en +972 Magazine, se utilizaban para localizar a personas concretas y llevar a cabo los atentados con bombas cuando entraban en los domicilios de sus familias.
El resultado, como testificaron las fuentes, es que miles de palestinos –la mayoría de ellos mujeres y niños o personas que no participaban en los combates– fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.
“No nos interesaba matar a los operativos [de Hamás] solo cuando estaban en un edificio militar o participaban en una operación militar”, dijo A., un agente de los servicios de los servicios de inteligencia, a +972 y Local Call. “Por el contrario, las FDI los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.
Los bomberos intentan extinguir el fuego tras un bombardeo en Gaza. / Mohammed Zannoun
La máquina Lavender se une a otro sistema de IA, “The Gospel” [El Evangelio], sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca los edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas y las pone en una lista negra.
Además, según las fuentes, cuando se trataba de atacar a supuestos militantes subalternos marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas “tontas” (en contraste con las bombas de precisión “inteligentes”), que pueden destruir edificios enteros con sus ocupantes y causan una cantidad importante de bajas. “No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, dijo C., uno de los agentes de los servicios de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de “cientos” de casas privadas de presuntos militantes subalternos marcados por Lavender, y que en muchos de esos ataques murieron civiles y familias enteras que calificaban de “daños colaterales”.
“No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país”
En una medida sin precedentes, según dos de las fuentes, durante las primeras semanas de la guerra, el ejército también decidió que por cada militante subalterno de Hamás marcado por Lavender estaba permitido matar hasta 15 o 20 civiles; en el pasado, los militares no autorizaban ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en el caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.
La siguiente investigación está organizada por orden cronológico de acuerdo a las seis etapas de la enormemente automatizada producción de objetivos por parte del ejército israelí durante las primeras semanas de la guerra de Gaza. En primer lugar, explicamos qué es la máquina Lavender, que marcaba como objetivo a decenas de miles de palestinos utilizando IA. En segundo lugar, desvelamos el funcionamiento del sistema “¿Dónde está papá?”, que rastreaba esos objetivos y avisaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron las bombas “tontas” para atacar estos hogares.
“Por cada militante subalterno de Hamás marcado por Lavender estaba permitido matar hasta 15 o 20 civiles”
En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, señalamos el modo en que el software automatizado calculó de manera inexacta la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una vivienda, generalmente de noche, el objetivo individual a veces no estaba dentro porque el personal militar no verificaba la información en tiempo real.
PASO 1: GENERACIÓN DE OBJETIVOS
‘En cuanto se automatiza, la generación de objetivos se vuelve loca’
En el pasado, en el ejército israelí, el término “objetivo humano” se refería a un agente militar de alto rango que, según las reglas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su domicilio privado incluso si hay civiles cerca. Fuentes de los servicios de inteligencia dijeron a +972 y Local Call que, durante las guerras anteriores de Israel, dado que se trataba de una forma “especialmente brutal” de matar a alguien –en la que a menudo se mataba a una familia entera junto al objetivo–, dichos objetivos humanos se marcaban con mucho cuidado y únicamente se bombardeaba a altos mandos militares en sus hogares con el fin de mantener el principio de proporcionalidad previsto en el derecho internacional.
Pero después del 7 de octubre –cuando militantes liderados por Hamás lanzaron un ataque mortal contra las comunidades del sur de Israel, en el que mataron a unas 1.200 personas y secuestraron a 240–, el ejército, según las fuentes, adoptó un enfoque radicalmente distinto. En el marco de la “Operation Iron Swords” [Operación espadas de hierro], el ejército decidió señalar a todos los agentes del brazo militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.
El ejército decidió señalar a todos los agentes del brazo militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar
La nueva política también planteó un problema técnico para los servicios de inteligencia israelíes. En guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial tenía que pasar por un complejo y largo proceso de “incriminación”: comprobar que la persona era efectivamente un miembro de alto rango del brazo militar de Hamás, averiguar dónde vivía, su información de contacto y, finalmente, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos únicamente contaba con unas pocas docenas de altos mandos, el personal de los servicios de inteligencia podía encargarse individualmente del trabajo dedicado a incriminarlos y localizarlos.
Sin embargo, una vez que la lista se amplió e incluyó a decenas de miles de agentes de rango inferior, el ejército israelí pensó que tenía que apoyarse en el software automatizado y la inteligencia artificial. El resultado, testifican las fuentes, fue que el papel del personal humano en la incriminación de palestinos combatientes fue descartado y, en su lugar, la IA hizo la mayor parte del trabajo. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender –que fue desarrollado para crear objetivos humanos en la guerra actual– ha marcado a unos 37.000 palestinos como presuntos “militantes de Hamás”, la mayoría de ellos subalternos, para asesinarlos (el portavoz de las FDI negó la existencia de dicha lista de objetivos a matar en una declaración enviada a +972 y Local Call).
Una niña palestina y su madre son rescatadas de los escombros en Khan Yunis, al sur de la ciudad de Gaza. / Mohammed Zannoun
“No sabíamos quiénes eran los agentes subalternos porque Israel no les seguía la pista de forma rutinaria [antes de la guerra]”, explicó el oficial superior B. a +972 y Local Call para aclarar el motivo para desarrollar esta particular máquina generadora de objetivos para la guerra actual. “Querían permitirnos atacar [a los agentes subalternos] automáticamente. Ese es el Santo Grial. En cuanto se automatiza, la generación de objetivos se vuelve loca”.
Las fuentes dijeron que la aprobación para asumir automáticamente las listas negras de Lavender, que anteriormente se habían utilizado solo como herramienta auxiliar, se dio aproximadamente dos semanas después del inicio de la guerra, después de que el personal de los servicios de inteligencia verificara “manualmente” la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de IA. Cuando esa muestra descubrió que los resultados de Lavender habían logrado un 90% de precisión en la identificación de personas que pertenencían a Hamás, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, las fuentes dijeron que si Lavender decidía que un individuo era militante de Hamás, esencialmente se les pedía que lo trataran como una orden, sin necesidad de comprobar de forma independiente por qué la máquina tomaba esa decisión o de examinar la información sin procesar en la que se basaba.
“A las 5 de la mañana, [las fuerzas aéreas] llegaban y bombardeaban todas las casas que habíamos marcado”, dijo B. “Eliminamos a miles de personas. No los revisábamos uno a uno: pusimos todo en sistemas automatizados, y en cuanto uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. Lo bombardeábamos a él y a su casa”.
“Me sorprendió mucho que nos pidieran que bombardeáramos una casa para matar a un soldado de tierra, cuya importancia en los combates era tan baja”, dijo una fuente sobre el uso de IA para marcar a supuestos militantes de rango inferior. “A esos objetivos los apodé ‘objetivos basura’. Aún así, me parecía más ético que los objetivos que bombardeamos solo por ‘disuasión’: rascacielos evacuados y derribados solo para causar destrucción”.
Los resultados mortales de esta flexibilización de las restricciones en la primera fase de la guerra fueron asombrosos. Según datos del Ministerio de Salud palestino en Gaza, del que el ejército israelí ha dependido casi exclusivamente desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos –casi la mitad de la cifra de muertos hasta el momento– en las primeras seis semanas de la guerra, hasta que el 24 de noviembre se acordó un alto el fuego de una semana.
“Cuanta más información y variedad, mejor”
El software Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva y, a continuación, evalúa y clasifica la probabilidad de que cada persona en particular pertenezca al brazo armado de Hamás o a la Yihad Islámica Palestina. Según las fuentes, la máquina otorga a casi todas las personas de Gaza una calificación del 1 al 100 para expresar la probabilidad de que sean militantes.
Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva
Las fuentes explicaron que Lavender aprende a identificar las características de los agentes conocidos de Hamás y la Yihad Islámica Palestina, cuya información fue introducida en la máquina como datos de entrenamiento, y luego localiza esas mismas características –también llamadas “rasgos”– entre la población general. Un individuo que tenga varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, automáticamente, se convertirá en un posible objetivo de asesinato.
Docenas de palestinos buscan las víctimas enterradas bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun
En The Human-Machine Team, el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por sistema de este tipo sin referirse a Lavender por su nombre. (Tampoco se nombra al propio comandante, pero cinco fuentes de la 8200 confirmaron que el comandante es el autor, como también informó Haaretz). Al describir al personal humano como un “atasco” que limita la capacidad del ejército durante una operación militar, el comandante se lamenta: “Nosotros [los humanos] no podemos procesar tanta información. No importa a cuántas personas se le haya asignado la tarea de generar objetivos durante la guerra: seguirás sin generar suficientes objetivos al día”.
La solución a este problema, afirma, es la inteligencia artificial. El libro ofrece una breve guía para construir una “máquina de objetivos”, similar en su descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. En esta guía se incluyen varios ejemplos de los “cientos y miles” de características que pueden aumentar la calificación de un individuo, como estar en un grupo de Whatsapp con un militante conocido, cambiar de móvil cada pocos meses y cambiar de dirección con frecuencia.
“Cuanta más información y más variada, mejor”, escribe el comandante. “Información visual, información del móvil, conexiones en redes sociales, información del campo de batalla, contactos telefónicos, fotografías”. Si bien al principio son los humanos quienes seleccionan estas características, continúa el comandante, con el tiempo la máquina llegará a identificar las características por sí sola. Esto, dice, puede permitir a los militares crear “decenas de miles de objetivos”, mientras que la decisión real de atacarlos o no seguirá siendo una decisión humana.
El libro no es la única ocasión en que un alto mando israelí insinúa la existencia de máquinas generadoras de objetivos humanos como Lavender. +972 y Local Call obtuvieron imágenes de una conferencia privada que impartió en 2023 el comandante del discreto centro de Ciencia de Datos e Inteligencia Artificial de la Unidad 8200, el “coronel Yoav”, en la semana de la IA de la Universidad de Tel Aviv, de la que informaron en su momento los medios de comunicación israelíes.
En la conferencia, el comandante habla de una nueva y sofisticada máquina generadora de objetivos utilizada por el ejército israelí que detecta a “personas peligrosas” basándose en su semejanza con las listas existentes de militantes conocidos sobre las que fue entrenada. “Utilizando el sistema logramos identificar a los comandantes de los escuadrones de misiles de Hamás”, dijo el “coronel Yoav” en la conferencia, en referencia a la operación militar israelí de mayo de 2021 en Gaza, cuando la máquina se utilizó por primera vez.
Las diapositivas presentadas en la conferencia, también obtenidas por +972 y Local Call, contienen ilustraciones del funcionamiento de la máquina: se le suministran datos sobre los agentes existentes de Hamás, aprende a fijarse en sus rasgos y luego clasifica a otros palestinos en función de su parecido con los militantes.
“Clasificamos los resultados y determinamos el límite [a partir del cual atacar a un objetivo]”, afirmó el “coronel Yoav” en la conferencia, y subrayó que “al final, las decisiones las toman personas de carne y hueso. En el ámbito de la defensa, éticamente hablando, ponemos mucho énfasis en esto. Estas herramientas están destinadas a ayudar [a los agentes de los servicios de inteligencia] a superar sus barreras”.
Sin embargo, en la práctica, las fuentes que han utilizado Lavender en los últimos meses sostienen que la mediación humana y la precisión fueron sustituidas por la creación masiva de objetivos y la letalidad.
“No había una política de ‘cero errores’”
B., un oficial de alto rango que usó Lavender, reiteró a +972 y a Local Call que, en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA con el fin de ahorrar tiempo y permitir la producción en masa y sin obstáculos de objetivos humanos.
“Todo era estadístico, todo estaba ordenado, era muy seco”, dijo B. Señaló que esta falta de supervisión estaba permitida a pesar de que los controles internos mostraban que los cálculos de Lavender se consideraban precisos sólo el 90% de las ocasiones; en otras palabras, se sabía de antemano que el 10 % de los objetivos humanos programados para ser asesinados no eran en absoluto miembros del brazo armado de Hamás.
Por ejemplo, las fuentes explicaron que la máquina Lavender a veces marcaba erróneamente a personas que tenían patrones de comunicación similares a los de conocidos agentes de Hamás o de la Yihad Islámica en Palestina, incluido personal de policía y de defensa civil, familiares de militantes, residentes que casualmente tenían un nombre y apodo idénticos al de un agente, y gazatíes que utilizaban un dispositivo que había pertenecido a un agente de Hamás.
“¿Hasta qué punto tiene que estar una persona cerca de Hamás para que una máquina de los servicios de inteligencia artificial la considere miembro de la organización?”, dijo una fuente crítica con la inexactitud de Lavender. “Es una frontera imprecisa. ¿Una persona que no recibe un salario de Hamás, pero les ayuda en todo tipo de cosas, es un agente de Hamás? ¿Alguien que estuvo en Hamás en el pasado, pero que ya no lo está hoy, es un agente de Hamás? Cada una de estas especificaciones –características que una máquina consideraría sospechosas– es inexacta”.
Gazatíes intentan desenterrar a las víctimas que se encuentran bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun
Existen problemas similares con la capacidad de las máquinas generadoras de objetivos para evaluar el teléfono utilizado por una persona marcada para ser asesinada. “En la guerra, los palestinos cambian de teléfono continuamente”, dijo la fuente. “La gente pierde el contacto con sus familias, le da su teléfono a un amigo o a su esposa y tal vez lo pierde. No hay manera de confiar al 100 % en el mecanismo automático que determina a quién pertenece un número [de teléfono]”.
Según las fuentes, el ejército sabía que la mínima supervisión humana establecida no descubriría estos fallos. “No existía una política de ‘cero errores’. Los errores se trataban estadísticamente”, dijo una fuente que utilizó Lavender. “Debido al alcance y la magnitud de la situación, el protocolo era que aunque no se estuviera seguro de que la máquina acertara, se sabía que estadísticamente acertaba. Así que se hacía”.
“Ha demostrado su eficacia”, afirma B., la fuente principal. “Hay algo en el enfoque estadístico que te fija en una determinada norma y estándar. Ha habido una cantidad ilógica [de bombardeos] en esta operación. No recuerdo nada similar en mi vida. Y confío mucho más en un mecanismo estadístico que en un soldado que ha perdido a un amigo hace dos días. Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina funcionaba con frialdad. Y eso lo hizo más fácil”.
Otra fuente de los servicios de inteligencia, que defendió la confianza en las listas de asesinatos de sospechosos palestinos generadas por Lavender, argumentó que solo valía la pena invertir el tiempo de un agente de los servicios de inteligencia para verificar la información si el objetivo era un alto mando de Hamás. “Pero cuando se trata de un militante subalterno, no conviene invertir tiempo ni personal en ello”, dijo. “En la guerra, no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a asumir el margen de error que supone utilizar inteligencia artificial, arriesgarte a que haya daños colaterales y a que mueran civiles, y a atacar por error y vivir con ello”.
B. dijo que la razón de esta automatización era el impulso constante de generar más objetivos para asesinar. “En un día sin objetivos [cuyo índice de calificación fuera suficiente para autorizar un ataque], atacábamos con un criterio más bajo. Nos presionaban constantemente: “Traednos más objetivos”. Nos gritaban mucho. Acabábamos con [la vida de] nuestros objetivos muy rápidamente”.
“En su punto álgido, el sistema logró generar 37.000 personas como potenciales objetivos humanos”
Explicó que al reducir el criterio de calificación de Lavender, se marcaba a más personas como objetivos de los ataques. “En su punto álgido, el sistema logró generar 37.000 personas como potenciales objetivos humanos”, dijo B. “Pero las cifras cambiaban todo el tiempo, porque depende de dónde pongas el listón de lo que es un agente de Hamás. Hubo momentos en que la definición de un agente de Hamás se llevaba a cabo de manera más amplia, y, de este modo, la máquina comenzaba a traernos todo tipo de personal de defensa civil, agentes de policía, con los que sería una lástima desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados”.
Una fuente que trabajó con el equipo científico de datos militares que entrenó a Lavender dijo que en la máquina también se introdujeron los datos recopilados de los empleados del Ministerio de Seguridad Interna dirigido por Hamás, a los que no considera militantes,. “Me molestó el hecho de que, cuando se entrenó a Lavender, usaron el término ‘agente de Hamás’ de manera poco precisa y se incluyera a personas que eran trabajadores de defensa civil en el conjunto de datos de entrenamiento”, dijo.
La fuente añadió que, incluso si uno cree que estas personas merecen ser asesinadas, entrenar al sistema en función de sus perfiles de comunicación hizo que hubiera más probabilidades de que Lavender seleccionara civiles por error cuando sus algoritmos se aplicaron a la población general. “Al tratarse de un sistema automático que no es manejado manualmente por humanos, el significado de esta decisión es dramático: significa que se incluyen como objetivos potenciales a muchas personas con un perfil de comunicación civil”.
‘Solo comprobamos que el objetivo es un varón’
El ejército israelí rechaza rotundamente estas afirmaciones. En una declaración a +972 y Local Call, el portavoz de las FDI negó el uso de los servicios de inteligencia artificial con el fin de incriminar objetivos al decir que se trata simplemente de “herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación”. La declaración proseguía: “En cualquier caso, se requiere un examen independiente por parte de un analista [del servicio de los servicios de inteligencia], que verifique la legitimidad de atacar los objetivos identificados de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional”.
Sin embargo, las fuentes afirmaron que el único protocolo de supervisión humana que se aplicaba antes de bombardear las casas de los presuntos militantes “subalternos” marcados por Lavender consistía en llevar a cabo una única comprobación: garantizar que el objetivo seleccionado por la IA fuera un hombre y no una mujer. En el ejército se partía de la base de que si el objetivo era una mujer, probablemente la máquina había cometido un error porque no hay mujeres entre las filas del brazo militar de Hamás y la Yihad Islámica.
“Un ser humano tenía que hacerlo [verificar el objetivo] en tan solo unos segundos”, dijo B., y explicaba que esto se convirtió en el protocolo después de darse cuenta de que el sistema Lavender “acertaba” la mayoría de las veces. “Al principio hacíamos comprobaciones para asegurarnos de que la máquina no se confundía. Pero, en un momento dado, confiamos en el sistema automático y solo comprobamos que [el objetivo] era un hombre, con eso bastaba. No se tarda mucho en saber si alguien tiene voz de hombre o de mujer”.
Para llevar a cabo la comprobación hombre/mujer, B. afirmó que en la guerra actual “en esa fase invertía 20 segundos por cada objetivo y hacía docenas al día. No aportaba nada como humano, aparte de ser un sello de aprobación. Ahorraba mucho tiempo. Si [el agente] aparecía en el mecanismo automatizado y yo comprobaba que era un hombre, habría permiso para bombardearlo, previo examen de los daños colaterales”.
Para los hombres civiles marcados por error por Lavender, no existía ningún mecanismo de supervisión para detectar dicho fallo
En la práctica, según las fuentes, esto significaba que para los hombres civiles marcados por error por Lavender, no existía ningún mecanismo de supervisión para detectar dicho fallo. Según B., se producía un error común “si el objetivo [de Hamás] le daba [su teléfono] a su hijo, a su hermano mayor o simplemente a un hombre al azar. Esa persona será bombardeada en su casa con su familia. Esto sucedió a menudo. Estos fueron la mayoría de los errores causados por Lavender”, dijo B.
PASO 2: VINCULACIÓN DE OBJETIVOS CON HOGARES FAMILIARES
‘La mayoría de las personas que mataste eran mujeres y niños’
La siguiente etapa en el procedimiento de asesinato del ejército israelí consiste en identificar dónde atacar a los objetivos que genera Lavender.
En una declaración a +972 y Local Call, el portavoz de las FDI afirmó en respuesta a este artículo que “Hamás coloca sus agentes y activos militares en el corazón de la población civil, utiliza sistemáticamente a la población civil como escudos humanos y lleva a cabo combates desde el interior de construcciones civiles, incluidos lugares vulnerables como hospitales, mezquitas, escuelas e instalaciones de la ONU. Las FDI están sujetas al derecho internacional y actúan de acuerdo con él y dirigen sus ataques únicamente contra objetivos militares y operativos militares”.
Las seis fuentes con las que hablamos, en cierta medida, repitieron esto mismo al decir que el extenso sistema de túneles de Hamás pasa deliberadamente por debajo de hospitales y escuelas; que los militantes de Hamás utilizan ambulancias para desplazarse; y que innumerables activos militares han sido situados cerca de edificios civiles. Las fuentes argumentaron que muchos ataques israelíes matan a civiles como consecuencia de estas tácticas de Hamás, una caracterización que, según advierten los grupos de derechos humanos, elude la responsabilidad de Israel de causar las bajas.
Palestinos intentan auxiliar a las víctimas que se encuentran bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun
Sin embargo, en contraste con las declaraciones oficiales del ejército israelí, las fuentes explicaron que una de las principales razones del número sin precedentes de víctimas mortales causado por los actuales bombardeos de Israel es el hecho de que el ejército ha atacado sistemáticamente objetivos en sus domicilios particulares junto a sus familias –en parte porque desde el punto de vista de los servicios de inteligencia, era más fácil marcar las casas familiares empleando sistemas automatizados–.
De hecho, varias fuentes subrayaron que, a diferencia de los numerosos casos de operativos de Hamás que participaban en actividades militares desde zonas civiles, en el caso de los ataques letales sistemáticos, el ejército, de forma rutinaria, tomaba la decisión activa de bombardear a militantes sospechosos cuando se encontraban dentro de hogares civiles en los que no tenía lugar ninguna actividad militar. Esta elección, dijeron, era un reflejo de la forma en que está diseñado el sistema israelí de vigilancia masiva en Gaza.
Las fuentes dijeron a +972 y Local Call que, puesto que todo el mundo en Gaza tenía una casa particular con la que se le podía asociar, los sistemas de vigilancia del ejército podían “vincular” fácil y automáticamente a las personas con las casas familiares. Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado varios softwares automáticos adicionales. Estos programas rastrean a miles de personas simultáneamente, identifican cuándo están en casa y envían una alerta automática al oficial encargado de señalar los objetivos, que luego marca la casa para bombardearla. Uno de varios de estos softwares de seguimiento, cuya existencia reveló +972 Magazine, se llama “¿Dónde está papá?”.
Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado sistemas automáticos
“Pones cientos [de objetivos] en el sistema y esperas a ver a quién puedes matar”, dijo una fuente que conocía el sistema. “Se llama búsqueda amplia: se copian y pegan las listas que genera el sistema de objetivos”.
Los datos también demuestran claramente esta política: durante el primer mes de la guerra, más de la mitad de las víctimas mortales –6.120 personas– pertenecían a 1.340 familias, muchas de las cuales fueron exterminadas al completo cuando se encontraban dentro de sus hogares, según cifras de la ONU. La proporción de familias enteras bombardeadas en sus casas en la guerra actual es mucho mayor que en la operación israelí de 2014 en Gaza (que anteriormente fue la guerra más mortífera de Israel en la Franja), lo que sugiere aún más lo destacado de esta política.
Otra fuente dijo que cada vez que disminuía el ritmo de los asesinatos, se añadían más objetivos a sistemas como ¿Dónde está papá? para localizar a personas que entraban en sus casas y que, por tanto, podrían ser bombardeadas. Afirmó que la decisión de quién incluir en los sistemas de seguimiento podría ser tomada por oficiales de rango relativamente bajo en la jerarquía militar.
“Un día, totalmente por mi cuenta, añadí unos 1.200 objetivos nuevos al sistema [de seguimiento], porque el número de ataques [que estábamos llevando a cabo] disminuyó”, dijo la fuente. “Para mí tenía sentido. En retrospectiva, creo que tomé una decisión muy importante. Y esas decisiones no se tomaban a altos niveles”.
“Un día, totalmente por mi cuenta, añadí unos 1.200 objetivos nuevos al sistema, porque el número de ataques [que estábamos llevando a cabo] disminuyó”
Las fuentes dijeron que en las dos primeras semanas de la guerra, inicialmente se introdujeron “varios miles” de objetivos en programas de localización como ¿Dónde está papá?. Entre ellos se encontraban todos los miembros de la unidad de élite de las fuerzas especiales de Hamás, la Nukhba, todos los operativos antitanque de Hamás y cualquiera que hubiera entrado en Israel el 7 de octubre. Pero al poco tiempo, la lista de muertos se amplió drásticamente.
“Al final eran todos [los marcados por Lavender]”, explicó una fuente. “Decenas de miles. Esto ocurrió unas semanas más tarde, cuando las brigadas [israelíes] entraron en Gaza y ya había menos personas no implicadas [es decir, civiles] en las zonas del norte”. Según esta fuente, Lavender incluso marcó a algunos menores como objetivos de los bombardeos. “Normalmente, los combatientes tienen más de 17 años, pero no era una condición”.
De este modo, Lavender y sistemas como ¿Dónde está papá? se combinaban con consecuencias letales que mataban a familias enteras, según las fuentes. Al añadir al sistema de seguimiento domiciliario ¿Dónde está papá? un nombre de las listas generadas por Lavender, explicó A., la persona marcada quedaba bajo vigilancia permanente y podía ser atacada tan pronto como pusiera un pie en su casa y se tiraba la casa abajo con todos los que estuvieran dentro.
“Digamos que se calcula [que hay un agente militar de] Hamás más 10 [civiles en la casa]”, explicó A.. “Por lo general estos 10 serán mujeres y niños. De modo que, absurdamente, resulta que la mayoría de las personas que mataste eran mujeres y niños”.
PASO 3: ELECCIÓN DEL ARMA
“Normalmente llevábamos a cabo los ataques con ‘bombas tontas’”
En el momento en que Lavender ha marcado un objetivo para asesinarlo, el personal del ejército ha verificado que se trata de varones y el software de rastreo ha localizado al objetivo en casa, la siguiente fase es elegir la munición con la que bombardearlos.
En diciembre de 2023, la CNN informó de que, según estimaciones de los servicios de inteligencia estadounidenses, alrededor del 45% de las municiones utilizadas por las fuerzas aéreas israelíes en Gaza eran bombas “tontas”, que se sabe que causan más daños colaterales que las bombas guiadas. En respuesta al informe de la CNN, un portavoz del ejército citado en el artículo dijo: “Como militares comprometidos con el derecho internacional y con un código moral de conducta, estamos dedicando ingentes recursos a minimizar los daños a los civiles a los que Hamás ha obligado a asumir el papel de escudos humanos. Nuestra guerra es contra Hamás, no contra el pueblo de Gaza”.
Los combatientes de menor rango marcados por Lavender se asesinaban únicamente con bombas tontas con el fin de ahorrar armamento más caro
Sin embargo, tres fuentes de los servicios de inteligencia dijeron a +972 y Local Call que los combatientes de menor rango marcados por Lavender se asesinaban únicamente con bombas tontas con el fin de ahorrar armamento más caro. La conclusión, explicó una fuente, era que el ejército no atacaría a un objetivo menor si vivía en un edificio alto porque el ejército no quería gastar una “bomba para destruir una planta” (con un efecto colateral más limitado), más precisa y costosa, para matarlo. Sin embargo, si un objetivo menor vivía en un edificio de pocas plantas, el ejército estaba autorizado a matarlo a él y a todos los que estaban en el edificio con una bomba tonta.
Hombres trabajan intentando desenterrar a las víctimas que se encuentran bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun
“Ocurrió así con todos los objetivos menores”, testificó C., que ha utilizado varios programas automatizados en la guerra actual. “La única pregunta era: ¿es posible atacar el edificio teniendo en cuenta los daños colaterales? Porque normalmente llevábamos a cabo los ataques con bombas tontas, y eso significaba literalmente destruir toda la casa encima de sus ocupantes. Pero incluso si se evita un ataque, te da igual: inmediatamente pasas al siguiente objetivo. Gracias al sistema, los objetivos nunca se acaban. Tienes otros 36.000 esperando”.
PASO 4: AUTORIZACIÓN DE BAJAS CIVILES
‘Atacamos sin apenas tener en cuenta los daños colaterales’
Una fuente dijo que al atacar a agentes de menor rango, incluidos aquellos marcados por sistemas de los servicios de inteligencia artificial como Lavender, el número de civiles que se les permitía matar junto a cada objetivo se fijó, durante las primeras semanas de la guerra, en 20. Otra fuente afirmó que el número fijado era de 15. Estos “límites de daños colaterales”, como los denominan los militares, se aplicaban de forma generalizada a todos los presuntos militantes subalternos, dijeron las fuentes, independientemente de su rango, importancia militar y edad, y sin ningún análisis específico de cada caso para sopesar la ventaja militar de asesinarlos frente al daño que pudiera causarle a la población civil.
Según A., que en la guerra actual fue oficial en una sala de operaciones de objetivos, el departamento de derecho internacional del ejército nunca antes había dado una “aprobación tan amplia” a un límite tan alto de daños colaterales. “No se trata solo de que se pueda matar a cualquier persona que sea soldado de Hamás, lo cual está claramente permitido y es legítimo en términos del derecho internacional”, dijo A.. “Sino que directamente te dicen: ‘Puedes matarlos junto con muchos civiles’”.
“Cada persona que vistiera uniforme de Hamás en el último año o dos podía ser bombardeada junto con 20 [civiles muertos como] daños colaterales, incluso sin un permiso especial”, continuó A.. “En la práctica, el principio de proporcionalidad no existía”.
“En la práctica, el principio de proporcionalidad no existía”
Según A., ésta fue la política durante la mayor parte del tiempo que estuvo en el cargo. Solo más tarde los militares redujeron el límite de daños colaterales. “En este cálculo, también podrían ser 20 niños para un agente militar de menor rango... No era así en el pasado”, explicó A.. Cuando se le preguntó sobre los motivos de seguridad de esta política, A. respondió: “Letalidad”.
El límite predeterminado y fijo de daños colaterales ayudó a acelerar la creación masiva de objetivos utilizando la máquina Lavender, dijeron las fuentes, porque ahorró tiempo. B. afirmó que el número de civiles que se les permitió matar en la primera semana de la guerra por cada presunto militante subalterno marcado por la AI era de quince, pero con el tiempo, esa cifra “subía y bajaba”.
“Al principio atacábamos casi sin tener en cuenta los daños colaterales”, dijo B. sobre la primera semana tras el 7 de octubre. “En la práctica, realmente no se contaban las personas [en cada casa que fue bombardeada] porque en realidad no se podía saber si estaban en casa o no. Al cabo de una semana comenzaron las restricciones a los daños colaterales. El número bajó [de 15] a cinco, lo que nos dificultó mucho los ataques porque si toda la familia estaba en casa, no podíamos bombardearla. Luego volvieron a subir el número”.
“Sabíamos que mataríamos a más de 100 civiles”
Las fuentes dijeron a +972 y Local Call que ahora, en parte debido a la presión estadounidense, el ejército israelí ya no genera en masa objetivos humanos de rango inferior susceptibles de ser bombardeados en viviendas civiles. El hecho de que la mayoría de las viviendas de la Franja de Gaza ya hayan sido destruidas o dañadas, y de que casi toda la población haya sido desplazada, también afectó a la capacidad del ejército para confiar en las bases de datos de los servicios de los servicios de inteligencia y en los programas automatizados de localización de viviendas.
E. afirmó que el bombardeo masivo de militantes de menor rango solo tuvo lugar en la primera o segunda semana de la guerra y luego se detuvo principalmente para no desperdiciar bombas. “Hay una economía de municiones”, afirmó E. “Siempre temieron que hubiera [una guerra] en el norte [con Hezbolá en el Líbano]. Ya no atacan a este tipo de personas [de menor rango]”.
El bombardeo masivo de militantes de menor rango solo tuvo lugar en la primera o segunda semana de la guerra y luego se detuvo principalmente para no desperdiciar bombas
Sin embargo, los ataques aéreos contra comandantes de alto rango de Hamás persisten, y las fuentes dijeron que, para estos ataques, el ejército está autorizando el asesinato de “cientos” de civiles por objetivo, una política oficial para la que no existe ningún precedente histórico en Israel y ni siquiera en las recientes operaciones militares estadounidenses.
“En el bombardeo del comandante del Batallón Shuja’iya sabíamos que mataríamos a más de 100 civiles”, recordó B. sobre un bombardeo que tuvo lugar el 2 de diciembre que, según el portavoz de las FDI, tenía como objetivo asesinar a Wisam Farhat. “Para mí, psicológicamente, fue extraño. Más de 100 civiles: cruza una línea roja”.
Amjad Al-Sheikh, un joven palestino de Gaza, dijo que muchos de sus familiares murieron en ese bombardeo. Residente de Shuja’iya, al este de la ciudad de Gaza, se encontraba ese día en un supermercado local cuando escuchó cinco explosiones que hicieron añicos los cristales de las ventanas.
“Corrí a casa de mi familia, pero ya no había edificios”, dijo Al-Sheikh al +972 y a Local Call. “La calle se llenó de gritos y humo. Bloques residenciales enteros se convirtieron en montañas de escombros y agujeros profundos. La gente empezó a buscar en el cemento usando las manos, y yo también, buscando señales de la casa de mi familia”.
La esposa y la hija pequeña de Al-Sheikh sobrevivieron –protegidas de los escombros por un armario que les cayó encima– pero encontró a otros 11 miembros de su familia, entre ellos sus hermanas, hermanos y sus hijos pequeños, muertos bajo los escombros. Según el grupo de derechos humanos B’Tselem, el bombardeo de ese día destruyó decenas de edificios, mató a decenas de personas y enterró a cientos bajo las ruinas de sus hogares.
“Familias enteras asesinadas”
Fuentes de los servicios de inteligencia dijeron a +972 y Local Call que participaron en ataques aún más mortíferos. Para asesinar a Ayman Nofal, comandante de la Brigada Central de Gaza de Hamás, una fuente declaró que el ejército autorizó el asesinato de aproximadamente 300 civiles y la destrucción de varios edificios en ataques aéreos contra el campo de refugiados de Al-Bureij el 17 de octubre, basándose en una localización imprecisa de Nofal. Imágenes de satélite y vídeos del lugar muestran la destrucción de varios grandes edificios de viviendas de varias plantas.
“En el ataque se destruyeron entre 16 y 18 casas”, dijo Amro Al-Khatib, residente del campamento, a +972 y Local Call. “No podíamos distinguir un piso de otro; todos quedaron mezclados entre los escombros y encontramos partes de cuerpos humanos por todas partes”.
Después, Al-Khatib recordó que se sacaron unos 50 cadáveres y unas 200 personas heridas de entre los escombros, muchas de ellas de gravedad. Pero eso fue sólo el primer día. Los residentes del campo pasaron cinco días sacando a los muertos y heridos, dijo.
Nael Al-Bahisi, sanitario, fue uno de los primeros en llegar. Contó entre 50 y 70 víctimas ese primer día. “En un momento dado, entendimos que el objetivo del ataque era el comandante de Hamás Ayman Nofal”, dijo al +972 y a Local Call. “Lo mataron a él y también a mucha gente que no sabía que Ayman Nofal estaba allí. Mataron a familias enteras con niños”.
Otra fuente de los servicios de los servicios de inteligencia dijo a +972 y Local Call que el ejército destruyó un edificio de gran altura en Rafah a mediados de diciembre, en el que mató a “docenas de civiles” para intentar matar a Mohammed Shabaneh, el comandante de la Brigada Rafah de Hamás (no está claro si murió o no en el ataque). A menudo, dijo la fuente, los altos mandos se esconden en túneles que pasan debajo de edificios civiles, por lo que la decisión de asesinarlos con un ataque aéreo necesariamente mata a civiles.
“La mayoría de los heridos eran niños”, declaró Wael Al-Sir, de 55 años, que presenció el ataque a gran escala que algunos habitantes de Gaza consideran que fue un intento de asesinato. Wael Al-Sir le dijo a +972 y Local Call que el bombardeo del 20 de diciembre destruyó un “bloque de viviendas entero” y mató al menos a 10 niños.
“Había una política absolutamente permisiva respecto a las víctimas de las operaciones [de bombardeo], tan permisiva que en mi opinión tenía un punto de venganza”, afirmó D., una fuente de los servicios de inteligencia. “El objetivo era el asesinato de altos mandos [de Hamás y de la Yihad Islámica en Palestina] por los que estaban dispuestos a matar a cientos de civiles. Hicimos un cálculo: cuántos por comandante de brigada, cuántos por comandante de batallón, etcétera”.
“Hemos matado a personas con daños colaterales de dos dígitos, si no de tres dígitos”
“Había normas, pero eran muy tolerantes”, dijo E., otra fuente de los servicios de inteligencia. “Hemos matado a personas con daños colaterales de dos dígitos, si no de tres dígitos. Cosas que no habían sucedido antes”.
Un índice tan alto de “daños colaterales” es excepcional no solo en comparación con lo que el ejército israelí consideraba aceptable anteriormente, sino también en comparación con las guerras emprendidas por Estados Unidos en Irak, Siria y Afganistán.
El general Peter Gersten, subcomandante de Operaciones e Inteligencia en la operación de lucha contra el ISIS en Irak y Siria, en 2021 declaró a una revista de defensa estadounidense que un ataque con daños colaterales de 15 civiles se salía del procedimiento; para llevarlo a cabo tuvo que obtener un permiso especial del jefe del Comando Central estadounidense, el general Lloyd Austin, hoy secretario de Defensa.
“En el caso de Osama Bin Laden, el valor de las bajas de no combatientes [NCV, por sus siglas en inglés] era de 30, pero si se trataba de un comandante de rango bajo, el NCV normalmente era cero”, explica Gersten. “Manejamos cero durante mucho tiempo”.
“Nos decían: ‘Siempre que podáis, bombardead’’’
Todas las fuentes entrevistadas para esta investigación afirmaron que las masacres de Hamás del 7 de octubre y el secuestro de rehenes influyeron mucho en la política para abrir fuego del ejército y en los límites de daños colaterales. “Al principio, el ambiente era desgarrador y vengativo”, dijo B., que fue reclutado por el ejército inmediatamente después del 7 de octubre y sirvió en una sala de operaciones de objetivos. “Las reglas eran muy permisivas. Derribaron cuatro edificios cuando sabían que el objetivo estaba en uno de ellos. Era una locura”.
Un niño herido por los bombardeos es atendido por sanitarios en Gaza en noviembre de 2023. / Mohammed Zannoun
“Había una discordancia: por una parte, la gente estaba frustrada porque no atacábamos lo suficiente”, continuó B. “Por otra parte, al final del día veías que otros mil habitantes de Gaza habían muerto, la mayoría de ellos civiles”.
“En las filas profesionales había histeria ”, dijo D., que también fue reclutado inmediatamente después del 7 de octubre. “No tenían ni idea de cómo reaccionar. Lo único que sabían hacer era empezar a bombardear como locos para intentar desarticular el potencial de Hamás”.
D. subrayó que no se les dijo explícitamente que el objetivo del ejército era la “venganza”, pero expresó que “en el momento en que cada objetivo relacionado con Hamás se legitima y casi cualquier daño colateral se aprueba, tienes claro que se van a matar miles de personas. Aunque oficialmente todos los objetivos estén conectados con Hamás, cuando la política es tan permisiva, pierde todo sentido”.
A. también utilizó la palabra “venganza” para describir el ambiente dentro del ejército después del 7 de octubre. “Nadie pensó en lo que habría que hacer después, cuando termine la guerra, ni en cómo sería posible vivir en Gaza y qué harían con ello”, dijo A. “Nos dijeron: ahora tenemos que joder a Hamás, cueste lo que cueste. Siempre que podáis, bombardead”.
B., la principal fuente de los servicios de inteligencia, dijo que, en retrospectiva, cree que esta política “desproporcionada” de matar a palestinos en Gaza también pone en peligro a los israelíes, y que esta fue una de las razones por las que decidió que le entrevistaran.
“Veo que en las familias desconsoladas de Gaza –que son casi todas– aumentarán los motivos para unirse a Hamás dentro de 10 años”
“A corto plazo estamos más seguros porque perjudicamos a Hamás. Pero creo que, a largo plazo, estamos menos seguros. Veo que en las familias desconsoladas de Gaza –que son casi todas– aumentarán los motivos para unirse a Hamás dentro de 10 años. Y será mucho más fácil [para Hamás] reclutarlos”.
En una declaración a +972 y Local Call, el ejército israelí negó gran parte de lo que nos dijeron las fuentes y afirmaron que “cada objetivo se examina individualmente, al tiempo que se hace una evaluación individual de la ventaja militar y daños colaterales esperados del ataque… Las FDI no llevan a cabo ataques cuando los daños colaterales que se esperan del ataque son excesivos en relación con la ventaja militar”.
PASO 5: CÁLCULO DE LOS DAÑOS COLATERALES
‘El modelo no estaba conectado con la realidad’
Según fuentes de los servicios de inteligencia, el cálculo por parte del ejército israelí del número de civiles que se esperaba que murieran en cada casa junto a un objetivo —un procedimiento examinado en una investigación previa por +972 y Local Call— se llevó a cabo con la ayuda de herramientas automáticas e imprecisas. En guerras anteriores, el personal de los servicios de inteligencia dedicaba mucho tiempo a verificar cuántas personas había en una casa que iba a ser bombardeada, y el número de civiles que podían morir figuraba como parte de un “archivo de objetivos”. Sin embargo, después del 7 de octubre, esta verificación exhaustiva en gran medida se abandonó en favor de la automatización.
En octubre, The New York Times informó sobre un sistema operado desde una base especial en el sur de Israel, que recopila información de los teléfonos móviles en la Franja de Gaza y que proporcionó a los militares una estimación en tiempo real del número de palestinos que huyeron del norte de la Franja de Gaza hacia el sur. El general Udi Ben Muha declaró a The New York Times que “no es un sistema 100 % perfecto, pero te da la información que necesitas para tomar una decisión”. El sistema funciona por colores: el rojo marca las zonas donde hay mucha gente, y el verde y el amarillo marcan las zonas que han quedado relativamente despejadas de residentes.
Para ahorrar tiempo, dijeron las fuentes, el ejército no vigiló las casas para comprobar cuántas personas vivían allí realmente
Las fuentes que hablaron con +972 y Local Call describieron un sistema similar para calcular los daños colaterales, que se utilizó para decidir si bombardear un edificio en Gaza. Dijeron que el software calculaba el número de civiles que residían en cada casa antes de la guerra –a través de la evaluación del tamaño del edificio y la revisión de su lista de residentes– y luego redujo esos números en la proporción de residentes que supuestamente evacuaron el vecindario.
Por ejemplo, si el ejército calculaba que la mitad de los residentes de un barrio se habían ido, el programa contaría una casa que normalmente tenía 10 residentes como una casa que contenía cinco personas. Para ahorrar tiempo, dijeron las fuentes, el ejército no vigiló las casas para comprobar cuántas personas vivían allí realmente, como hizo en operaciones anteriores, para comprobar si las estimaciones del programa eran verdaderamente exactas.
“Este modelo no se correspondía con la realidad”, afirmó una fuente. “No había ninguna conexión entre los que estaban en la casa ahora, durante la guerra, y los que figuraban como que vivían allí antes de la guerra. [En una ocasión] bombardeamos una casa sin saber que dentro había varias familias escondidas”.
La fuente dijo que aunque el ejército sabía que tales errores podían ocurrir, de todos modos se adoptó este modelo impreciso porque era más rápido. Por lo tanto, dijo la fuente, “el cálculo de los daños colaterales era totalmente automático y estadístico”, e incluso generó cifras que no eran números enteros.
PASO 6: BOMBARDEO DE UNA VIVIENDA FAMILIAR
‘Mataste a una familia sin ningún motivo’
Las fuentes que hablaron con +972 y Local Call explicaron que a veces había una brecha sustancial entre el momento en que sistemas de rastreo como ¿Dónde está papá? alertaba a un oficial de que un objetivo había entrado en su casa y del bombardeo en sí, lo que provocó la muerte de familias enteras incluso sin alcanzar el objetivo del ejército. “En muchas ocasiones atacamos una casa, pero la persona ni siquiera estaba allí”, dijo una fuente. “El resultado es que matabas a una familia sin ningún motivo”.
Tres fuentes de los servicios de inteligencia dijeron a +972 y Local Call que habían sido testigos de un incidente en el que el ejército israelí bombardeó la vivienda privada de una familia, y más tarde resultó que el objetivo del asesinato ni siquiera estaba dentro de la casa, ya que no se había llevado a cabo ninguna verificación adicional en tiempo real.
“A veces [el objetivo] estaba en su casa antes, y luego por la noche se iba a dormir a otro lugar, por ejemplo, bajo tierra, y no lo sabíamos”, dijo una de las fuentes. “Había ocasiones en las que volvías a verificar la ubicación y otras en las que simplemente decías: ‘Muy bien, como estaba en la casa en las últimas horas, simplemente puedes bombardear’”.
Otra fuente describió un incidente similar que le afectó y por el que quiso participar en esta investigación. “Entendimos que el objetivo estaba en casa a las ocho de la noche. Al final, las fuerzas aéreas bombardearon la casa a las tres de la madrugada. Luego descubrimos [en ese lapso de tiempo] que había conseguido trasladarse a otra casa con su familia. En el edificio que bombardeamos había otras dos familias con niños”.
“No sabes exactamente a cuántos has matado ni a quién has matado”
En guerras anteriores en Gaza, después del asesinato de objetivos humanos, los servicios de inteligencia israelí llevaban a cabo procedimientos de evaluación de daños por bombas (BDA, por sus siglas en inglés), una verificación rutinaria posterior al ataque para ver si el mando superior había muerto y cuántos civiles habían muerto con él. Como se reveló en una investigación anterior de +972 y Local Call, esto implicó escuchar llamadas telefónicas de familiares que perdieron a sus seres queridos. Sin embargo, en la guerra actual, al menos en relación con los militantes de rango inferior marcados con IA, las fuentes dicen que este procedimiento fue suprimido para ahorrar tiempo. Las fuentes dijeron que no sabían cuántos civiles murieron en cada ataque, y en el caso de los presuntos operativos de rango bajo de Hamás y la Yihad Islámica marcados por IA, ni siquiera sabían si el propio objetivo había muerto.
“No sabes exactamente a cuántos has matado ni a quién has matado”, dijo a Local Call una fuente de los servicios de inteligencia en una investigación anterior publicada en enero. “Únicamente se sigue el procedimiento de BDA cuando se trata de mandos altos de Hamás. En el resto de casos, no importa. Recibes un informe de las fuerzas aéreas sobre si el edificio ha sido bombardeado y ya está. No tienes ni idea del número de daños colaterales; inmediatamente después pasas al siguiente objetivo. El acento se ponía en crear tantos objetivos como fuera posible, lo más rápido posible”.
Sin embargo, si bien el ejército israelí puede dejar atrás cada ataque sin detenerse en el número de víctimas, Amjad Al-Sheikh, el residente de Shuja'iya que perdió a once de sus familiares en el bombardeo del 2 de diciembre, dijo que él y sus vecinos todavía están buscando cadáveres.
“Aún hay cadáveres bajo los escombros”, afirmó. “Catorce edificios de viviendas fueron bombardeados con sus residentes dentro. Algunos de mis familiares y vecinos todavía están enterrados bajo los escombros”.
—----
Este texto fue publicado originalmente en +972 Magazine.
La traducción es de Paloma Farré.
En 2021, se publicó en inglés un libro titulado The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will...
Autor >
Yuval Abraham (+972 Magazine / Local Call) /
Autor >
Traducción: Paloma Farré
Suscríbete a CTXT
Orgullosas
de llegar tarde
a las últimas noticias
Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí