1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

  281. Número 281 · Febrero 2022

  282. Número 282 · Marzo 2022

  283. Número 283 · Abril 2022

  284. Número 284 · Mayo 2022

  285. Número 285 · Junio 2022

  286. Número 286 · Julio 2022

  287. Número 287 · Agosto 2022

  288. Número 288 · Septiembre 2022

  289. Número 289 · Octubre 2022

  290. Número 290 · Noviembre 2022

  291. Número 291 · Diciembre 2022

  292. Número 292 · Enero 2023

  293. Número 293 · Febrero 2023

  294. Número 294 · Marzo 2023

  295. Número 295 · Abril 2023

  296. Número 296 · Mayo 2023

  297. Número 297 · Junio 2023

  298. Número 298 · Julio 2023

  299. Número 299 · Agosto 2023

  300. Número 300 · Septiembre 2023

  301. Número 301 · Octubre 2023

  302. Número 302 · Noviembre 2023

  303. Número 303 · Diciembre 2023

  304. Número 304 · Enero 2024

  305. Número 305 · Febrero 2024

  306. Número 306 · Marzo 2024

  307. Número 307 · Abril 2024

  308. Número 308 · Mayo 2024

CTXT necesita 15.000 socias/os para seguir creciendo. Suscríbete a CTXT

INVESTIGACIÓN PERIODÍSTICA

‘Lavender’: la máquina de IA que dirige los bombardeos de Israel en Gaza

El ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos para proceder a su asesinato utilizando un sistema de asignación de objetivos con poca supervisión humana, revelan +972 y Local Call

Yuval Abraham (+972 Magazine / Local Call) / Traducción: Paloma Farré 10/04/2024

<p>La ciudad de Beit Lahia, al norte de la Franja de Gaza, en diciembre de 2023, tras un ataque israelí. <strong>/ Yonatan Sindel /Flash90</strong></p>

La ciudad de Beit Lahia, al norte de la Franja de Gaza, en diciembre de 2023, tras un ataque israelí. / Yonatan Sindel /Flash90

En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí

En 2021, se publicó en inglés un libro titulado The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World [‘El equipo humano-máquina: cómo crear una sinergia entre la inteligencia humana y la artificial que revolucionará nuestro mundo’] cuyo autor firmaba bajo el seudónimo de “Brigadier General Y.S”. En él, el escritor –un hombre que, según hemos confirmado, es el actual comandante de la unidad de élite 8200 de la inteligencia israelí– defiende el diseño de una máquina especial que podría procesar rápidamente ingentes cantidades de datos con el fin de generar miles de potenciales “objetivos” para ataques militares en el fragor de una guerra. Dicha tecnología, escribe, resolvería lo que describió como un “atasco humano tanto para localizar nuevos objetivos como para la toma de decisiones que aprueben dichos objetivos”.

Resulta que una máquina así existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como “Lavender”, cuya existencia revelamos en +972 Magazine. Según seis agentes del servicio de inteligencia israelí, que han servido en el ejército durante la actual guerra en la Franja de Gaza y tuvieron una participación directa en el uso de IA con el fin de generar objetivos para asesinar, Lavender ha desempeñado un papel fundamental en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, influía hasta tal punto en las operaciones militares que básicamente trataban los resultados de la máquina de IA “como si fuera una decisión humana”.

Formalmente, el sistema Lavender está diseñado para marcar como posibles objetivos de bombardeo a todos los sospechosos de pertenecer al brazo armado de Hamás y la Yihad Islámica Palestina, incluidos los de rango inferior. Las fuentes revelaron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos –y sus hogares– como presuntos militantes para posibles ataques aéreos.

Durante las primeras fases de la guerra, el ejército autorizó a los oficiales para que asumieran como buenas las listas de objetivos a matar que generaba Lavender sin necesidad de comprobar a fondo por qué la máquina tomaba esas decisiones o de analizar la información sin procesar en la que se basaban. Una fuente declaró que el personal humano a menudo solo servía de “sello” para aprobar automáticamente las decisiones de la máquina, y añadió que, por lo general, tan solo dedicaban personalmente unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, únicamente para asegurarse de que el objetivo marcado por Lavender era un varón. Y ello a pesar de saber que el sistema comete lo que se consideran “errores” en aproximadamente el 10% de los casos y de que, en ocasiones, marca a personas que apenas tienen una ligera conexión con grupos militantes o ninguna conexión en absoluto.

Además, el ejército israelí atacaba sistemáticamente a las personas marcadas como objetivos cuando se encontraban en sus hogares –generalmente de noche, con toda la familia presente– y no en el transcurso de las actividades militares. Según las fuentes, esto se debía a que, desde el punto de vista de los servicios de inteligencia, era más fácil localizarlas en sus domicilios particulares. Otros sistemas automatizados, incluido uno llamado “¿Dónde está papá?”, cuya existencia también revelamos en +972 Magazine, se utilizaban para localizar a personas concretas y llevar a cabo los atentados con bombas cuando entraban en los domicilios de sus familias.

El resultado, como testificaron las fuentes, es que miles de palestinos –la mayoría de ellos mujeres y niños o personas que no participaban en los combates– fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.

“No nos interesaba matar a los operativos [de Hamás] solo cuando estaban en un edificio militar o participaban en una operación militar”, dijo A., un agente de los servicios de los servicios de inteligencia, a +972 y Local Call. “Por el contrario, las FDI los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.

Los bomberos intentan extinguir el fuego tras un bombardeo en Gaza. / Mohammed Zannoun

La máquina Lavender se une a otro sistema de IA, “The Gospel” [El Evangelio], sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que The Gospel marca los edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas y las pone en una lista negra. 

Además, según las fuentes, cuando se trataba de atacar a supuestos militantes subalternos marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, comúnmente conocidos como bombas “tontas” (en contraste con las bombas de precisión “inteligentes”), que pueden destruir edificios enteros con sus ocupantes y causan una cantidad importante de bajas. “No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]”, dijo C., uno de los agentes de los servicios de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de “cientos” de casas privadas de presuntos militantes subalternos marcados por Lavender, y que en muchos de esos ataques murieron civiles y familias enteras que calificaban de “daños colaterales”.

“No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país”

En una medida sin precedentes, según dos de las fuentes, durante las primeras semanas de la guerra, el ejército también decidió que por cada militante subalterno de Hamás marcado por Lavender estaba permitido matar hasta 15 o 20 civiles; en el pasado, los militares no autorizaban ningún “daño colateral” durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en el caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.

La siguiente investigación está organizada por orden cronológico de acuerdo a las seis etapas de la enormemente automatizada producción de objetivos por parte del ejército israelí durante las primeras semanas de la guerra de Gaza. En primer lugar, explicamos qué es la máquina Lavender, que marcaba como objetivo a decenas de miles de palestinos utilizando IA. En segundo lugar, desvelamos el funcionamiento del sistema “¿Dónde está papá?”, que rastreaba esos objetivos y avisaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron las bombas “tontas” para atacar estos hogares. 

“Por cada militante subalterno de Hamás marcado por Lavender estaba permitido matar hasta 15 o 20 civiles” 

En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, señalamos el modo en que el software automatizado calculó de manera inexacta la cantidad de no combatientes en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una vivienda, generalmente de noche, el objetivo individual a veces no estaba dentro porque el personal militar no verificaba la información en tiempo real.

PASO 1: GENERACIÓN DE OBJETIVOS

‘En cuanto se automatiza, la generación de objetivos se vuelve loca’

En el pasado, en el ejército israelí, el término “objetivo humano” se refería a un agente militar de alto rango que, según las reglas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su domicilio privado incluso si hay civiles cerca. Fuentes de los servicios de inteligencia dijeron a +972 y Local Call que, durante las guerras anteriores de Israel, dado que se trataba de una forma “especialmente brutal” de matar a alguien –en la que a menudo se mataba a una familia entera junto al objetivo–, dichos objetivos humanos se marcaban con mucho cuidado y únicamente se bombardeaba a altos mandos militares en sus hogares con el fin de mantener el principio de proporcionalidad previsto en el derecho internacional.

Pero después del 7 de octubre –cuando militantes liderados por Hamás lanzaron un ataque mortal contra las comunidades del sur de Israel, en el que mataron a unas 1.200 personas y secuestraron a 240–, el ejército, según las fuentes, adoptó un enfoque radicalmente distinto. En el marco de la “Operation Iron Swords” [Operación espadas de hierro], el ejército decidió señalar a todos los agentes del brazo militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.

El ejército decidió señalar a todos los agentes del brazo militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar

La nueva política también planteó un problema técnico para los servicios de inteligencia israelíes. En guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial tenía que pasar por un complejo y largo proceso de “incriminación”: comprobar que la persona era efectivamente un miembro de alto rango del brazo militar de Hamás, averiguar dónde vivía, su información de contacto y, finalmente, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos únicamente contaba con unas pocas docenas de altos mandos, el personal de los servicios de inteligencia podía encargarse individualmente del trabajo dedicado a incriminarlos y localizarlos.

Sin embargo, una vez que la lista se amplió e incluyó a decenas de miles de agentes de rango inferior, el ejército israelí pensó que tenía que apoyarse en el software automatizado y la inteligencia artificial. El resultado, testifican las fuentes, fue que el papel del personal humano en la incriminación de palestinos combatientes fue descartado y, en su lugar, la IA hizo la mayor parte del trabajo. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender –que fue desarrollado para crear objetivos humanos en la guerra actual– ha marcado a unos 37.000 palestinos como presuntos “militantes de Hamás”, la mayoría de ellos subalternos, para asesinarlos (el portavoz de las FDI negó la existencia de dicha lista de objetivos a matar en una declaración enviada a +972 y Local Call).

Una niña palestina y su madre son rescatadas de los escombros en Khan Yunis, al sur de la ciudad de Gaza. / Mohammed Zannoun

“No sabíamos quiénes eran los agentes subalternos porque Israel no les seguía la pista de forma rutinaria [antes de la guerra]”, explicó el oficial superior B. a +972 y Local Call para aclarar el motivo para desarrollar esta particular máquina generadora de objetivos para la guerra actual. “Querían permitirnos atacar [a los agentes subalternos] automáticamente. Ese es el Santo Grial. En cuanto se automatiza, la generación de objetivos se vuelve loca”.

Las fuentes dijeron que la aprobación para asumir automáticamente las listas negras de Lavender, que anteriormente se habían utilizado solo como herramienta auxiliar, se dio aproximadamente dos semanas después del inicio de la guerra, después de que el personal de los servicios de inteligencia verificara “manualmente” la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de IA. Cuando esa muestra descubrió que los resultados de Lavender habían logrado un 90% de precisión en la identificación de personas que pertenencían a Hamás, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, las fuentes dijeron que si Lavender decidía que un individuo era militante de Hamás, esencialmente se les pedía que lo trataran como una orden, sin necesidad de comprobar de forma independiente por qué la máquina tomaba esa decisión o de examinar la información sin procesar en la que se basaba.

“A las 5 de la mañana, [las fuerzas aéreas] llegaban y bombardeaban todas las casas que habíamos marcado”, dijo B. “Eliminamos a miles de personas. No los revisábamos uno a uno: pusimos todo en sistemas automatizados, y en cuanto uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. Lo bombardeábamos a él y a su casa”.

“Me sorprendió mucho que nos pidieran que bombardeáramos una casa para matar a un soldado de tierra, cuya importancia en los combates era tan baja”, dijo una fuente sobre el uso de IA para marcar a supuestos militantes de rango inferior. “A esos objetivos los apodé ‘objetivos basura’. Aún así, me parecía más ético que los objetivos que bombardeamos solo por ‘disuasión’: rascacielos evacuados y derribados solo para causar destrucción”.

Los resultados mortales de esta flexibilización de las restricciones en la primera fase de la guerra fueron asombrosos. Según datos del Ministerio de Salud palestino en Gaza, del que el ejército israelí ha dependido casi exclusivamente desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos –casi la mitad de la cifra de muertos hasta el momento– en las primeras seis semanas de la guerra, hasta que el 24 de noviembre se acordó un alto el fuego de una semana.

“Cuanta más información y variedad, mejor”

El software Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva y, a continuación, evalúa y clasifica la probabilidad de que cada persona en particular pertenezca al brazo armado de Hamás o a la Yihad Islámica Palestina. Según las fuentes, la máquina otorga a casi todas las personas de Gaza una calificación del 1 al 100 para expresar la probabilidad de que sean militantes. 

Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza a través de un sistema de vigilancia masiva

Las fuentes explicaron que Lavender aprende a identificar las características de los agentes conocidos de Hamás y la Yihad Islámica Palestina, cuya información fue introducida en la máquina como datos de entrenamiento, y luego localiza esas mismas características –también llamadas “rasgos”– entre la población general. Un individuo que tenga varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, automáticamente, se convertirá en un posible objetivo de asesinato. 

Docenas de palestinos buscan las víctimas enterradas bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun

En The Human-Machine Team, el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por sistema de este tipo sin referirse a Lavender por su nombre. (Tampoco se nombra al propio comandante, pero cinco fuentes de la 8200 confirmaron que el comandante es el autor, como también informó Haaretz). Al describir al personal humano como un “atasco” que limita la capacidad del ejército durante una operación militar, el comandante se lamenta: “Nosotros [los humanos] no podemos procesar tanta información. No importa a cuántas personas se le haya asignado la tarea de generar objetivos durante la guerra: seguirás sin generar suficientes objetivos al día”.

La solución a este problema, afirma, es la inteligencia artificial. El libro ofrece una breve guía para construir una “máquina de objetivos”, similar en su descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. En esta guía se incluyen varios ejemplos de los “cientos y miles” de características que pueden aumentar la calificación de un individuo, como estar en un grupo de Whatsapp con un militante conocido, cambiar de móvil cada pocos meses y cambiar de dirección con frecuencia. 

“Cuanta más información y más variada, mejor”, escribe el comandante. “Información visual, información del móvil, conexiones en redes sociales, información del campo de batalla, contactos telefónicos, fotografías”. Si bien al principio son los humanos quienes seleccionan estas características, continúa el comandante, con el tiempo la máquina llegará a identificar las características por sí sola. Esto, dice, puede permitir a los militares crear “decenas de miles de objetivos”, mientras que la decisión real de atacarlos o no seguirá siendo una decisión humana.

El libro no es la única ocasión en que un alto mando israelí insinúa la existencia de máquinas generadoras de objetivos humanos como Lavender. +972 y Local Call obtuvieron imágenes de una conferencia privada que impartió en 2023 el comandante del discreto centro de Ciencia de Datos e Inteligencia Artificial de la Unidad 8200, el “coronel Yoav”, en la semana de la IA de la Universidad de Tel Aviv, de la que informaron en su momento los medios de comunicación israelíes.

En la conferencia, el comandante habla de una nueva y sofisticada máquina generadora de objetivos utilizada por el ejército israelí que detecta a “personas peligrosas” basándose en su semejanza con las listas existentes de militantes conocidos sobre las que fue entrenada. “Utilizando el sistema logramos identificar a los comandantes de los escuadrones de misiles de Hamás”, dijo el “coronel Yoav” en la conferencia, en referencia a la operación militar israelí de mayo de 2021 en Gaza, cuando la máquina se utilizó por primera vez.

Las diapositivas presentadas en la conferencia, también obtenidas por +972 y Local Call, contienen ilustraciones del funcionamiento de la máquina: se le suministran datos sobre los agentes existentes de Hamás, aprende a fijarse en sus rasgos y luego clasifica a otros palestinos en función de su parecido con los militantes. 

“Clasificamos los resultados y determinamos el límite [a partir del cual atacar a un objetivo]”, afirmó el “coronel Yoav” en la conferencia, y subrayó que “al final, las decisiones las toman personas de carne y hueso. En el ámbito de la defensa, éticamente hablando, ponemos mucho énfasis en esto. Estas herramientas están destinadas a ayudar [a los agentes de los servicios de inteligencia] a superar sus barreras”. 

Sin embargo, en la práctica, las fuentes que han utilizado Lavender en los últimos meses sostienen que la mediación humana y la precisión fueron sustituidas por la creación masiva de objetivos y la letalidad.

“No había una política de ‘cero errores’”

B., un oficial de alto rango que usó Lavender, reiteró a +972 y a Local Call que, en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA con el fin de ahorrar tiempo y permitir la producción en masa y sin obstáculos de objetivos humanos. 

“Todo era estadístico, todo estaba ordenado, era muy seco”, dijo B. Señaló que esta falta de supervisión estaba permitida a pesar de que los controles internos mostraban que los cálculos de Lavender se consideraban precisos sólo el 90% de las ocasiones; en otras palabras, se sabía de antemano que el 10 % de los objetivos humanos programados para ser asesinados no eran en absoluto miembros del brazo armado de Hamás.

Por ejemplo, las fuentes explicaron que la máquina Lavender a veces marcaba erróneamente a personas que tenían patrones de comunicación similares a los de conocidos agentes de Hamás o de la Yihad Islámica en Palestina, incluido personal de policía y de defensa civil, familiares de militantes, residentes que casualmente tenían un nombre y apodo idénticos al de un agente, y gazatíes que utilizaban un dispositivo que había pertenecido a un agente de Hamás. 

“¿Hasta qué punto tiene que estar una persona cerca de Hamás para que una máquina de los servicios de inteligencia artificial la considere miembro de la organización?”, dijo una fuente crítica con la inexactitud de Lavender. “Es una frontera imprecisa. ¿Una persona que no recibe un salario de Hamás, pero les ayuda en todo tipo de cosas, es un agente de Hamás? ¿Alguien que estuvo en Hamás en el pasado, pero que ya no lo está hoy, es un agente de Hamás? Cada una de estas especificaciones –características que una máquina consideraría sospechosas– es inexacta”.

Gazatíes intentan desenterrar a las víctimas que se encuentran bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun

Existen problemas similares con la capacidad de las máquinas generadoras de objetivos para evaluar el teléfono utilizado por una persona marcada para ser asesinada. “En la guerra, los palestinos cambian de teléfono continuamente”, dijo la fuente. “La gente pierde el contacto con sus familias, le da su teléfono a un amigo o a su esposa y tal vez lo pierde. No hay manera de confiar al 100 % en el mecanismo automático que determina a quién pertenece un número [de teléfono]”.

Según las fuentes, el ejército sabía que la mínima supervisión humana establecida no descubriría estos fallos. “No existía una política de ‘cero errores’. Los errores se trataban estadísticamente”, dijo una fuente que utilizó Lavender. “Debido al alcance y la magnitud de la situación, el protocolo era que aunque no se estuviera seguro de que la máquina acertara, se sabía que estadísticamente acertaba. Así que se hacía”.

“Ha demostrado su eficacia”, afirma B., la fuente principal. “Hay algo en el enfoque estadístico que te fija en una determinada norma y estándar. Ha habido una cantidad ilógica [de bombardeos] en esta operación. No recuerdo nada similar en mi vida. Y confío mucho más en un mecanismo estadístico que en un soldado que ha perdido a un amigo hace dos días. Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina funcionaba con frialdad. Y eso lo hizo más fácil”.

Otra fuente de los servicios de inteligencia, que defendió la confianza en las listas de asesinatos de sospechosos palestinos generadas por Lavender, argumentó que solo valía la pena invertir el tiempo de un agente de los servicios de inteligencia para verificar la información si el objetivo era un alto mando de Hamás. “Pero cuando se trata de un militante subalterno, no conviene invertir tiempo ni personal en ello”, dijo. “En la guerra, no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a asumir el margen de error que supone utilizar inteligencia artificial, arriesgarte a que haya daños colaterales y a que mueran civiles, y a atacar por error y vivir con ello”.

B. dijo que la razón de esta automatización era el impulso constante de generar más objetivos para asesinar. “En un día sin objetivos [cuyo índice de calificación fuera suficiente para autorizar un ataque], atacábamos con un criterio más bajo. Nos presionaban constantemente: “Traednos más objetivos”. Nos gritaban mucho. Acabábamos con [la vida de] nuestros objetivos muy rápidamente”.

“En su punto álgido, el sistema logró generar 37.000 personas como potenciales objetivos humanos”

Explicó que al reducir el criterio de calificación de Lavender, se marcaba a más personas como objetivos de los ataques. “En su punto álgido, el sistema logró generar 37.000 personas como potenciales objetivos humanos”, dijo B. “Pero las cifras cambiaban todo el tiempo, porque depende de dónde pongas el listón de lo que es un agente de Hamás. Hubo momentos en que la definición de un agente de Hamás se llevaba a cabo de manera más amplia, y, de este modo, la máquina comenzaba a traernos todo tipo de personal de defensa civil, agentes de policía, con los que sería una lástima desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados”.

Una fuente que trabajó con el equipo científico de datos militares que entrenó a Lavender dijo que en la máquina también se introdujeron los datos recopilados de los empleados del Ministerio de Seguridad Interna dirigido por Hamás, a los que no considera militantes,. “Me molestó el hecho de que, cuando se entrenó a Lavender, usaron el término ‘agente de Hamás’ de manera poco precisa y se incluyera a personas que eran trabajadores de defensa civil en el conjunto de datos de entrenamiento”, dijo.

La fuente añadió que, incluso si uno cree que estas personas merecen ser asesinadas, entrenar al sistema en función de sus perfiles de comunicación hizo que hubiera más probabilidades de que Lavender seleccionara civiles por error cuando sus algoritmos se aplicaron a la población general. “Al tratarse de un sistema automático que no es manejado manualmente por humanos, el significado de esta decisión es dramático: significa que se incluyen como objetivos potenciales a muchas personas con un perfil de comunicación civil”.

‘Solo comprobamos que el objetivo es un varón’

El ejército israelí rechaza rotundamente estas afirmaciones. En una declaración a +972 y Local Call, el portavoz de las FDI negó el uso de los servicios de inteligencia artificial con el fin de incriminar objetivos al decir que se trata simplemente de “herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación”. La declaración proseguía: “En cualquier caso, se requiere un examen independiente por parte de un analista [del servicio de los servicios de inteligencia], que verifique la legitimidad de atacar los objetivos identificados de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional”. 

Sin embargo, las fuentes afirmaron que el único protocolo de supervisión humana que se aplicaba antes de bombardear las casas de los presuntos militantes “subalternos” marcados por Lavender consistía en llevar a cabo una única comprobación: garantizar que el objetivo seleccionado por la IA fuera un hombre y no una mujer. En el ejército se partía de la base de que si el objetivo era una mujer, probablemente la máquina había cometido un error porque no hay mujeres entre las filas del brazo militar de Hamás y la Yihad Islámica.

“Un ser humano tenía que hacerlo [verificar el objetivo] en tan solo unos segundos”, dijo B., y explicaba que esto se convirtió en el protocolo después de darse cuenta de que el sistema Lavender “acertaba” la mayoría de las veces. “Al principio hacíamos comprobaciones para asegurarnos de que la máquina no se confundía. Pero, en un momento dado, confiamos en el sistema automático y solo comprobamos que [el objetivo] era un hombre, con eso bastaba. No se tarda mucho en saber si alguien tiene voz de hombre o de mujer”. 

Para llevar a cabo la comprobación hombre/mujer, B. afirmó que en la guerra actual “en esa fase invertía 20 segundos por cada objetivo y hacía docenas al día. No aportaba nada como humano, aparte de ser un sello de aprobación. Ahorraba mucho tiempo. Si [el agente] aparecía en el mecanismo automatizado y yo comprobaba que era un hombre, habría permiso para bombardearlo, previo examen de los daños colaterales”.

Para los hombres civiles marcados por error por Lavender, no existía ningún mecanismo de supervisión para detectar dicho fallo

En la práctica, según las fuentes, esto significaba que para los hombres civiles marcados por error por Lavender, no existía ningún mecanismo de supervisión para detectar dicho fallo. Según B., se producía un error común “si el objetivo [de Hamás] le daba [su teléfono] a su hijo, a su hermano mayor o simplemente a un hombre al azar. Esa persona será bombardeada en su casa con su familia. Esto sucedió a menudo. Estos fueron la mayoría de los errores causados por Lavender”, dijo B.

PASO 2: VINCULACIÓN DE OBJETIVOS CON HOGARES FAMILIARES

‘La mayoría de las personas que mataste eran mujeres y niños’

La siguiente etapa en el procedimiento de asesinato del ejército israelí consiste en identificar dónde atacar a los objetivos que genera Lavender.

En una declaración a +972 y Local Call, el portavoz de las FDI afirmó en respuesta a este artículo que “Hamás coloca sus agentes y activos militares en el corazón de la población civil, utiliza sistemáticamente a la población civil como escudos humanos y lleva a cabo combates desde el interior de construcciones civiles, incluidos lugares vulnerables como hospitales, mezquitas, escuelas e instalaciones de la ONU. Las FDI están sujetas al derecho internacional y actúan de acuerdo con él y dirigen sus ataques únicamente contra objetivos militares y operativos militares”. 

Las seis fuentes con las que hablamos, en cierta medida, repitieron esto mismo al decir que el extenso sistema de túneles de Hamás pasa deliberadamente por debajo de hospitales y escuelas; que los militantes de Hamás utilizan ambulancias para desplazarse; y que innumerables activos militares han sido situados cerca de edificios civiles. Las fuentes argumentaron que muchos ataques israelíes matan a civiles como consecuencia de estas tácticas de Hamás, una caracterización que, según advierten los grupos de derechos humanos, elude la responsabilidad de Israel de causar las bajas. 

Palestinos intentan auxiliar a las víctimas que se encuentran bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun

Sin embargo, en contraste con las declaraciones oficiales del ejército israelí, las fuentes explicaron que una de las principales razones del número sin precedentes de víctimas mortales causado por los actuales bombardeos de Israel es el hecho de que el ejército ha atacado sistemáticamente objetivos en sus domicilios particulares junto a sus familias –en parte porque desde el punto de vista de los servicios de inteligencia, era más fácil marcar las casas familiares empleando sistemas automatizados–.

De hecho, varias fuentes subrayaron que, a diferencia de los numerosos casos de operativos de Hamás que participaban en actividades militares desde zonas civiles, en el caso de los ataques letales sistemáticos, el ejército, de forma rutinaria, tomaba la decisión activa de bombardear a militantes sospechosos cuando se encontraban dentro de hogares civiles en los que no tenía lugar ninguna actividad militar. Esta elección, dijeron, era un reflejo de la forma en que está diseñado el sistema israelí de vigilancia masiva en Gaza.

Las fuentes dijeron a +972 y Local Call que, puesto que todo el mundo en Gaza tenía una casa particular con la que se le podía asociar, los sistemas de vigilancia del ejército podían “vincular” fácil y automáticamente a las personas con las casas familiares. Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado varios softwares automáticos adicionales. Estos programas rastrean a miles de personas simultáneamente, identifican cuándo están en casa y envían una alerta automática al oficial encargado de señalar los objetivos, que luego marca la casa para bombardearla. Uno de varios de estos softwares de seguimiento, cuya existencia reveló +972 Magazine, se llama “¿Dónde está papá?”. 

Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado sistemas automáticos 

“Pones cientos [de objetivos] en el sistema y esperas a ver a quién puedes matar”, dijo una fuente que conocía el sistema. “Se llama búsqueda amplia: se copian y pegan las listas que genera el sistema de objetivos”.

Los datos también demuestran claramente esta política: durante el primer mes de la guerra, más de la mitad de las víctimas mortales –6.120 personas– pertenecían a 1.340 familias, muchas de las cuales fueron exterminadas al completo cuando se encontraban dentro de sus hogares, según cifras de la ONU. La proporción de familias enteras bombardeadas en sus casas en la guerra actual es mucho mayor que en la operación israelí de 2014 en Gaza (que anteriormente fue la guerra más mortífera de Israel en la Franja), lo que sugiere aún más lo destacado de esta política.

Otra fuente dijo que cada vez que disminuía el ritmo de los asesinatos, se añadían más objetivos a sistemas como ¿Dónde está papá? para localizar a personas que entraban en sus casas y que, por tanto, podrían ser bombardeadas. Afirmó que la decisión de quién incluir en los sistemas de seguimiento podría ser tomada por oficiales de rango relativamente bajo en la jerarquía militar. 

“Un día, totalmente por mi cuenta, añadí unos 1.200 objetivos nuevos al sistema [de seguimiento], porque el número de ataques [que estábamos llevando a cabo] disminuyó”, dijo la fuente. “Para mí tenía sentido. En retrospectiva, creo que tomé una decisión muy importante. Y esas decisiones no se tomaban a altos niveles”.

“Un día, totalmente por mi cuenta, añadí unos 1.200 objetivos nuevos al sistema, porque el número de ataques [que estábamos llevando a cabo] disminuyó”

Las fuentes dijeron que en las dos primeras semanas de la guerra, inicialmente se introdujeron “varios miles” de objetivos en programas de localización como ¿Dónde está papá?. Entre ellos se encontraban todos los miembros de la unidad de élite de las fuerzas especiales de Hamás, la Nukhba, todos los operativos antitanque de Hamás y cualquiera que hubiera entrado en Israel el 7 de octubre. Pero al poco tiempo, la lista de muertos se amplió drásticamente. 

“Al final eran todos [los marcados por Lavender]”, explicó una fuente. “Decenas de miles. Esto ocurrió unas semanas más tarde, cuando las brigadas [israelíes] entraron en Gaza y ya había menos personas no implicadas [es decir, civiles] en las zonas del norte”. Según esta fuente, Lavender incluso marcó a algunos menores como objetivos de los bombardeos. “Normalmente, los combatientes tienen más de 17 años, pero no era una condición”.

De este modo, Lavender y sistemas como ¿Dónde está papá? se combinaban con consecuencias letales que mataban a familias enteras, según las fuentes. Al añadir al sistema de seguimiento domiciliario ¿Dónde está papá? un nombre de las listas generadas por Lavender, explicó A., la persona marcada quedaba bajo vigilancia permanente y podía ser atacada tan pronto como pusiera un pie en su casa y se tiraba la casa abajo con todos los que estuvieran dentro.

“Digamos que se calcula [que hay un agente militar de] Hamás más 10 [civiles en la casa]”, explicó A.. “Por lo general estos 10 serán mujeres y niños. De modo que, absurdamente, resulta que la mayoría de las personas que mataste eran mujeres y niños”.

PASO 3: ELECCIÓN DEL ARMA

“Normalmente llevábamos a cabo los ataques con ‘bombas tontas’”

En el momento en que Lavender ha marcado un objetivo para asesinarlo, el personal del ejército ha verificado que se trata de varones y el software de rastreo ha localizado al objetivo en casa, la siguiente fase es elegir la munición con la que bombardearlos.

En diciembre de 2023, la CNN informó de que, según estimaciones de los servicios de inteligencia estadounidenses, alrededor del 45% de las municiones utilizadas por las fuerzas aéreas israelíes en Gaza eran bombas “tontas”, que se sabe que causan más daños colaterales que las bombas guiadas. En respuesta al informe de la CNN, un portavoz del ejército citado en el artículo dijo: “Como militares comprometidos con el derecho internacional y con un código moral de conducta, estamos dedicando ingentes recursos a minimizar los daños a los civiles a los que Hamás ha obligado a asumir el papel de escudos humanos. Nuestra guerra es contra Hamás, no contra el pueblo de Gaza”.

Los combatientes de menor rango marcados por Lavender se asesinaban únicamente con bombas tontas con el fin de ahorrar armamento más caro

Sin embargo, tres fuentes de los servicios de inteligencia dijeron a +972 y Local Call que los combatientes de menor rango marcados por Lavender se asesinaban únicamente con bombas tontas con el fin de ahorrar armamento más caro. La conclusión, explicó una fuente, era que el ejército no atacaría a un objetivo menor si vivía en un edificio alto porque el ejército no quería gastar una “bomba para destruir una planta” (con un efecto colateral más limitado), más precisa y costosa, para matarlo. Sin embargo, si un objetivo menor vivía en un edificio de pocas plantas, el ejército estaba autorizado a matarlo a él y a todos los que estaban en el edificio con una bomba tonta.

Hombres trabajan intentando desenterrar a las víctimas que se encuentran bajo los escombros tras un bombardeo israelí. / Mohammed Zannoun

“Ocurrió así con todos los objetivos menores”, testificó C., que ha utilizado varios programas automatizados en la guerra actual. “La única pregunta era: ¿es posible atacar el edificio teniendo en cuenta los daños colaterales? Porque normalmente llevábamos a cabo los ataques con bombas tontas, y eso significaba literalmente destruir toda la casa encima de sus ocupantes. Pero incluso si se evita un ataque, te da igual: inmediatamente pasas al siguiente objetivo. Gracias al sistema, los objetivos nunca se acaban. Tienes otros 36.000 esperando”.

PASO 4: AUTORIZACIÓN DE BAJAS CIVILES

‘Atacamos sin apenas tener en cuenta los daños colaterales’

Una fuente dijo que al atacar a agentes de menor rango, incluidos aquellos marcados por sistemas de los servicios de inteligencia artificial como Lavender, el número de civiles que se les permitía matar junto a cada objetivo se fijó, durante las primeras semanas de la guerra, en 20. Otra fuente afirmó que el número fijado era de 15. Estos “límites de daños colaterales”, como los denominan los militares, se aplicaban de forma generalizada a todos los presuntos militantes subalternos, dijeron las fuentes, independientemente de su rango, importancia militar y edad, y sin ningún análisis específico de cada caso para sopesar la ventaja militar de asesinarlos frente al daño que pudiera causarle a la población civil. 

Según A., que en la guerra actual fue oficial en una sala de operaciones de objetivos, el departamento de derecho internacional del ejército nunca antes había dado una “aprobación tan amplia” a un límite tan alto de daños colaterales. “No se trata solo de que se pueda matar a cualquier persona que sea soldado de Hamás, lo cual está claramente permitido y es legítimo en términos del derecho internacional”, dijo A.. “Sino que directamente te dicen: ‘Puedes matarlos junto con muchos civiles’”. 

“Cada persona que vistiera uniforme de Hamás en el último año o dos podía ser bombardeada junto con 20 [civiles muertos como] daños colaterales, incluso sin un permiso especial”, continuó A.. “En la práctica, el principio de proporcionalidad no existía”.

“En la práctica, el principio de proporcionalidad no existía”

Según A., ésta fue la política durante la mayor parte del tiempo que estuvo en el cargo. Solo más tarde los militares redujeron el límite de daños colaterales. “En este cálculo, también podrían ser 20 niños para un agente militar de menor rango... No era así en el pasado”, explicó A.. Cuando se le preguntó sobre los motivos de seguridad de esta política, A. respondió: “Letalidad”.

El límite predeterminado y fijo de daños colaterales ayudó a acelerar la creación masiva de objetivos utilizando la máquina Lavender, dijeron las fuentes, porque ahorró tiempo. B. afirmó que el número de civiles que se les permitió matar en la primera semana de la guerra por cada presunto militante subalterno marcado por la AI era de quince, pero con el tiempo, esa cifra “subía y bajaba”. 

“Al principio atacábamos casi sin tener en cuenta los daños colaterales”, dijo B. sobre la primera semana tras el 7 de octubre. “En la práctica, realmente no se contaban las personas [en cada casa que fue bombardeada] porque en realidad no se podía saber si estaban en casa o no. Al cabo de una semana comenzaron las restricciones a los daños colaterales. El número bajó [de 15] a cinco, lo que nos dificultó mucho los ataques porque si toda la familia estaba en casa, no podíamos bombardearla. Luego volvieron a subir el número”.

“Sabíamos que mataríamos a más de 100 civiles”

Las fuentes dijeron a +972 y Local Call que ahora, en parte debido a la presión estadounidense, el ejército israelí ya no genera en masa objetivos humanos de rango inferior susceptibles de ser bombardeados en viviendas civiles. El hecho de que la mayoría de las viviendas de la Franja de Gaza ya hayan sido destruidas o dañadas, y de que casi toda la población haya sido desplazada, también afectó a la capacidad del ejército para confiar en las bases de datos de los servicios de los servicios de inteligencia y en los programas automatizados de localización de viviendas. 

E. afirmó que el bombardeo masivo de militantes de menor rango solo tuvo lugar en la primera o segunda semana de la guerra y luego se detuvo principalmente para no desperdiciar bombas. “Hay una economía de municiones”, afirmó E. “Siempre temieron que hubiera [una guerra] en el norte [con Hezbolá en el Líbano]. Ya no atacan a este tipo de personas [de menor rango]”. 

El bombardeo masivo de militantes de menor rango solo tuvo lugar en la primera o segunda semana de la guerra y luego se detuvo principalmente para no desperdiciar bombas

Sin embargo, los ataques aéreos contra comandantes de alto rango de Hamás persisten, y las fuentes dijeron que, para estos ataques, el ejército está autorizando el asesinato de “cientos” de civiles por objetivo, una política oficial para la que no existe ningún precedente histórico en Israel y ni siquiera en las recientes operaciones militares estadounidenses.

“En el bombardeo del comandante del Batallón Shuja’iya sabíamos que mataríamos a más de 100 civiles”, recordó B. sobre un bombardeo que tuvo lugar el 2 de diciembre que, según el portavoz de las FDI, tenía como objetivo asesinar a Wisam Farhat. “Para mí, psicológicamente, fue extraño. Más de 100 civiles: cruza una línea roja”.

Amjad Al-Sheikh, un joven palestino de Gaza, dijo que muchos de sus familiares murieron en ese bombardeo. Residente de Shuja’iya, al este de la ciudad de Gaza, se encontraba ese día en un supermercado local cuando escuchó cinco explosiones que hicieron añicos los cristales de las ventanas. 

“Corrí a casa de mi familia, pero ya no había edificios”, dijo Al-Sheikh al +972 y a Local Call. “La calle se llenó de gritos y humo. Bloques residenciales enteros se convirtieron en montañas de escombros y agujeros profundos. La gente empezó a buscar en el cemento usando las manos, y yo también, buscando señales de la casa de mi familia”. 

La esposa y la hija pequeña de Al-Sheikh sobrevivieron –protegidas de los escombros por un armario que les cayó encima– pero encontró a otros 11 miembros de su familia, entre ellos sus hermanas, hermanos y sus hijos pequeños, muertos bajo los escombros. Según el grupo de derechos humanos B’Tselem, el bombardeo de ese día destruyó decenas de edificios, mató a decenas de personas y enterró a cientos bajo las ruinas de sus hogares.

“Familias enteras asesinadas”

Fuentes de los servicios de inteligencia dijeron a +972 y Local Call que participaron en ataques aún más mortíferos. Para asesinar a Ayman Nofal, comandante de la Brigada Central de Gaza de Hamás, una fuente declaró que el ejército autorizó el asesinato de aproximadamente 300 civiles y la destrucción de varios edificios en ataques aéreos contra el campo de refugiados de Al-Bureij el 17 de octubre, basándose en una localización imprecisa de Nofal. Imágenes de satélite y vídeos del lugar muestran la destrucción de varios grandes edificios de viviendas de varias plantas.

“En el ataque se destruyeron entre 16 y 18 casas”, dijo Amro Al-Khatib, residente del campamento, a +972 y Local Call. “No podíamos distinguir un piso de otro; todos quedaron mezclados entre los escombros y encontramos partes de cuerpos humanos por todas partes”.

Después, Al-Khatib recordó que se sacaron unos 50 cadáveres y unas 200 personas heridas de entre los escombros, muchas de ellas de gravedad. Pero eso fue sólo el primer día. Los residentes del campo pasaron cinco días sacando a los muertos y heridos, dijo.

Nael Al-Bahisi, sanitario, fue uno de los primeros en llegar. Contó entre 50 y 70 víctimas ese primer día. “En un momento dado, entendimos que el objetivo del ataque era el comandante de Hamás Ayman Nofal”, dijo al +972 y a Local Call. “Lo mataron a él y también a mucha gente que no sabía que Ayman Nofal estaba allí. Mataron a familias enteras con niños”.

Otra fuente de los servicios de los servicios de inteligencia dijo a +972 y Local Call que el ejército destruyó un edificio de gran altura en Rafah a mediados de diciembre, en el que mató a “docenas de civiles” para intentar matar a Mohammed Shabaneh, el comandante de la Brigada Rafah de Hamás (no está claro si murió o no en el ataque). A menudo, dijo la fuente, los altos mandos se esconden en túneles que pasan debajo de edificios civiles, por lo que la decisión de asesinarlos con un ataque aéreo necesariamente mata a civiles.

“La mayoría de los heridos eran niños”, declaró Wael Al-Sir, de 55 años, que presenció el ataque a gran escala que algunos habitantes de Gaza consideran que fue un intento de asesinato. Wael Al-Sir le dijo a +972 y Local Call que el bombardeo del 20 de diciembre destruyó un “bloque de viviendas entero” y mató al menos a 10 niños.

“Había una política absolutamente permisiva respecto a las víctimas de las operaciones [de bombardeo], tan permisiva que en mi opinión tenía un punto de venganza”, afirmó D., una fuente de los servicios de inteligencia. “El objetivo era el asesinato de altos mandos [de Hamás y de la Yihad Islámica en Palestina] por los que estaban dispuestos a matar a cientos de civiles. Hicimos un cálculo: cuántos por comandante de brigada, cuántos por comandante de batallón, etcétera”.

“Hemos matado a personas con daños colaterales de dos dígitos, si no de tres dígitos”

“Había normas, pero eran muy tolerantes”, dijo E., otra fuente de los servicios de inteligencia. “Hemos matado a personas con daños colaterales de dos dígitos, si no de tres dígitos. Cosas que no habían sucedido antes”.

Un índice tan alto de “daños colaterales” es excepcional no solo en comparación con lo que el ejército israelí consideraba aceptable anteriormente, sino también en comparación con las guerras emprendidas por Estados Unidos en Irak, Siria y Afganistán. 

El general Peter Gersten, subcomandante de Operaciones e Inteligencia en la operación de lucha contra el ISIS en Irak y Siria, en 2021 declaró a una revista de defensa estadounidense que un ataque con daños colaterales de 15 civiles se salía del procedimiento; para llevarlo a cabo tuvo que obtener un permiso especial del jefe del Comando Central estadounidense, el general Lloyd Austin, hoy secretario de Defensa. 

“En el caso de Osama Bin Laden, el valor de las bajas de no combatientes [NCV, por sus siglas en inglés] era de 30, pero si se trataba de un comandante de rango bajo, el NCV normalmente era cero”, explica Gersten. “Manejamos cero durante mucho tiempo”.

“Nos decían: ‘Siempre que podáis, bombardead’’’

Todas las fuentes entrevistadas para esta investigación afirmaron que las masacres de Hamás del 7 de octubre y el secuestro de rehenes influyeron mucho en la política para abrir fuego del ejército y en los límites de daños colaterales. “Al principio, el ambiente era desgarrador y vengativo”, dijo B., que fue reclutado por el ejército inmediatamente después del 7 de octubre y sirvió en una sala de operaciones de objetivos. “Las reglas eran muy permisivas. Derribaron cuatro edificios cuando sabían que el objetivo estaba en uno de ellos. Era una locura”.

 Un niño herido por los bombardeos es atendido por sanitarios en Gaza en noviembre de 2023. / Mohammed Zannoun 

“Había una discordancia: por una parte, la gente estaba frustrada porque no atacábamos lo suficiente”, continuó B. “Por otra parte, al final del día veías que otros mil habitantes de Gaza habían muerto, la mayoría de ellos civiles”.

“En las filas profesionales había histeria ”, dijo D., que también fue reclutado inmediatamente después del 7 de octubre. “No tenían ni idea de cómo reaccionar. Lo único que sabían hacer era empezar a bombardear como locos para intentar desarticular el potencial de Hamás”.

D. subrayó que no se les dijo explícitamente que el objetivo del ejército era la “venganza”, pero expresó que “en el momento en que cada objetivo relacionado con Hamás se legitima y casi cualquier daño colateral se aprueba, tienes claro que se van a matar miles de personas. Aunque oficialmente todos los objetivos estén conectados con Hamás, cuando la política es tan permisiva, pierde todo sentido”.

A. también utilizó la palabra “venganza” para describir el ambiente dentro del ejército después del 7 de octubre. “Nadie pensó en lo que habría que hacer después, cuando termine la guerra, ni en cómo sería posible vivir en Gaza y qué harían con ello”, dijo A. “Nos dijeron: ahora tenemos que joder a Hamás, cueste lo que cueste. Siempre que podáis, bombardead”.

B., la principal fuente de los servicios de inteligencia, dijo que, en retrospectiva, cree que esta política “desproporcionada” de matar a palestinos en Gaza también pone en peligro a los israelíes, y que esta fue una de las razones por las que decidió que le entrevistaran.

“Veo que en las familias desconsoladas de Gaza –que son casi todas– aumentarán los motivos para unirse a Hamás dentro de 10 años”

“A corto plazo estamos más seguros porque perjudicamos a Hamás. Pero creo que, a largo plazo, estamos menos seguros. Veo que en las familias desconsoladas de Gaza –que son casi todas– aumentarán los motivos para unirse a Hamás dentro de 10 años. Y será mucho más fácil [para Hamás] reclutarlos”.

En una declaración a +972 y Local Call, el ejército israelí negó gran parte de lo que nos dijeron las fuentes y afirmaron que “cada objetivo se examina individualmente, al tiempo que se hace una evaluación individual de la ventaja militar y daños colaterales esperados del ataque… Las FDI no llevan a cabo ataques cuando los daños colaterales que se esperan del ataque son excesivos en relación con la ventaja militar”.

PASO 5: CÁLCULO DE LOS DAÑOS COLATERALES

‘El modelo no estaba conectado con la realidad’

Según fuentes de los servicios de inteligencia, el cálculo por parte del ejército israelí del número de civiles que se esperaba que murieran en cada casa junto a un objetivo —un procedimiento examinado en una investigación previa por +972 y Local Call— se llevó a cabo con la ayuda de herramientas automáticas e imprecisas. En guerras anteriores, el personal de los servicios de inteligencia dedicaba mucho tiempo a verificar cuántas personas había en una casa que iba a ser bombardeada, y el número de civiles que podían morir figuraba como parte de un “archivo de objetivos”. Sin embargo, después del 7 de octubre, esta verificación exhaustiva en gran medida se abandonó en favor de la automatización. 

En octubre, The New York Times informó sobre un sistema operado desde una base especial en el sur de Israel, que recopila información de los teléfonos móviles en la Franja de Gaza y que proporcionó a los militares una estimación en tiempo real del número de palestinos que huyeron del norte de la Franja de Gaza hacia el sur. El general Udi Ben Muha declaró a The New York Times que “no es un sistema 100 % perfecto, pero te da la información que necesitas para tomar una decisión”. El sistema funciona por colores: el rojo marca las zonas donde hay mucha gente, y el verde y el amarillo marcan las zonas que han quedado relativamente despejadas de residentes. 

Para ahorrar tiempo, dijeron las fuentes, el ejército no vigiló las casas para comprobar cuántas personas vivían allí realmente

Las fuentes que hablaron con +972 y Local Call describieron un sistema similar para calcular los daños colaterales, que se utilizó para decidir si bombardear un edificio en Gaza. Dijeron que el software calculaba el número de civiles que residían en cada casa antes de la guerra –a través de la evaluación del tamaño del edificio y la revisión de su lista de residentes– y luego redujo esos números en la proporción de residentes que supuestamente evacuaron el vecindario. 

Por ejemplo, si el ejército calculaba que la mitad de los residentes de un barrio se habían ido, el programa contaría una casa que normalmente tenía 10 residentes como una casa que contenía cinco personas. Para ahorrar tiempo, dijeron las fuentes, el ejército no vigiló las casas para comprobar cuántas personas vivían allí realmente, como hizo en operaciones anteriores, para comprobar si las estimaciones del programa eran verdaderamente exactas.

“Este modelo no se correspondía con la realidad”, afirmó una fuente. “No había ninguna conexión entre los que estaban en la casa ahora, durante la guerra, y los que figuraban como que vivían allí antes de la guerra. [En una ocasión] bombardeamos una casa sin saber que dentro había varias familias escondidas”. 

La fuente dijo que aunque el ejército sabía que tales errores podían ocurrir, de todos modos se adoptó este modelo impreciso porque era más rápido. Por lo tanto, dijo la fuente, “el cálculo de los daños colaterales era totalmente automático y estadístico”, e incluso generó cifras que no eran números enteros.

PASO 6: BOMBARDEO DE UNA VIVIENDA FAMILIAR

‘Mataste a una familia sin ningún motivo’

Las fuentes que hablaron con +972 y Local Call explicaron que a veces había una brecha sustancial entre el momento en que sistemas de rastreo como ¿Dónde está papá? alertaba a un oficial de que un objetivo había entrado en su casa y del bombardeo en sí, lo que provocó la muerte de familias enteras incluso sin alcanzar el objetivo del ejército. “En muchas ocasiones atacamos una casa, pero la persona ni siquiera estaba allí”, dijo una fuente. “El resultado es que matabas a una familia sin ningún motivo”.

Tres fuentes de los servicios de inteligencia dijeron a +972 y Local Call que habían sido testigos de un incidente en el que el ejército israelí bombardeó la vivienda privada de una familia, y más tarde resultó que el objetivo del asesinato ni siquiera estaba dentro de la casa, ya que no se había llevado a cabo ninguna verificación adicional en tiempo real.

“A veces [el objetivo] estaba en su casa antes, y luego por la noche se iba a dormir a otro lugar, por ejemplo, bajo tierra, y no lo sabíamos”, dijo una de las fuentes. “Había ocasiones en las que volvías a verificar la ubicación y otras en las que simplemente decías: ‘Muy bien, como estaba en la casa en las últimas horas, simplemente puedes bombardear’”. 

Otra fuente describió un incidente similar que le afectó y por el que quiso participar en esta investigación. “Entendimos que el objetivo estaba en casa a las ocho de la noche. Al final, las fuerzas aéreas bombardearon la casa a las tres de la madrugada. Luego descubrimos [en ese lapso de tiempo] que había conseguido trasladarse a otra casa con su familia. En el edificio que bombardeamos había otras dos familias con niños”.

“No sabes exactamente a cuántos has matado ni a quién has matado”

En guerras anteriores en Gaza, después del asesinato de objetivos humanos, los servicios de inteligencia israelí llevaban a cabo procedimientos de evaluación de daños por bombas (BDA, por sus siglas en inglés), una verificación rutinaria posterior al ataque para ver si el mando superior había muerto y cuántos civiles habían muerto con él. Como se reveló en una investigación anterior de +972 y Local Call, esto implicó escuchar llamadas telefónicas de familiares que perdieron a sus seres queridos. Sin embargo, en la guerra actual, al menos en relación con los militantes de rango inferior marcados con IA, las fuentes dicen que este procedimiento fue suprimido para ahorrar tiempo. Las fuentes dijeron que no sabían cuántos civiles murieron en cada ataque, y en el caso de los presuntos operativos de rango bajo de Hamás y la Yihad Islámica marcados por IA, ni siquiera sabían si el propio objetivo había muerto.

“No sabes exactamente a cuántos has matado ni a quién has matado”, dijo a Local Call una fuente de los servicios de inteligencia en una investigación anterior publicada en enero. “Únicamente se sigue el procedimiento de BDA cuando se trata de mandos altos de Hamás. En el resto de casos, no importa. Recibes un informe de las fuerzas aéreas sobre si el edificio ha sido bombardeado y ya está. No tienes ni idea del número de daños colaterales; inmediatamente después pasas al siguiente objetivo. El acento se ponía en crear tantos objetivos como fuera posible, lo más rápido posible”.

Sin embargo, si bien el ejército israelí puede dejar atrás cada ataque sin detenerse en el número de víctimas, Amjad Al-Sheikh, el residente de Shuja'iya que perdió a once de sus familiares en el bombardeo del 2 de diciembre, dijo que él y sus vecinos todavía están buscando cadáveres.

“Aún hay cadáveres bajo los escombros”, afirmó. “Catorce edificios de viviendas fueron bombardeados con sus residentes dentro. Algunos de mis familiares y vecinos todavía están enterrados bajo los escombros”.

—----

Este texto fue publicado originalmente en +972 Magazine

La traducción es de Paloma Farré

En 2021, se publicó en inglés un libro titulado The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will...

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes suscribirte aquí

Autor >

Yuval Abraham (+972 Magazine / Local Call) /

Autor >

Traducción: Paloma Farré

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

4 comentario(s)

¿Quieres decir algo? + Déjanos un comentario

  1. Eduperez

    Estamos ante un terrible cambio de modelo en la guerra: el objetivo no es la toma y control del territorio, sino la aniquilación de quienes protegen ese territorio. Allí donde se le encuentre, estén en ese momento defendiéndolo o durmiendo la siesta en su casa. 

    Hace 1 mes 15 días

  2. juan-ab

    Sí, un artículo que me ha revuelto las tripas y ha desbocado el odio. Cuando ya te crees que no es posible ir más allá en la bestialidad demostrada por estos genocidas sionistas, ellos siempre guardan algo más. Pero hay que reconocer que son gente con suerte: ¡ay si otros hubieran tenido la tecnología que ellos tienen!

    Hace 1 mes 17 días

  3. jmfoncueva

    Ya han puesto la primera piedra para que Terminator deje de ser ciencia ficción. Para una nueva creación que suponga un adelanto positivo, inventan cinco dedicadas a joder al currito de a pie. Por cierto, dediqué un buen rato a oír en YouTube canciones de unos artistas cantadas por otros y, si tienes la más mínima sensibilidad cultural o el más mínimo conocimiento de qué es un artista de verdad, aquello fue (y sigue siendo) "la madre de todos los truños", que hubiera dicho Saddam Hussein. Nuevas creaciones para asesinar, y el Estado, nuestro Estado, haciendo de mercader de la muerte, de títere del gran capital. ¡Qué asco!

    Hace 1 mes 17 días

  4. José Lázaro

    !Un drama tremendo! Gracias Paloma por la traducción! Personalmente y con la mirada puesta en la creciente incorporación de tecnología "casi autónoma" a procesos cotidianos en nuestras sociedades modernas, lo que me produce más desasosiego es la perversión de los objetivos, por horrorosos que estos sean. Dejando a un lado la crudeza de "la guerra", lo primero que me golpea es el hecho de que hable de la "necesidad de objetivos militares". La guerra deja de ser estrategia o táctica y se convierte en una cuestión de productividad: "Tengo una cierta capacidad de fuego = de producción y tengo que aprovecharla al máximo" independientemente de que eso sea bueno o no para alcanzar mis metas. Con ese objetivo principal pervertido y cuando lo que cuenta es ya solo el número, dado que no tengo suficientes objetivos "buenos" incluyo en mi proceso una falta de calidad intencionada para agregar objetivos "menos buenos", porque pienso que así estoy ¨mejorando mi algoritmo, porque ahora sí que me da más nombres". Como tampoco me vale con eso, también escojo una solución práctica que es bombardear por la noche pq alguien dice "que es más fácil". Y uso "bombas tontas", en busca de nuevo de eficiencia productiva y no con una utilidad orientada a conseguir nada en realidad. Y a partir de ahí, se describen todo tipo de detalles relacionados con indicadores por proximidad y estadística. Utilizo un número de teléfono como indicador de identidad de una persona a sabiendas de que mis "objetivos militares" cambian frecuentemente de número y otras personas "supuestamente no objetivos de interés para mi misión" adquieren esas líneas; pero lo dejo así pq hace bueno al algoritmo. O me saco de la manga lo de que la mitad de la población se ha ido, para pasarme la "regulation de daño colateral" por el forro y poder lanzar el ataque sin que mi sistema de "calidad" me detenga. De pe a pa y con el horror de la guerra de fondo, refleja cómo la cultura corporativa ha inundado todos los espacios de poder = decisión. Me atrevería a llamarlo la fusión de la tecnología y el alma neoliberal. Lo peor es que esta joya periodística nos abre una ventana al futuro... al futuro de la guerra, sí, pero también de la salud, del acceso a ayudas, de los pasos de frontera, de los procesos de selección, etc.

    Hace 1 mes 17 días

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí