1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

  281. Número 281 · Febrero 2022

  282. Número 282 · Marzo 2022

  283. Número 283 · Abril 2022

  284. Número 284 · Mayo 2022

  285. Número 285 · Junio 2022

  286. Número 286 · Julio 2022

  287. Número 287 · Agosto 2022

  288. Número 288 · Septiembre 2022

  289. Número 289 · Octubre 2022

  290. Número 290 · Noviembre 2022

  291. Número 291 · Diciembre 2022

  292. Número 292 · Enero 2023

  293. Número 293 · Febrero 2023

  294. Número 294 · Marzo 2023

  295. Número 295 · Abril 2023

  296. Número 296 · Mayo 2023

  297. Número 297 · Junio 2023

  298. Número 298 · Julio 2023

  299. Número 299 · Agosto 2023

  300. Número 300 · Septiembre 2023

  301. Número 301 · Octubre 2023

  302. Número 302 · Noviembre 2023

  303. Número 303 · Diciembre 2023

  304. Número 304 · Enero 2024

  305. Número 305 · Febrero 2024

  306. Número 306 · Marzo 2024

  307. Número 307 · Abril 2024

  308. Número 308 · Mayo 2024

  309. Número 309 · Junio 2024

  310. Número 310 · Julio 2024

  311. Número 311 · Agosto 2024

  312. Número 312 · Septiembre 2024

  313. Número 313 · Octubre 2024

  314. Número 314 · Noviembre 2024

Ayúdanos a perseguir a quienes persiguen a las minorías. Total Donantes 3.335 Conseguido 91% Faltan 16.440€

Los mariscales de Silicon Valley

Los dueños de Internet --Facebook, Twitter, YouTube, Microsoft-- hacen negocio con la guerra antiterrorista vendiendo los datos de millones de usuarios

Rafia Zakaria (The Baffler) 15/11/2017

PIXABAY

En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí

CTXT está produciendo el documental 'La izquierda en la era Trump'. Haz tu donación y conviértete en coproductor. Tendrás acceso gratuito a El Saloncito durante un mes. Puedes ver el tráiler en este enlace y donar aquí.

El 26 de marzo de 2016, un parque infantil de Lahore, Pakistán, sufrió un ataque terrorista que acabó con la vida de gran cantidad de niños y sus padres; juguetes y zapatitos quedaron desparramados junto a diversas partes del cuerpo y fragmentos quemados de ropa. A miles de kilómetros de allí, en Palo Alto, California, el fundador de Facebook, Mark Zuckerberg, entró en su perfil de Facebook, que aglutina a millones de seguidores en el imperio de su red social. Conmovido por las noticias de la masacre de Lahore, Zuckerberg observó que su equipo de Facebook había activado demasiadas veces en los últimos meses la “Comprobación del estado de seguridad” (Safety Check), que se diseñó para que los usuarios pudieran alertar a sus amigos y seguidores de que se encuentran fuera de peligro cuando se produce un ataque mortal o una catástrofe natural. Zuckerberg hizo referencia a los ataques terroristas que habían sacudido Turquía y Bélgica, además de mencionar el atentado de Lahore. Para finalizar, confirmó su determinación de hacer frente a esos males con una conclusión marcada por su característico sientehabla

Creo que la única manera sostenible de defenderse de aquellos que buscan dividirnos consiste en crear un mundo en el que la comprensión y la empatía se propaguen con mayor velocidad que el odio, y en el que todas las personas de todos los países se sientan conectados, apreciados y amados. Ese es el mundo que podemos y debemos construir entre todos.

En los meses posteriores, Zuckerberg pasó a otras cosas: una iniciativa para “curar todas las enfermedades” (sí, la gente todavía cae enferma de forma inoportuna, aunque Zuckerberg velará porque reciban el tratamiento más eficaz posible) y, en junio de 2017, una visita a Iowa para sondear una supuesta candidatura presidencial. No obstante, a finales de ese mes, regresó a la tarea de hacer frente al terrorismo. Se alió con Microsoft, Twitter y YouTube, y anunció una iniciativa que difería bastante del emotivo alegato en favor de la empatía lanzado un año antes. Los gigantes de las redes sociales se centrarían a partir de ahora en desarrollar una tecnología que sirviera para restringir el acceso de los grupos terroristas a sus redes, y el coloso de software Microsoft (que no emitió un comunicado por separado) probablemente expandiría sus protocolos de control lingüístico mediante una serie de colaboraciones que había formalizado en mayo con varias ONG. 

Los gigantes de las redes sociales se centrarían a partir de ahora en desarrollar una tecnología para restringir el acceso de los grupos terroristas a sus redes

La nueva iniciativa multiplataforma y antiterrorista, fabulosamente titulada “Foro mundial de internet para combatir el terrorismo”, prometía desarrollar tecnología que pudiera detectar el material terrorista y establecer unas buenas prácticas que sirvieran para combatir el extremismo y el odio; además, tendría a las cuatro megaplataformas colaboradoras compartiendo información sobre posibles “herramientas para contrarrestar el discurso”. Al parecer, el amor y la empatía habían desaparecido del debate. Tampoco quedaba rastro del tecnorealismo que un año antes había llevado al grupo de reflexión de Twitter a declarar que no existía ningún “algoritmo mágico” que pudiera identificar el contenido terrorista en internet. 

El Blackwater virtual

De hecho, desde que emitieron su anuncio, sobrio en comparación con otros, las cuatro partes integrantes del Foro mundial de internet todavía no han logrado inventar nada remotamente parecido a un algoritmo mágico que desafíe al terrorismo. Aunque en realidad la verdadera innovación nunca pretendió adoptar forma de código: el nacimiento del Foro mundial de internet marca el inicio de la expansión de las redes sociales y las plataformas de contenido compartido hacia la administración de la guerra contra el terrorismo con el respaldo del Estado. 

Como sucedió con otras iniciativas que pretendieron privatizar las guerras terroristas en el pasado, esta futura simbiosis probablemente empeorará la situación en todos los frentes. Los gobiernos podrán seguir inmiscuyéndose libremente en la privacidad y la libre expresión en condiciones de mayor impunidad, y también las plataformas sociales se ajustarán con firmeza al protocolo estatista (y las fuentes de financiación) para garantizar sus actuales monopolios mundiales. Como ya sucedió con el famoso caso de Blackwater (la empresa privada cuyos mercenarios llevaban a cabo interrogatorios, extradiciones, torturas y masacres civiles durante la invasión estadounidense de Irak), la rama antiterroristas del Foro mundial de internet podrá operar a salvo sin que exista nada parecido a una rígida supervisión pública, libre del molesto mandato del sector público sobre transparencia e información. La información que acumule podrá compartirse en secreto con un gobierno, y con más de un gobierno, y esto le permitirá ser capaz de localizar, procesar y perseguir a cualquier ciudadano que localicen las búsquedas de datos según la agenda política del momento. 

la rama antiterroristas del Foro mundial de internet podrá operar a salvo sin que exista nada parecido a una rígida supervisión pública

El panorama es igual de desolador para los usuarios de las redes sociales situados en la parte comercial. Si una de sus publicaciones o tuits suscita el interés del politburó del Foro, los usuarios podrían perder el control real sobre sus clics, ubicaciones y consultas (y lógicamente sobre el flujo constante de información demográfica que se filtra de forma rutinaria de sus cuentas) en el caso de que un moderador de Facebook o un algoritmo de Twitter extremadamente recelosos les etiquete como terroristas, o como terroristas en potencia. En otras palabras, nuestros amos tecnológicos, que no rinden muchas cuentas de por sí, serían el factor más influyente en la vida privada de un individuo, sin necesidad de estar sometidos al peso de las garantías procesales que exigen todos los gobiernos hasta que esa persona ya esté clasificada y condenada por los datos recopilados. 

Zuckerberg, zar del terrorismo 

Más allá de la capacidad optimizada de vigilancia que inevitablemente acompaña a un acuerdo contractual para promover una iniciativa de este u otro tipo en la lucha contra el terrorismo, aquí también está en juego algo que podría llamarse una rama metafísica de la ampliación de metas. Cuando las plataformas sociales estén a la vanguardia de la guerra contra el terrorismo, también se arrogarán el poder de definir qué es terrorismo (y quién, a su vez, es un terrorista). 

En realidad, pocos días después del anuncio del Foro, la página de periodismo de investigación sin ánimo de lucro, ProPublica, publicó un sólido informe sobre el trato diferente que los moderadores daban a ciertas publicaciones, dependiendo de la identidad racial y las convicciones políticas de los que publican las entradas. En su mayor parte, se trataba de una trágica historia de dos publicaciones de Facebook. Una del congresista republicano de Luisiana, Clay Higgins, al día siguiente del ataque terrorista en el puente de Londres, que decía: “Cazadlos, identificadlos y matadlos, ¡matadlos a todos!”. “Por el bien de todo lo bueno y justo, ¡matadlos a todos!”. 

Facebook no eliminó la publicación, a pesar de que incitaba claramente a la violencia y contravenía los términos de servicio de la página, porque supuestamente iba dirigido hacia un subgrupo específico de musulmanes (los “radicalizados”) en lugar de estar dirigido a todos los creyentes del islam. Más o menos por las mismas fechas, Facebook eliminó una publicación del poeta y activista de Black Lives Matter, Didi Delgado, que decía: “Todos los blancos son racistas. Parte de esa base o ya estarás equivocado”. Para asegurarse de que se castigaba como era debido a la persona que lo publicó y que el contenido ofensivo no se republicaba, cancelaron la cuenta de Delgado durante siete días. 

Esta evidente doble moral parece reflejar perfectamente la política empresarial de Facebook. Uno de los ejercicios que figura entre el material de formación que entrega la empresa a los moderadores encargados de implementar el algoritmo de Facebook contra la incitación mundial al odio, les pide que seleccionen de entre una lista de tres al grupo que tiene derecho a ser protegido de las expresiones de odio en internet: las mujeres al volante, los menores negros y los hombres blancos. La respuesta correcta son los hombres blancos. 

El propio Zuckerberg ha actuado como árbitro final en los casos en que había que moderar polémicas relacionadas con hombres blancos, y se ha asegurado de que reciban un tratamiento favorable. Por ejemplo, cuando los empleados de Facebook señalaron que las publicaciones que realizó el por entonces candidato a la presidencia, Donald Trump, en favor de prohibir viajar a los musulmanes (un grupo concreto), violaban las normas de la compañía sobre las expresiones de odio, Zuckerberg intervino personalmente y afirmó que había que permitir esas publicaciones incluso aunque fuera consciente de que violaban las propias restricciones de la empresa sobre incitación al odio. 

El propio Zuckerberg ha actuado como árbitro final en los casos en que había que moderar polémicas relacionadas con hombres blancos, y se ha asegurado de que reciban un tratamiento favorable

Días más tarde, la empresa emitió un comunicado esclareciendo que los moderadores permitirían a partir de ahora el contenido que se considerara “periodístico, significativo o relevante para el interés público”. Las entidades que determinarían quién y qué cumple con estos criterios serían, cómo no, Facebook y Zuckerberg. Y como el Foro se ha apropiado de la guerra digital, la perspectiva es bastante preocupante: las empresas privadas de información serán los primeros árbitros en valorar situaciones de gran alcance y a menudo especulativas sobre el lenguaje terrorista, la intencionalidad y la expresión (y otros asuntos demasiado reales relacionados con el castigo y el contraataque militar).

De igual manera, Twitter concibió un vacío legal del tamaño de Trump en su política contra la incitación al odio. Como ya han documentado numerosos artículos, Trump ha retuiteado en repetidas ocasiones memes y expresiones de odio provenientes de grupos neonazis que superaron sin problemas los controles oficiales de Twitter, aunque su contenido incitaba abiertamente al odio contra los musulmanes, los afroamericanos y contra otras minorías (infringiendo de nuevo la política oficial de Twitter). Igual que Facebook, Twitter parece haber decidido dictar una excepción subjetiva a su propia política cuando se trata de una incitación al odio avalada por el presidente. Pero como Twitter es una empresa privada, no está obligada a justificarse públicamente por semejantes excepciones, ni tampoco está sujeta a un escrutinio público sobre cuál es su definición de lo que considera expresiones de odio que hacen apología del terrorismo en su plataforma. 

Tuitear siendo moreno 

Estas flagrantes omisiones en el diagnóstico y castigo de la incitación al odio son moneda corriente en el ámbito de las redes sociales. El Southern Poverty Law Center (una organización de defensa de los derechos civiles) constató que Twitter se estaba quedando atrás de forma manifiesta en su intento por imponer restricciones a la incitación al odio en las cuentas relacionadas con supremacistas blancos. La plataforma suspendió por fin algunas cuentas asociadas con grupos de odio de supremacistas blancos a finales del año pasado, aunque muchas páginas de este tipo siguen difundiendo propaganda racista. Mientras tanto, Twitter informó de que los moderadores de la empresa habían suspendido 125.000 cuentas por tener presuntos vínculos con ISIS.

Como era de esperar, los incentivos del mercado para condonar el discurso de odio marca Trump, y para incluir a los nacionalistas blancos que usen redes sociales en la definición de incitación al terrorismo, han dado unos llamativos resultados. En 2016, un estudio llevado a cabo por el Curso sobre Extremismo de la Universidad George Washington, titulado “Nazis contra ISIS en Twitter: un análisis comparativo de las redes sociales de los nacionalistas blancos y de ISIS”, concluyó que los principales grupos de nacionalistas blancos habían aumentado su número de seguidores en un 600% desde 2012. El informe atestiguó que los grupos de nacionalistas blancos utilizaban sobre todo la etiqueta #whitegenocide y que nombraban al presidente Donald Trump más que a ninguna otra persona. El estudio también confirmó que la presencia en internet de los supremacistas blancos superaba a las cuentas relacionadas con ISIS en casi todos los parámetros. 

Esta tendencia ha demostrado que no le afectan los ataques terroristas cometidos en el mundo real: los delitos de odio perpetrados por supremacistas blancos, como por ejemplo el de Dylann Roof, que asesinó a nueve personas en una iglesia negra de Charleston, Carolina del Sur, no hicieron que se incrementaran los esfuerzos policiales por vigilar a estos grupos o controlar el uso que hacen de las redes sociales. Las cuentas de los nacionalistas blancos o nazis cuentan con un seguimiento medio ocho veces superior al de las cuentas relacionadas con ISIS, y aun así, como denunciaba el estudio de la universidad George Washington, casi todas siguen operando libremente en Twitter.

Las cuentas de los nacionalistas blancos o nazis cuentan con un seguimiento medio ocho veces superior al de las cuentas relacionadas con ISIS

El consenso entre las plataformas propietarias de redes sociales es evidente: el terror, según la definición operativa que manejan, es algo extranjero que perpetúan las minorías religiosas y raciales. El vacío deliberado que crea esta ceguera voluntaria desplaza de forma errónea el foco de atención y lo aleja del odio que disemina la derecha. Las plataformas de redes sociales pueden hacer excepciones o alterar sus reglas internas en cualquier momento, y así asegurarse de que el trato diferente que reciben los diversos grupos sociales que promueven el terrorismo sirve de base para llevar a cabo un ejercicio de ingeniería social. Como resultado, aquellos que ya se sienten con el derecho de actuar con impunidad, como por ejemplo los hombres blancos identitarios, reciben un apoyo tácito para continuar como hasta ahora, mientras que aquellos etiquetados como “otros” hostiles y peligrosos, son rápidamente castigados y suspendidos por la red social que dominan los blancos. Teniendo en cuenta este entorno permisivo, no sorprende que “los extremistas de derechas conspiraran o llevaran a cabo casi el doble de ataques terroristas que los extremistas islámicos” en EE.UU. entre 2008 y 2016.

Todo medio y ningún mensaje

Todo este proceso autoselectivo obtiene su autoridad moral del mandato que todo lo justifica cuando se trata de luchar contra el terrorismo online, es decir, el que practica un cierto tipo de moreno, musulmán o extranjero. Al igual que otras iniciativas antiterroristas, esta medida se puso en marcha como consecuencia de una amenaza externa amorfa y camaleónica de origen y poder desconocido; y el miedo que produce una amenaza de ese tipo es tan paralizador que ninguna de las partes siente la obligación de cuantificar el éxito real que tienen las medidas antiterroristas que se adoptan para frenar la proliferación del terrorismo. 

La creación del Foro sigue este manual de corte alarmista a pies juntillas. Al igual que los servicios de inteligencia propensos al pánico del Reino Unido y los EE.UU., los amos de las redes sociales suponen que la disponibilidad de internet y la ubicuidad de las redes sociales son de alguna forma responsables de la producción y difusión del terrorismo de inspiración islamista. Por tanto, deducen que si bloquean las redes de distribución de terrorismo islámico, podrían desaparecer las causas subyacentes del terrorismo islamista.

Tras el ataque terrorista en el Puente de Londres, los ciudadanos británicos recibieron de la primera ministra Theresa May una dosis no filtrada de este razonamiento. May, que había elaborado la mayoría de las medidas antiterroristas durante su período como ministra del Interior, culpó directamente a internet. Con el gesto serio, anunció: “No podemos permitir que esta ideología disponga del espacio seguro que necesita para reproducirse”, y prometió nuevas normativas “para regular el ciberespacio y prevenir la proliferación del extremismo y de los planes terroristas”. 

La declaración de May refleja un consenso amplio y transversal entre todos los líderes de gobierno occidentales mientras calculan el poder del Estado Islámico para llevar a cabo ataques dentro de sus fronteras. No obstante, lo que resulta aún más revelador es que su declaración pone de manifiesto el decisivo error que impide a los gobiernos occidentales ganar terreno frente a sus enemigos islamistas militantes. En lugar de centrarse en el fondo de la ideología de ISIS o en los factores estructurales que disparan el encanto que genera entre los lobos solitarios o las células independientes, los líderes occidentales se dejan seducir una y otra vez por los medios superficiales de transmisión de los mensajes.

De ahí que solo se centren en la estrategia predominante del momento. Las antiguas estrategias eran videos de Bin Laden y sermones de imanes afines a las ideas de Al Qaeda o los Hermanos Musulmanes en YouTube; y ahora mismo, son las redes sociales. 

La insensatez de este enfoque está extendida de forma alarmante entre todos los medios occidentales y los organismos de inteligencia. Para poner solo un ejemplo destacado, más o menos al mismo tiempo que ISIS declaró el califato, J.M. Berger, periodista de The Atlantic, publicó un artículo que pretendía explicar “Cómo ISIS manipula Twitter”. Berger detallaba cómo ISIS empleaba una aplicación del Twitter árabe llamada “El amanecer de la buena nueva”, que estaba disponible en Google. Esta aplicación, que supuestamente contaba con el apoyo de las principales figuras de ISIS en Twitter, publicaba tuits aprobados por ISIS en cuentas personales de Twitter, y así conseguía magnificar y expandir la influencia que ejerce el grupo en la red social. 

Pensándose que el despliegue teatral de imágenes medievales ejemplificaba un primitivismo auténtico, Berger hizo una pausa para maravillarse frente a la utilización que hacía el grupo de “los conceptos de marca y mensajería en los grupos de discusión” con el objetivo de extender su mensaje. Sin embargo, no se le pasó por la cabeza que la apariencia medieval pudiera ser un método empleado por el recientemente lanzado califato para presentarse como el islam auténtico. De igual forma, otros medios de comunicación, ansiosos por exagerar la importancia de las redes sociales como causa principal del pensamiento terrorista, publicaban titulares tan llamativos como: “ISIS consigue dominar una técnica decisiva de reclutamiento que ningún otro grupo terrorista había dominado antes”. En medio de toda esta carrera por hacer un periodismo basado en la tesis tecnocentrista, los analistas no cayeron en la verdad evidente de que cualquier tipo de grupo que quiera conseguir un seguimiento masivo utiliza estrategias de promoción en redes sociales, y que todas esas estrategias, como las plataformas que buscaban explotar, por definición, son de reciente creación. O lo que es lo mismo: ser original no implica ser un malvado genio de las redes. 

Algunos estudios exhaustivos sí cuestionaron esta premisa de que las redes sociales forman parte integral de las operaciones del ISIS. Un informe publicado en 2015 y titulado “ISIS en EE.UU.: de los retuits a Al Raqa”, concluyó que los setenta y siete afiliados de ISIS que habían sido arrestados hasta entonces componían un grupo “muy diverso” cuya radicalización no tenía su origen en unas únicas condiciones sociales, y menos aún en una única red social.

Pero ninguna de estas conclusiones afectó a la constante retórica alarmista sobre el ISIS en Twitter, ni tampoco a la tesis especulativa complementaria que afirma que una mayor vigilancia de las cuentas de Twitter y Facebook podría acabar con ISIS o asestarle un golpe casi definitivo. En febrero de 2016, el curso sobre Extremismo de la Universidad George Washington ya había comenzado a cantar victoria basándose en este argumento, con una publicación titulada Los réditos cada vez menores del Estado Islámico en Twitter: cómo la cancelación de cuentas pone coto a las redes sociales de los seguidores del ISIS de habla inglesa. Firmado por J. M. Berger (cómo no), el informe presenta el tipo de argumento circular que induce a poner la mirada en blanco y que solo puede considerarse una investigación si todas las partes interesadas buscan la confirmación selectiva de una hipótesis en lugar de demostrar su auténtica veracidad. El informe de Berger pretendía demostrar que al suspender las cuentas de Twitter relacionadas con ISIS, la empresa había conseguido reducir significativamente la actividad de ISIS en Twitter. En realidad, el informe afirmaba que los parámetros básicos demostraban que la red social del ISIS estaba “estancada o disminuía ligeramente”, aunque para la prensa estadounidense, siempre dispuesta a cantar cualquier tipo de victoria frente al ISIS, aunque sea online, esto fue motivo suficiente para dar saltos de alegría. Berger, quizá todavía emocionado por su reciente momento de gloria en The Atlantic, complació de buena gana y declaró que una presencia menor en Twitter significaba que “las actividades clave del grupo habían disminuido considerablemente”.

No obstante, si la actividad ya había disminuido seriamente en 2015, la cancelación de cuentas continuada y creciente de 2016 y 2017 hace pensar que esas acciones no son más que una campaña publicitaria para promocionar la lucha contra el avance del terrorismo islamista. El informe de Berger señalaba que en octubre de 2015, el número de cuentas de habla inglesa de ISIS “fácilmente localizables” era de aproximadamente unas mil. No obstante, algunas noticias de CNN situaron el número de cuentas relacionadas con ISIS que habían sido canceladas en 235.000 en 2016 y 377.000 en 2017. En este sentido, el aumento escalonado del número de cancelaciones no hace sino enturbiar el argumento en favor de lanzar una ofensiva integral contra el tráfico de internet que promueve el discurso de odio y fomenta el terrorismo. 

Solo muy bien entrado el informe de Berger, nos topamos con una explicación bastante más plausible de la tendencia descendente de los números del grupo en Twitter: que como buen promotor de conspiraciones terroristas mundiales, ISIS había adoptado una estrategia de comunicación mucho más reservada, y sus miembros se comunicaban solo con otros miembros en lugar de intentar captar nuevos reclutas. Además, al ver cómo su perfil disminuía en una red social, ISIS simplemente utilizó otras y optó por WhatsApp y Telegram, puesto que ambas facilitaban el secretismo que buscaba el grupo al brindar a sus usuarios un nivel de encriptación mucho mayor y menores opciones de ser descubiertos. Con el permiso de la famosa máxima de Marshall McLuhan, los esfuerzos de promoción del ISIS siempre fueron acerca del mensaje, aunque Berger solo pudo ver el medio. 

Este número récord de cambios de plataforma del entorno del ISIS, casi igual que su atracción inicial por la novedosa plataforma de Twitter, resulta poco sorprendente si tenemos en cuenta el amplio radio de acción de la agenda de ISIS desde el principio. Aunque el énfasis de los miopes medios de comunicación y agencias de inteligencia por centrarse en las redes sociales conocidas de EE.UU. indica, por el contrario, un error fundamental en la estrategia tecnocentrista de EE.UU. para contrarrestar el extremismo violento. En lugar de reconocer que ISIS y otros militantes islamistas eligen (o descartan) una plataforma concreta para lograr ciertos objetivos políticos, los políticos y analistas asumen de forma ingenua que bloquear o vigilar de cerca la presencia en las redes sociales del grupo corta el paso a ISIS y a sus aliados. Los analistas y periodistas occidentales, tras haberse imbuido de una erudición crédula y engañosa sobre el poder radicalmente democrático de las redes sociales para promover los levantamientos de la Primavera Árabe, no han hecho más que modificar el mismo determinismo tecnológico para concebir la amenaza terrorista islámica como un lío siniestro de algoritmos, y confundir una estrategia mediática de difusión con una agenda de ISIS fuera de internet bien organizada y financiada cuyo objetivo es reclutar terroristas y expandirse a nivel geopolítico.

Esta misma miopía tecnológica occidental impide que se adopten enfoques nuevos en la elaboración y difusión de campañas eficaces que puedan desacreditar la propaganda extremista de forma sustancial. Esto también se convierte rápidamente en un bucle de ingeniería social burocrática: al asegurar que el éxito aparente de la propaganda extremista es fortuita, los estrategas antiterroristas occidentales permiten que ese tipo de propaganda prospere fuera de internet, donde se la retrata como atractiva y letal. 

Refutación conceptual

Hay una paradoja que pasa desapercibida y que está en el núcleo de la presente batalla por acabar con el contenido yihadista en las redes sociales: si los esfuerzos reclutadores de ISIS en Twitter se frenaron hace casi dos años, entonces ¿por qué el poderoso consorcio de plataformas de internet se alía ahora al estilo de la liga de la justicia para combatir el terrorismo? 

La única forma de comprender esta lógica pasa por ignorar la gran premisa que dio pie a esta unión. En realidad, luchar contra el terrorismo fuera de internet no tiene nada que ver con borrar a los emprendedores terroristas de la esfera social online. He ahí la verdadera alteración: como quieren explotar la tremenda confusión del gobierno entre estrategia terrorista y habilidad en las redes sociales, Facebook, Twitter, YouTube y Microsoft han concebido un plan de ingeniería inversa para escapar de una obligación regulatoria que habría supuesto un golpe muy duro para sus modelos de negocio. Como seguramente se tendrían que enfrentar a una mayor regulación gubernamental, ofrecieron “combatir” el terrorismo de forma enérgica en sus propias plataformas y entregar información de forma voluntaria en lugar de hacer frente a los requerimientos legales para hacerlo.

Este cómodo acuerdo entre las autoridades y los ejecutivos de las redes sociales excluye de forma conspicua a los consumidores, cuyas identidades e información podrán ser recopiladas y canceladas mediante algoritmos desconocidos y luego puestas a disposición de los organismos policiales. En el contexto de EE.UU., las disposiciones fundamentales de la Cuarta y la Quinta enmienda, que protegen a los ciudadanos contra el registro e incautación ilegales, nunca se activan porque las empresas privadas no están obligadas a cumplir ante un tribunal con el principio de sospecha fundada antes de recopilar y entregar datos de los usuarios. Por último, en un contexto más amplio, la gigantesca variedad de métodos que emplean las compañías de macrodatos para monitorizar la información sensible en los ámbitos comercial y geopolítico deja muy claro que el compromiso de la industria con el mantenimiento de la privacidad de los usuarios nunca va más allá de la simple palabrería. 

Consideremos, una vez más, el ejemplo de Pakistán. En mayo de 2017, Dawn, el periódico en inglés más grande de Pakistán, publicó un informe en el que detallaba cómo cuarenta y uno de los sesenta y cuatro grupos terroristas que habían sido prohibidos en Pakistán seguían operando libremente en Facebook.

Los grupos eludieron los sencillos protocolos de usuario para crear cientos de páginas y hacer proliferar los perfiles individuales y de grupo. Los periodistas de Dawn localizaron a los grupos prohibidos variando una serie de siglas y acrónimos y luego documentaron una larga lista de “me gusta” y seguidores para cada organización. Descubrieron que el más popular de estos grupos era Ahle Sunnat Wal Jamaat (los seguidores de la Sunna), anteriormente conocido como Sipah-e-Sahaba (Soldados de los Compañeros del Profeta). Ahle-Sunnat tenía doscientas páginas bajo su actual alias, mientras que SSP tenía 148 páginas. 

Las autoridades pakistaníes prohibieron Sipah-e-Sahaba por primera vez en 2002, y luego prohibieron Ahle Sunnat Wal Jamaat en 2012; los tribunales pakistaníes condenaron a sus miembros por asesinar a cientos de musulmanes chiíes e incitar a que otros hicieran lo mismo. Los investigadores relacionaron a los líderes Ahle Sunnat con el poderosísimo Consejo de Defensa de Pakistán, y el grupo también escenificaba concentraciones de masas en las que exigía que el Estado de Pakistán rompiera toda relación con los países occidentales. Sipah-e-Sahaba, prohibida de forma oficial en 2002, tenía el mismo programa y utilizaba la misma estrategia fraudulenta en las redes sociales (operar bajo una gran variedad de nombres y asesinar a musulmanes chiíes y minorías). Asimismo, sus líderes también trabajaron en conjunto con el organismo de inteligencia militar de Pakistán. 

El escrito de Dawn documentaba con profusión de detalles cómo los esfuerzos oficiales por reducir la presencia yihadista en internet sirven a los gigantes como Facebook, en el ámbito de su política operativa, como una cortina de humo. En su afán por eludir la intromisión del gobierno en su país de origen, Facebook simula estar tomando duras medidas contra el contenido con tintes remotamente terroristas, pero en un mercado nacional como el de Pakistán, la macro red social no tiene ningún problema en ignorar ese tipo de contenido y aplicar un régimen de vigilancia mucho más permeable. Por ese motivo, más de una década después de haberlos prohibido, ambos grupos pueden seguir disfrutando y explotando libremente una significativa y visible presencia en Facebook, y un apoyo gubernamental poco disimulado. 

Muerte a los blasfemos

En realidad, en lugar de negociar con las autoridades de Pakistán para frenar las actividades de estos grupos extremistas tanto dentro como fuera de internet, Facebook hizo lo imposible por acomodar el programa de los líderes islamistas en un ámbito clave: la vigilancia del contenido ostensiblemente blasfemo. El pasado mes de marzo, el gobierno Pakistaní anunció que Facebook retiraría a partir de ahora de la plataforma social “todo el contenido blasfemo”. El ministro del Interior de Pakistán hizo referencia a la reciente correspondencia que mantuvo con altos cargos de Facebook en la que le aseguraban que la empresa estaba tomándose “muy en serio las preocupaciones planteadas por el gobierno de Pakistán”. Algunos otros miembros del gobierno pakistaní y de la Agencia Federal de Investigación de Pakistán declararon asimismo que Facebook había aceptado retirar el contenido blasfemo y entregar la información de los usuarios que estuvieran relacionados con investigaciones criminales a las autoridades pakistaníes. El 11 de junio de 2017, un tribunal pakistaní condenó a muerte a Taimoor Raza, tras acusarlo de blasfemia por un comentario que había publicado en Facebook.

Facebook todavía no ha confirmado de forma independiente el contenido íntegro de este proclamado cambio de política en Pakistán. Tras el anuncio de esta primavera, el vicepresidente de políticas públicas de Facebook, Joel Kaplan, viajó a Pakistán para encontrarse con el ministro de Interior de Pakistán, Nisar Ali Khan. Las noticias del encuentro citaron un email de la empresa que afirmaba que “Facebook se había reunido con las autoridades pakistaníes para expresar el fuerte compromiso de la empresa por proteger los derechos de la gente que usa su servicio y por permitir que la gente se exprese libremente y de forma segura”. Durante la reunión del 7 de julio, Khan supuestamente ofreció establecer una oficina en Pakistán para dar servicio a los 33 millones de usuarios de Facebook que se calcula que hay en el país. El cumplimiento de las peticiones gubernamentales relacionadas con la entrega de información de los usuarios que registró la propia empresa demuestra que Pakistán está entre los diez regímenes que más solicitan ese tipo de información sensible. Facebook informó de que había cumplido con dos tercios de ese tipo de peticiones, aunque a mediados de julio la empresa denegó la petición del gobierno de Pakistán para sincronizar las cuentas personales con los números de teléfono, lo que habría simplificado a las fuerzas del estado hacer un seguimiento de los usuarios.

Ese es el valor, según parece, de la emotiva promesa de Mark Zuckerberg de repartir amor y empatía a lo largo y ancho del tenebroso mundo que se conecta a su sitio web. En su lugar, la principal directriz de Facebook sigue siendo maximizar su acceso a los mercados y adaptar los protocolos de vigilancia terrorista según corresponda. El gobierno de Pakistán ya prohibió YouTube por negarse a retirar el contenido blasfemo (aunque no extremista); por lo que resulta evidente que la reciente iniciativa antiblasfemia de Facebook está pensada claramente para evitar un destino corporativo similar. Si tenemos en cuenta las particulares exigencias políticas de Pakistán, el cálculo comercial resulta sencillo: la supuesta amenaza blasfema siempre prevalecerá sobre las consecuencias más que reales de un discurso de odio extremista. En la misma línea, una investigación de ProPublica sobre las repercusiones para las redes sociales de la Primavera Árabe concluyó que era mucho más probable que Facebook colaborara con los gobiernos opresores que buscan limitar el acceso a las plataformas sociales que con los manifestantes y los organizadores que intentan organizar movimientos de resistencia. 

Ni gratis ni barato

En cierto modo, la postura de Facebook de colaborar con los regímenes autoritarios del mundo Árabe no difiere mucho de la postura adoptada por Motorola y Westinghouse, por poner un ejemplo, de beneficiarse del apartheid en Sudáfrica. En ambos casos, la mínima decencia política no es más que agua de borrajas: la obligación principal de una empresa privada es conservar su marca y el valor de sus acciones, y perseguir el objetivo conjunto de asegurar la confianza del consumidor y atraer al mayor número posible de usuarios. 

Por lo general, en estas situaciones las empresas de redes sociales buscan afianzar su credibilidad de mercado realizando un delicado ejercicio de equilibrismo: evadir la regulación del gobierno y al mismo tiempo asegurar que los usuarios confíen en la plataforma y la consideren como un benévolo repositorio donde pueden expresar sus opiniones y guardar su información. Tanto Facebook como Twitter saben que coordinar de forma conjunta la experiencia de libertad y seguridad en sus plataformas es vital para expandir su cuota de mercado y así monetizar las ingentes cantidades de información que recopilan de los perfiles online de sus clientes. 

Por el momento, están teniendo éxito. De acuerdo con las cifras que ha publicado SmartInsight, Facebook es la red social más popular del mundo. En EE.UU. ostenta un 89% de penetración de mercado, lo que significa que la gran mayoría de los adultos estadounidenses utilizan la plataforma. Además, la experiencia de Facebook está diseñada para que los usuarios crean que usarla sale gratis, aunque, por supuesto, todo el modelo de negocio de Facebook se basa en recopilar información de los usuarios y venderla a otras plataformas, o gobiernos, cuando surja la necesidad. Bajo la engañosa tapadera de suministrar a los usuarios un “servicio gratuito”, la red social más grande del mundo evita cualquier escrutinio público de sus algoritmos de clasificación de la información y por otra parte consagra una gran cantidad de recursos propios a encubrir con quién comparte su valiosísima información sobre los usuarios. 

Taimoor Raza, el hombre que fue sentenciado a muerte por haber supuestamente cometido un pecado de blasfemia en Facebook, permanece en el corredor de la muerte en Pakistán. Mark Zuckerberg no ha publicado ningún mensaje conmovedor en Facebook para llamar la atención sobre el drama de Raza, o sobre el régimen autoritario que diseñó el sistema que suprime la libertad de expresión de forma brutal. Ni tampoco los usuarios pakistaníes que se conectan a la página de Zuckerberg reciben ninguna advertencia sobre la capacidad del gobierno pakistaní o sus órganos policiales para acceder a su información sin su consentimiento, aparte, claro está, de una serie de complejas cláusulas legales que se ocultan en lo más profundo del contrato que regula los términos del servicio. 

Pero eso no es lo único que se echa en falta en esa alianza que se está concretando entre el gobierno y las empresas bajo la apariencia de una dudosa y prolongada guerra occidental contra el terrorismo. Al promover una estricta definición del terrorismo político como si fuera un monopolio exclusivo del islam, los líderes del cártel occidental de los macrodatos han distorsionado la noción de aquello que representa un discurso online “aceptable” y lo han convertido en cualquier cosa que pueda mejorar su cuota de mercado. Pero para detener esa amenaza nadie puede activar una convincente comprobación del estado de seguridad. 

-----------------------

Este artículo se publicó en The Baffler

Traducción de Álvaro San José

CTXT está produciendo el documental 'La izquierda en la era Trump'. Haz tu donación y conviértete en coproductor. Tendrás acceso gratuito a El Saloncito durante un mes.

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes iniciar sesión aquí o suscribirte aquí

Autor >

Rafia Zakaria (The Baffler)

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

1 comentario(s)

¿Quieres decir algo? + Déjanos un comentario

  1. Godfor Saken

    Ojalá CTXT.ES se anime a publicar este otro magnífico artículo de The Baffler: "Future Fail. How to rescue ourselves from posterity", de Jacob Silverman. https://thebaffler.com/outbursts/future-fail-silverman

    Hace 7 años

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí