1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

  281. Número 281 · Febrero 2022

  282. Número 282 · Marzo 2022

  283. Número 283 · Abril 2022

  284. Número 284 · Mayo 2022

  285. Número 285 · Junio 2022

  286. Número 286 · Julio 2022

  287. Número 287 · Agosto 2022

  288. Número 288 · Septiembre 2022

  289. Número 289 · Octubre 2022

  290. Número 290 · Noviembre 2022

  291. Número 291 · Diciembre 2022

CTXT necesita 15.000 socias/os para seguir creciendo. Suscríbete a CTXT

ESTUDIO DE LA UNIVERSIDAD DE OXFORD

Las redes sociales como instrumento de propaganda

Internet está inundada de cuentas falsas que buscan orientar a la opinión pública. En Rusia, el 45% de la actividad de Twitter está controlada por robots. Durante la campaña electoral en EEUU, más de un millón de tuits estaban programados

Gabriel Méndez- Nicolas 2/08/2017

<p>Twitter.</p>

Twitter.

LA BOCA DEL LOGO

A diferencia de otros medios, en CTXT mantenemos todos nuestros artículos en abierto. Nuestra apuesta es recuperar el espíritu de la prensa independiente: ser un servicio público. Si puedes permitirte pagar 4 euros al mes, apoya a CTXT. ¡Suscríbete!

Necesitamos tu ayuda para realizar las obras en la Redacción que nos permitan seguir creciendo. Puedes hacer una donación libre aquí

----------------------------------------------------------------------------------------------------- 

El 17 de julio de 2014, un Boeing 777 de Malaysian Airlines que volaba desde Ámsterdam a Kuala Lumpur se estrelló en la región ucraniana de Donbas, un área fuera del dominio del Gobierno ucraniano y controlada por los separatistas prorusos. Los 298 pasajeros fallecieron. En 2016, una investigación realizada por expertos internacionales concluyó que el avión fue alcanzado por un misil ruso antes de estrellarse. Hasta entonces, existían numerosos bulos en internet sobre lo que había acontecido. Uno de ellos era la presencia en la zona de un caza ucraniano que habría destruido la aeronave. Esta versión fue iniciada por un usuario español, un supuesto controlador aéreo llamado Carlos –@spainbuca–, que decía trabajar en el aeropuerto Boryspil. Aseguraba que había visto un avión de guerra en la zona de la catástrofe. Esta historia fue rápidamente difundida por medios de comunicación rusos como RT –muy próximo al gobierno– y por el Ministerio de Defensa ruso. Su titular, Serguéi Shoigú, usó en rueda de prensa una imagen de satélite falsa en la que se veía un avión de combate Su-25 en la zona donde transitaba el avión de Malaysian Airlines. 

La web StopFake destapó el bulo: ningún ciudadano no-ucraniano puede ser controlador aéreo en Ucrania, así que la cuenta de Twitter del supuesto controlador aéreo español era falsa. El 8 de mayo de 2014, un hombre con el rostro tapado, que dijo llamarse Carlos, denunció amenazas hacia su persona por parte del Gobierno ucraniano en entrevista a la versión española de RT. No se ha encontrado ninguna prueba de que Carlos exista realmente. La cuenta empezó su actividad 2 meses antes del suceso, cambiando varias veces de nombre –como por ejemplo Lyudmila Lopatyshkina– y compartiendo constantemente mensajes a favor del Gobierno ruso. 

Los gobiernos están utilizando las redes sociales con fines propagandísticos para influir en la opinión pública. Esta es una de las conclusiones a las que llega el estudio de la Universidad de Oxford Computational Propaganda Research Project, un proyecto dedicado al “uso de las redes sociales para la manipulación”. Doce investigadores de nueve países diferentes han analizado la importancia que tienen las cuentas programadas en redes a la hora de manipular a la opinión pública. Y no solo en Estados totalitarios, también en democracias asentadas.

La parte de la investigación dedicada a Ucrania, liderada por Mariia Zhdanova y Dariya Orlova, concluye que la cuenta del supuesto controlador no era la única activa en el caso del Boeing 777 de Malaysian Airlines. Tras la publicación de las conclusiones del informe que vinculaba a Rusia con el siniestro, se apreciaron otras actividades por parte de cuentas programadas. Cuando alguien publicaba un tuit con el hashtag #MH17 en ruso, un bot interpelaba al usuario en cuestión, enviando un artículo falso que desacreditaba y desmontaba la investigación que había determinado la culpabilidad de Rusia.

Bot es un acortamiento válido del término robot, empleado en el ámbito de la informática para referirse al “programa que recorre la red llevando a cabo tareas concretas, sobre todo creando índices de los contenidos de los sitios” (Fundéu). En este caso son programas inteligentes, automáticos o coordinados por personas físicas, que detrás de un seudónimo se hacen pasar por cuentas reales en las redes sociales. La dificultad para diferenciar usuarios reales de bots es lo que hace peligrosas estas cuentas programadas, que pueden crear una ilusión de popularidad hacia un candidato o político, difundir noticias falsas, calmar protestas o, simplemente, inundar las redes sociales de propaganda política. Esta propaganda digital es “de las herramientas más poderosas contra la democracia”, afirma Sam Woolley, director de la investigación, y el investigador principal Phil Howard en el sumario del informe. 

Según las conclusiones de los expertos de la Universidad de Oxford, alrededor de un millón de tuits fueron publicados por programas automáticos: una quinta parte de los favorables a Clinton y un tercio de los elogiosos con Trump

Fake news y elecciones en Estados Unidos

Las elecciones en Estados Unidos han sido las más seguidas en todo el mundo y han puesto sobre la mesa el concepto de fake news. La investigación sobre este país consta de dos partes: una parte dedicada al estudio de las redes y de los datos; y otra, que analiza la presencia de bots durante el periodo electoral de 2016. Según las conclusiones de los expertos de la Universidad de Oxford, alrededor de un millón de tuits fueron publicados por programas automáticos: una quinta parte de los favorables a Clinton y un tercio de los elogiosos con Trump.

El actual presidente de Estados Unidos, que tras los debates se jactaba de haberlos ganado por su popularidad en las redes sociales, es el candidato que más ha utilizado estos procedimientos de manipulación. 

Un ejemplo de las tácticas del equipo de Trump fue el Pizzagate. En noviembre de 2016, en plena batalla por la presidencia de EEUU, salió a la luz un escándalo de pedofilia que implicaba al director de campaña de Hillary Clinton, John Podesta. Según unos supuestos mails que destapó WikiLeaks, Podesta estaba vinculado a una pizzería que servía de acceso a una red de pedofilia. La policía y distintos medios de comunicación desmintieron esta historia, pero las redes sociales siguieron propagándola. El informe de Oxford descubre que una parte importante de la conversación en Twitter sobre el Pizzagate fue realizada por cuentas en países como Chipre, Vietnam o República Checa. Los bots favorables a Donald Trump amplificaron notablemente este bulo.

Estas cuentas no solo se activaron para las elecciones presidenciales. El informe destaca también su actividad en las primarias republicanas, atacando, por ejemplo, a otro candidato en esas primarias, Ted Cruz.

Ahora, el debate en Estados Unidos gira en torno a si Rusia está detrás de todos estas cuentas afines a Trump. El análisis de los datos que aparecen en el informe vincula a muchos de estos bots, que tuvieron un papel importante en la difusión de las fake news de Donald Trump y su posterior victoria en las elecciones, con hackers rusos.

Uso de bots en la manipulación de la opinión pública 

Brasil es otro de los casos paradigmáticos en el uso de cuentas falsas con fines propagandísticos. En 2016, Symantec, una multinacional especializada en ciberseguridad, destacó que el país estaba en la octava posición mundial en número de bots presentes en sus redes. 

El informe de la Universidad de Oxford concluye que esas cuentas falsas tuvieron un papel importante en las elecciones brasileñas de 2014 que auparon a Dilma Rousseff a la presidencia, y que “esos mismos métodos han sido utilizados para guiar a muchas personas hacia grupos opositores a ella”. Una muestra de ello fue la actividad en Twitter durante el debate presidencial de 2014 entre Rousseff y el candidato del PSDB Aécio Neves. Según un estudio realizado por Folha Sao Paulo –un grupo de apoyo a Rousseff– 15 minutos después del debate, los tuits con un hashtag favorable a Neves se triplicaron.

Estos mismos bots que se usaron para la campaña electoral de 2014 están también presentes en el proceso de impeachment en 2016. No es sorprendente que estas cuentas falsas inunden las redes sociales si tenemos en cuenta que, por ejemplo, varias compañías, como Brasil Liker, venden likes a las cuentas de Facebook registradas en Brasil. Con unas tarifas bastante asequibles, el acceso a la utilización de bots en las redes sociales parece bastante fácil para cualquiera.

Estos programas pueden tener varias misiones dentro de la estrategia de manipulación. Una de ellas es crear un consenso falso en torno a un tema específico

Los expertos de Oxford aportan datos muy significativos de la importancia que pueden tener estas cuentas programadas a la hora de manipular la opinión pública. Según el informe, alrededor del 45% de la actividad de Twitter en Rusia está controlada por bots. Estos programas pueden tener varias misiones dentro de la estrategia de manipulación. Una de ellas es crear un consenso falso en torno a un tema específico: construyen la ilusión de que muchos usuarios están de acuerdo, cuando en realidad detrás de esas cuentas ni siquiera existen personas físicas. 

En Polonia, por ejemplo, entre marzo y abril de 2017, 10.050 cuentas de Twitter –sospechosas de haber sido programadas– publicaron 50.058 tuits. Un pequeño grupo de usuarios (de la derecha y la extrema derecha polaca) generó alrededor del 20% de la actividad en Twitter. Que un porcentaje tan grande de la actividad de una red social sea producido por tan pocos usuarios prueba la capacidad de estas cuentas automatizadas para crear un debate sobre temas no necesariamente generalizados.

Otro de los usos de estos bots es la capacidad de arremeter contra rivales políticos mediante un ataque coordinado por las redes sociales. Esto fue lo que, según el informe, se hizo en Taiwán en 2017 para desestabilizar a la presidenta de ese país. Tsai Ing-wen fue atacada de manera “pueril y misógina” a través de perfiles creados uno o dos mese antes, que no tenían foto, pocos o ningún seguidor, tuiteaban en chino simplificado y muchas de las cuales han desaparecido desde que salió el estudio de la Universidad de Oxford.  

Pero, ¿tienen las redes sociales alguna responsabilidad de lo que se publica en ellas? El informe señala que ni Facebook ni Twitter hacen todo lo posible para proteger a sus usuarios de este tipo de cuentas robotizadas.

Twitter posee un sistema anti-bots, pero está centrado en la lucha contra la publicidad abusiva en la red: no existe ningún sistema para terminar con la manipulación política o ideológica. Los usuarios tienen que protegerse solos, denunciando las cuentas que sospechen programadas. Facebook tampoco parece más interesado en el tema, y ha contratado la lucha contra la propaganda digital y la difusión de noticias falsas a dos empresas externas: Associated Press y Snopes actúan como una especie de subcontrata de Facebook en estos temas. 

Alemania contra los bots

Alemania –que, según la investigación, a pesar de haber tenido muy poca presencia de cuentas automatizadas en sus redes, sí tiene una importante difusión de bulos y noticias falsas en las mismas– es de los pocos países que ha iniciado una serie de propuestas legislativas para que las redes sociales se hagan responsables del contenido que circula en ellas. El grupo parlamentario alemán Alianza 90/Los Verdes ha exigido una ley para identificar a los bots en las redes sociales con el objetivo de reconocer cuándo una publicación es obra de un robot.

En Taiwan el gobierno ha puesto en marcha bots que van a cumplir un papel de “fact checking” para proteger a sus usuarios de la difusión de noticias falsas.

El informe Computational Propaganda Research Project llega a la conclusión de que internet está inundado por bots, activos o todavía “durmientes”. Revela también que los países con menor acceso a Twitter u otras redes sociales se ven menos tocados por la manipulación ejercida por cuentas programadas. Y admite que la lucha contra la propaganda digital a través de las redes sociales es muy difícil de llevar a cabo, porque cada país tiene una regulación distinta sobre el tema. Por el momento existe un puñado de iniciativas legislativas y algunas empresas privadas de fact checking como Chequeado o FactCheck.org -las dos sin ánimo de lucro- para combatir la desinformación y la difusión de fake news. Contra esta propaganda del siglo XXI, virtual y oculta, cualquier lucha parece poca. 

Necesitamos tu ayuda para realizar las obras en la Redacción que nos permitan seguir creciendo. Puedes hacer una donación libre aquí

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes suscribirte aquí

Autor >

Gabriel Méndez- Nicolas

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

4 comentario(s)

¿Quieres decir algo? + Déjanos un comentario

  1. Noel

    Es muy irónico y significativo que Miguel (en uno de los comentarios a esta noticia) hable del "caso de Venezuela" como ejemplo de manipulación de recuentos electorales. Sin embargo, se da el caso de que la empresa que denunció tal manipulación no presentó ninguna prueba de lo que decía. Es más, su denuncia no se produjo en el día de la votación sino más adelante. Es decir, Miguel nos alerta sobre el peligro de la manipulación pero él es quien nos está desinformando y manipulando (esperemos que al menos lo haya hecho involuntariamente, aunque tal cosa poco cambia). Mejor haría nuestro probe Migué preocupándose por las elecciones españolas, cuyo recuento realiza la empresa Indra, involucrada en Lezo y otros casos de corrupción.

    Hace 5 años 3 meses

  2. Noel

    Es muy irónico y significativo que Miguel (en uno de los comentarios a esta noticia) hable del "caso de Venezuela" como ejemplo de manipulación de recuentos electorales. Sin embargo, se da el caso de que la empresa que denunció tal manipulación no presentó ninguna prueba de lo que decía. Es más, su denuncia no se produjo en el día de la votación sino más adelante. Es decir, Miguel nos alerta sobre el peligro de la manipulación pero él es quien nos está desinformando y manipulando (esperemos que al menos lo haya hecho involuntariamente, aunque tal cosa poco cambia). Mejor haría nuestro probe Migué preocupándose por las elecciones españolas, cuyo recuento realiza la empresa Indra, involucrada en Lezo y otros casos de corrupción.

    Hace 5 años 3 meses

  3. Pablo

    ¿Y cuándo piensan luchar contra la propaganda en prensa y television? Estos medios tienen muchisimos más usuarios, y en general menos criticos que los internautas.

    Hace 5 años 3 meses

  4. miguel

    Este es un asunto de vital importancia y que afecta directamente a los derechos fundamentales. La posibilidad de manipulación de la opinión crece de manera exponencial con el uso de las llamadas redes sociales que no son tan sociales. Y lo pero es que la posibilidad de manipular elecciones y recuentos electorales ha crecido también de manera alarmante. El último caso en Venezuela.

    Hace 5 años 3 meses

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí