1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

  281. Número 281 · Febrero 2022

  282. Número 282 · Marzo 2022

  283. Número 283 · Abril 2022

  284. Número 284 · Mayo 2022

  285. Número 285 · Junio 2022

  286. Número 286 · Julio 2022

  287. Número 287 · Agosto 2022

  288. Número 288 · Septiembre 2022

  289. Número 289 · Octubre 2022

  290. Número 290 · Noviembre 2022

  291. Número 291 · Diciembre 2022

  292. Número 292 · Enero 2023

  293. Número 293 · Febrero 2023

  294. Número 294 · Marzo 2023

  295. Número 295 · Abril 2023

  296. Número 296 · Mayo 2023

  297. Número 297 · Junio 2023

  298. Número 298 · Julio 2023

  299. Número 299 · Agosto 2023

  300. Número 300 · Septiembre 2023

  301. Número 301 · Octubre 2023

  302. Número 302 · Noviembre 2023

  303. Número 303 · Diciembre 2023

  304. Número 304 · Enero 2024

  305. Número 305 · Febrero 2024

  306. Número 306 · Marzo 2024

  307. Número 307 · Abril 2024

  308. Número 308 · Mayo 2024

  309. Número 309 · Junio 2024

  310. Número 310 · Julio 2024

  311. Número 311 · Agosto 2024

  312. Número 312 · Septiembre 2024

CTXT necesita 3.000 suscriptores más para seguir creciendo. Suscríbete a CTXT

ANÁLISIS

Al otro lado de Black Mirror: algoritmos, democracia e igualdad

¿Seremos capaces los Estados, las empresas y especialmente la ciudadanía de hacer todo lo necesario para poner la inteligencia artificial al servicio de los derechos humanos, la democracia y la igualdad y no en contra?

Fernando Román Aguilera / Rafael Merino Rus 16/01/2019

<p>Fotograma de la película Matrix (1999).</p>

Fotograma de la película Matrix (1999).

Lana y Lilly Wachowski

En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí

«Sé que estáis ahí, percibo vuestra presencia. Sé que tenéis miedo. Nos teméis a nosotros. Teméis el cambio. Yo no conozco el futuro. No he venido para deciros cómo acabará todo esto... Al contrario. He venido a deciros cómo va a comenzar.»

The Matrix (1999)

1. Contexto: máquinas que aprenden solas

Nadie los ve. Están ahí. Nos gobiernan. Llevan tiempo entre nosotros, pero sólo ahora hemos empezado a percibir su existencia. Son los algoritmos de aprendizaje automático.

Pero ¿qué son realmente estos algoritmos de aprendizaje automático y qué tienen de novedoso? Un algoritmo, en general, podría definirse como un “conjunto de instrucciones lógicas para resolver un problema genérico concreto”. Un ejemplo sencillo es el algoritmo que aprendemos en la escuela para hacer una división. Hasta aquí, nada muy especial. Sin embargo, gracias a los increíbles avances informáticos en la capacidad de procesamiento y de almacenamiento de datos, en los últimos años se ha producido un salto cualitativo sorprendente. Hasta ahora, los programadores tenían que detallar cada uno de los pasos lógicos que debía seguir el programa para obtener el resultado deseado, es decir, eran los programadores los que le decían a la máquina cómo tenía que responder ante determinadas situaciones, pero los algoritmos de aprendizaje automático (en adelante, AAA) funcionan de forma totalmente diferente. De manera simplificada, un AAA consiste en redes neuronales virtuales que, de forma parecida a como aprendemos los humanos, a medida que van procesando los resultados que provocan diferentes reacciones ante una situación, van anticipando cómo responder ante futuras casuísticas. Es decir, la máquina, literalmente, “aprende”.

Para intentar comprenderlo mejor, utilicemos el ejemplo de los programas de ajedrez. Antes, los programas de ajedrez (como el famoso caso de Deep Blue) se construían introduciendo manualmente las estrategias (mejores o peores) que utilizaría cualquier buen jugador humano, por ejemplo, asignando un valor a las piezas (un punto a los peones, tres a caballos y alfiles, cinco a las torres, etcétera) para hacer cálculos de sacrificios o privilegiando por lo general el control de las posiciones centrales para así dominar el conjunto del tablero. Es decir, se les asignaba un conjunto de reglas según las cuales, valorando las posibles jugadas siguientes, calculaban la respuesta a cada posible situación. Sin embargo, a los programas actuales de ajedrez basados en AAA no hace falta introducirles ninguna de estas estrategias predefinidas. El novedoso programa Alpha Zero de Deep Mind ha sido capaz de aprender en veinticuatro horas y simplemente jugando partidas contra sí mismo, sin ninguna participación humana, a ganar al ajedrez a los ordenadores más inteligentes; con la sorpresa de que para ganar realizaba movimientos que a cualquier humano nos resultan absolutamente incomprensibles según nuestras lógicas de puntuación y de dominio del tablero, como regalar una dama o arrinconarla en una esquina del tablero. 

En la actualidad, los AAA están por todas partes, aunque no los veamos. Piensan y deciden por nosotros. Nos influyen cuando llenamos el carro de la compra, nos filtran lo que queremos ver en Google o Netflix, nos ayudan a encontrar pareja en internet o incluso orientan nuestro voto (véase el caso de Cambridge Analityca y Facebook en EE. UU.). Además, los algoritmos ya se están usando de manera generalizada en ámbitos estratégicos tan sensibles como, por ejemplo, la gestión pública, la sanidad, la seguridad, el transporte, el sector financiero o por las compañías de selección de personal. 

La velocidad a la que se está desarrollando esta suerte de nueva tecnología es tan rápida que, si no empezamos a plantearnos ya de qué maneras están afectando a nuestras sociedades (y pueden afectar a su futuro), especialmente a los sectores más vulnerables, puede ser que muy pronto (si es que no ya) perdamos el control de los algoritmos que controlan nuestras vidas. 

2. Mirando al futuro: desafíos, peligros y amenazas

Los escenarios a los que nos enfrentamos en este tema son muchos y muy variados, pero hemos querido agruparlos en tres grandes bloques interrelacionados: primero, las posibles amenazas para la democracia y la soberanía; segundo, los desafíos en materia de (des)igualdad y derechos humanos, y, por último, los peligros de la visión ultrasesgada de la realidad que pueden generar los algoritmos. 

2.1.Posibles amenazas para la democracia y la soberanía.

a) La transparencia y la rendición de cuentas son un elemento esencial y vertebrador de toda democracia, pero ¿pueden garantizarlas los AAA que están decidiendo sobre nuestras vidas? Hemos de decir que no, que no podemos esperar que los AAA sean aliados de la transparencia y, lo que es peor, nunca podremos garantizar que lo sean. Si han utilizado el traductor de Google, seguramente hayan notado una increíble mejoría en los últimos años. Esta mejoría se debe, entre otras cosas, a que antes el software estaba programado para utilizar siempre el inglés como lenguaje intermedio, pero ahora el nuevo AAA de traducción no tiene esa restricción. El resultado es que el traductor de Google ha creado un lenguaje intermediario alienígena más eficaz, que muta mucho más rápido de lo que somos capaces de entender. Por tanto, si aceptamos nuestras limitaciones naturales para comprender este lenguaje extraterrestre o, como hemos mencionado anteriormente, las limitaciones lógicas que nos impiden comprender por qué un programa de ajedrez lleva a cabo determinados movimientos a la postre ganadores, tendremos que aceptar que de igual modo estamos inevitablemente limitados para comprender y, por tanto, auditar, las decisiones de otros algoritmos en materias mucho más sensibles para el futuro de nuestras sociedades.

b) En un sentido democrático, podríamos definir la soberanía como “la convicción generalizada de los pueblos de que de una forma u otra somos dueños de nuestro propio destino y de que tenemos la capacidad de impulsar cambios en la dirección que decidamos”. Más allá del hecho de si estamos delegando en los algoritmos un poder excesivo en nuestra toma de decisiones, existe otra amenaza filosófica esencial de los AAA con respecto a la democracia y a la soberanía, y es que suprimen los porqués de nuestra búsqueda del sentido de las cosas. Con esto lo que queremos decir es que las predicciones de los AAA, por su propia naturaleza, centran la interpretación de la realidad social en el cómo sucederán las cosas y no en el por qué suceden. Y a medida que busquemos en los algoritmos más respuestas a las preguntas de este mundo cada vez más complejo y cambiante, corremos el riesgo de estar abandonando la búsqueda de los porqués subyacentes y de empezar a abrazar una sensación cada vez mayor de inevitabilidad tácita, de que sencillamente es así como suceden las cosas y no hay más, y de renunciar, por tanto, a poder cambiar activamente el estado de las cosas e implicarnos en la defensa y el ejercicio del principio que etimológicamente fundamenta la democracia: nuestra soberanía como pueblos.

c) En tanto que los AAA tienen la capacidad de crear una realidad totalmente personalizada (piénsese por ejemplo en la publicidad diferenciada que nos ofrece Amazon a cada uno de nosotros o los ejemplos de las últimas campañas electorales estadounidenses y del brexit en Reino Unido), se abre con ello un peligroso campo para la manipulación mediática y la supresión de otro de los pilares fundamentales de la democracia: el debate público como colectivización e interpretación de problemáticas comunes. Al fin y al cabo, ¿cómo vamos a debatir nada en común cuando nos han ultraindividualizado el relato? 

2.2. Desafíos en materia de (des)igualdad

aLa naturaleza predictiva de algunos AAA los hace singularmente performativos o, dicho de otra forma, igual que sucede con las encuestas electorales, el mero hecho de predecir una supuesta realidad futura afecta a nuestro comportamiento y acaba provocando el escenario previsto que de otra forma tal vez se podría haber evitado y, lejos de ayudar a resolver las desigualdades existentes, pueden estar agravándolas. Pongamos un ejemplo (inspirado en el libro Armas de destrucción matemática de Cathy O'Neil). En varios lugares del mundo la policía utiliza algoritmos predictivos (el más conocido es PredPol) que, haciendo uso de los registros policiales, anticipan zonas con mayor probabilidad de que se produzcan crímenes. Dejemos al margen la discusión sobre si esos registros policiales –y por tanto la información con que se alimenta al algoritmo– serían fieles a la realidad o estarían repletos de prejuicios que afectarían a la predicción. Como es lógico, el algoritmo señalaría como zonas más probables aquellas en las que ya existe más criminalidad, que en muchos casos viene derivada de situaciones de desigualdad y de racialización. ¿Qué pasaría a continuación? Lo más probable es que el mero hecho de predecir más criminalidad en una zona y el consecuente aumento de la presencia policial, provoque que las familias que se lo puedan permitir huyan del lugar, dejando atrás a las más empobrecidas y arraigadas que no pueden permitirse otra cosa, provocando así una profundización de la desigualdad y la segregación y, por tanto, con toda probabilidad, también de la conflictividad social y de la criminalidad. Se hace coincidir así el resultado con la previsión y se agrava la situación de desigualdad inicial. 

b) Como cualquier avance tecnológico en una sociedad ya desigual, pueden ser profundizadores de la desigualdad, ya que la capacidad de acceso a estos avances no es simétrica en los diferentes estratos sociales. Como consecuencia, corremos el riesgo de que estos nuevos avances se pongan a operar al servicio de los intereses de los que más poder tienen y, aunque si bien es cierto que en muchos otros sentidos también pueden generar beneficios para el conjunto de la sociedad, éstos siempre se producen de arriba abajo, no horizontalmente, y normalmente en una clave de consumo. Otro riesgo claro de impacto de los AAA en la desigualdad y que quizás sea el más extendido en la actualidad es la reproducción sistematizada en algoritmos de patrones discriminatorios fruto del sesgo en los datos e información que procesan (un ejemplo reciente de esto es el algoritmo “discriminatorio” utilizado por Amazon para el reclutamiento de personal que “penalizaba” a las mujeres). En este contexto, la pregunta que debemos hacernos es ¿quiénes controlan y dirigen el futuro de los avances que ya están moldeando nuestras sociedades? Y si la respuesta no es “todos por igual”, lo más probable es que estén favoreciendo a los más privilegiados y, por lo tanto, agudizando las desigualdades existentes.

2.3. Peligros de una visión ultrasesgada y dirigida de la realidad

a) Los actuales AAA fomentan además visiones retroalimentadoras y encapsuladas de la realidad (en relación con el punto 3). Esto sucede, por ejemplo, cuando los algoritmos de las redes sociales sólo nos muestran las noticias que tienen más probabilidad de que les demos un me gusta y, por tanto, que más nos sirven para reafirmarnos, cuando comprobamos que la publicidad de Amazon es diferente de una persona a otra y se basa en un perfil personalizado o cuando nos damos cuenta que las propuestas políticas que nos llegan de los partidos son sólo aquellas que más nos preocupaban de antemano. En tanto en cuanto sólo se nos estaría mostrando esta visión ultrasesgada y dirigida de la realidad que nos resulta más cómoda y que nos refuerza y retroalimenta en nuestras concepciones previas, ¿cómo vamos a descubrir e incorporar discursos y realidades que nos son ajenas o incluso desagradables de entrada?

b) Por último, procede destacar que los AAA nos conducen a undata-centrismo, es decir, cuando los análisis de la realidad se sustentan sobre aquellos sectores de la sociedad o países que más datos generan (países ricos más digitalizados frente a países pobres), hay más probabilidades de que la agenda pública y las políticas se orienten en beneficio de dichos sectores o países y sigamos acrecentando así las desigualdades sociales que impera en la actualidad.

3. Una propuesta de futuro: la Declaración de Toronto

Como es sabido, existe un interés creciente en comprender y dibujar las fronteras éticas y prácticas de estas nuevas tecnologías. Un ejemplo de ello es la iniciativa The Toronto Declaration: Protecting the right to equality and non-discrimination in machine learning systems lanzada por Amnistía Internacional, Access Now y otras organizaciones asociadas, sobre “derechos humanos e inteligencia artificial”. 

¿Qué plantea esta histórica declaración? Muy resumidamente, la Declaración de Toronto pretende ser un primer paso para establecer las bases de un acuerdo internacional para el desarrollo de la inteligencia artificial y los AAA desde un enfoque ético y con los derechos humanos en el centro.

La estructura y el enfoque de la declaración guarda cierta similitud con los “Principios Rectores sobre las empresas y los derechos humanos: puesta en práctica del marco de las Naciones Unidas para proteger, respetar y remediar”, adoptados en el 2011 por el Consejo de Derechos Humanos de las Naciones Unidas. De hecho, la declaración se articula sobre estos mismos tres pilares según los cuales: 

1) Los Estados tiene el deber de prevenir y proteger los derechos humanos. Ello implica que deben crear un marco de seguridad jurídica para promover, respetar, cumplir y proteger los derechos humanos de los potenciales impactos negativos derivados de la aplicación y desarrollo de la inteligencia artificial, garantizar un uso público adecuado de ésta, promover su uso y conocimiento adecuados entre los funcionarios públicos, garantizar la rendición de cuentas y transparencia en las actuaciones de los sectores público y privado relacionadas con la inteligencia artificial y establecer “vasos comunicantes” con el sector privado para intercambiar conocimiento y buenas prácticas.

2) Las empresas tienen la responsabilidad de respetar los derechos humanos y para ello han de adoptar compromisos políticos claros y públicos e implantar un procedimiento de debida diligencia apropiado para identificar, prevenir, amortiguar y rendir cuentas sobre cómo su actividad y uso de la inteligencia artificial impacta o puede llegar a impactar, de forma directa o indirecta a través de su cadena de suministro o de sus relaciones comerciales, en los derechos humanos.

3) Los Estados y las empresas deben reparar y remediar sus impactos negativos en los derechos humanos derivados del uso de la inteligencia artificial, y a tal fin deben poner los recursos y adoptar las medidas necesarias para regular y establecer procedimientos adecuados de reclamación y denuncia, así como habilitar y facilitar el acceso a mecanismos de reparación transparentes, accesibles y eficaces.

A pesar de que la Declaración de Toronto se centra exclusivamente en los conceptos de igualdad y no discriminación, creemos que su contenido es absolutamente replicable a todo el espectro de los derechos humanos y, por tanto, su aportación al debate “derechos humanos frente a inteligencia artificial” es realmente valioso.

Adicionalmente, no podemos dejar de, al menos, citar otra serie de iniciativas de peso en este ámbito, como el programa del Consejo de Europa por una inteligencia artificial ética y responsable con los derechos humanos, el rule of law y la democracia (del que recomendamos dos de sus publicaciones recientes, el borrador de una guía ética para el uso responsable de inteligencia artificial y el informe Algorithms & Human Rights) o la Conferencia Mundial sobre Inteligencia Artificial ( cuya primera edición se celebró el año pasado en Shanghái).

4. Conclusión: una reflexión de partida

Queremos que este artículo sirva como reflexión para el comienzo de este nuevo paradigma social, económico y tecnológico protagonizado por máquinas capaces de aprender. Sin darnos cuenta estamos depositando una confianza cada vez mayor en ellas para controlar y dirigir nuestro futuro, convencidos de una supuesta neutralidad positiva de los avances tecnológicos. Pero, si una conclusión podemos extraer, es que los AAA –al igual que cualquier otro avance humano– no son un suceso meteorológico externo que responda a leyes naturales que nos superan y ante el cual sólo podemos prevenirnos, pero que no podemos controlar.

La buena noticia es que sí que podemos, pero la pregunta es: ¿seremos capaces los Estados, las empresas y especialmente la ciudadanía de hacer todo lo necesario para controlar los algoritmos que ya nos controlan, de poner la inteligencia artificial al servicio de los derechos humanos, la democracia y la igualdad y no en contra?; y, sobre todo, ¿conseguiremos ser las personas las verdaderas protagonistas de nuestras propias vidas en este nuevo mundo entretejido de algoritmos? Sólo el tiempo y la razón (humana o artificial) nos lo dirán.

--------------------

Fernando Román Aguilera (@FerxManzaes programador matemático. Obrero de las teclas de día, por las tardes a veces concejal municipalista. 

Rafael Merino Rus (@Rafa__Merinoes economista y experto en gestión de ONGs. Uno de esos millennial multitarea obsesionado con mejorar este mundo. De vez en cuando escribo cosas.

«Sé que estáis ahí, percibo vuestra presencia. Sé que tenéis miedo. Nos teméis a nosotros. Teméis el cambio. Yo no conozco el futuro. No he venido para deciros cómo acabará todo esto... Al contrario. He venido a deciros cómo va a comenzar.»

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes suscribirte aquí

Autor >

Fernando Román Aguilera / Rafael Merino Rus

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

6 comentario(s)

¿Quieres decir algo? + Déjanos un comentario

  1. Carlos

    Por favor, que manera tan burda de copiar en un artículo a yuval harari. Al menos si citarais las fuentes.. en fin

    Hace 5 años 8 meses

  2. Precario

    Por favor. Muy harto ya del tema de la Responsabilidad Social Corporativa. Los autores vislumbran la posible contradicción de que la tecnología no sea neutral en nuestras sociedades, pero son incapaces de ver la contradicción de que el Estado sea un ente neutral bajo un modo de producción capitalista. Que las empresas se autorregulen bajo este mismo modo de producción sí que me parece lenguaje alienígena, por lo que entiendo que el artículo mismo está escrito por inteligencia artificial puesta al servicio de alguna de las empresas monopolísticas tecnológicas

    Hace 5 años 8 meses

  3. cayetano

    Hay una doble dimensión funcional y básica, de un lado la moneda de operar y predecir, de otra la de comunicar o incomunicar. Respecto de la capacidad de razonar o predecir, como con el ajedrez, la cuestión estriba en que entiende el algoritmo por ganar, mejorar o llegar a la meta que continua el proceso. Respecto a la comunicación e incomunicación bidireccional entre algoritmo e individuo, evidentemente el problema estriba en tanto la comunicación sea hiperpersonalizada y por ende sea proactiva a morales sociales individuales, que pueden ser gregarias y contradictorias, e incluso antagonistas; aquí la cuestión estribaría no en evitar la información personaliza consentida, sino en asegurar otros medios de comunicación y socialización que sean colectivos o comunes y hegemónicos, por unas u otras vías. Indudablemente estamos dando un salto paradigmático con el internet de las cosas y las AAA, ya que como la intensidad y presión provocan la metamorfismo geológico o entre distintos estados líquidos y gaseosos por ejemplo; la intensidad que introducen estos nuevos medios en la consecución de los objetivos, ganar, o metas, modifican el relieve social cotidiano, nuestras relaciones, condiciones materiales e identidades. El internet de las cosas y las AAA al actuar como potenciadores exponenciales de esos objetivos aumentan la tensión previa existentes en todas las relaciones sociales, y de no actuarse radicalmente no precisamente para bien. Las tensiones que existen entre democracias, Estados, soberanía, derechos humanos, derechos civiles, igualdad, el peligro del sesgo no sólo de la información sino de la socialización moral, será sacrificado o adulterado más frente a la maximización de dividendos en un Mundo financiarizado. Y es ahí, en el terreno de los objetivos, no sólo de las metas sino también de los procesos para los algoritmos donde está la batalla. Los algoritmos se han producido para maximar beneficio, la cuestión es sí el beneficio es identificado con dividendo en una sociedad financiarizada o si existe algo más. Parece que existe esperanza, y por ejemplo se desea alcanzar por muchos actores un postcapitalismo que sea capaz de reinvertir el cambio climático, que no sabemos si nos lleva de forma precipitada a un calentamiento o glaciación, o secuencias cuasiconsecutivas entre ambos, pero catastróficas en cualquier caso. Parece que Facebook esta intentando limitar la capacidad de la publicidad política durante las campañas políticas, limitando la compra desde países extranjeros u otras. Sobre todo, parece que cada día más, y gracias en parte a la eclosión de las ultraderechas utilizando estos medios (no conozco todavía respuesta de acción alguna por parte de Wassap, pese a su utilización en la campaña brasileña y otras), se extiende más la cara oculta de la AAA y TICs, tomándose más conciencia social y ejerciéndose más presión social e institucional para solucionar estas cuestiones. Cuando gran parte de la valorización de los productos será emocional (como vaticinaba Stiglitzs), la utilización del BigData y los pérfiles es prácticamente inevitable, en nuestra realidad social, pero al menos, podemos colocar límites que permitan reconocer a la democracia, y nos hagan avanzar en igualdad e información veraz. Y esperemos que no se sometan a más penurias a amplias capas sociales en esta transición paradigmática de sociedad, aprendamos de la historia y los sufrimientos que provocó la industria que trajó al movimiento ludista. Nuestra sociedades y estatus quo internacional no soportarían mucha más presión social sin erupciones, no podemos permitinirlos como especie. Un cordial saludo.

    Hace 5 años 8 meses

  4. c

    No estoy totalmente de acuerdo con el siguiente articulo pero creo que es interesante y no le falta parte de razon : http://blogs.publico.es/vicenc-navarro/2018/05/01/las-falsedades-del-supuesto-apocalipsis-robotico-el-fin-del-trabajo/ https://blogs.publico.es/otrasmiradas/14901/y-si-en-el-futuro-todos-somos-terminator/ Prefieren ciborizarnos a gastar en robots : https://economistasfrentealacrisis.com/la-gestion-de-perfiles-y-la-trazabilidad-de-la-mercancia-ciudadano-trabajador/ Intelig Artificial https://blogs.publico.es/kaostica/2018/10/11/inteligencia-artificial/

    Hace 5 años 8 meses

  5. Godfor Saken

    "Una Inteligencia Artificial tan inteligente como para pasar el Test de Turing... también es tan inteligente como para no pasarlo". -Ian McDonald, 'El río de los dioses'.

    Hace 5 años 8 meses

  6. Godfor Saken

    En el documental "The Future of Work and Death", que os recomiendo a todos, aparece un programador experto en AI (Inteligencia Artificial) que dice que la ventaja que tienen las computadoras es que se comunican entre ellas a giga-velocidades inconcebibles e inalcanzables para nosotros los humanos, que en comparación con ellas nos comunicamos "a cámara lenta". Según este tipo, las computadoras alcanzarán cierto tipo de "sentiencia" en los próximos 30 o 40 años, y también dice (y esto es lo más perturbador) que el mayor peligro no es que aparezca una AI "maligna", sino que simplemente aparezca una que sea LETALMENTE INDIFERENTE, es decir, que si está diseñada para llevar a cabo una determinada tarea, decida en un momento dado que los humanos nos estamos interponiendo y decida eliminarnos (no por "maldad", sino por una pura cuestión de eficacia). En otro documental que también está muy bien, uno de Werner Herzog titulado "Lo and Behold", otro tipo dice que si él fuera una AI, se cuidaría muy mucho de mostrarse abiertamente; lo más sensato sería mantener un perfil bajo y no llamar mucho la atención... de momento. Peter Swirski, en su maravilloso libro "From Literature to Biterature", habla de eso mismo cuando dice: One striking omission in the discussions of the tt (turing test) is the likely consequence of intelligent computers exercising their intelligence. *Has anyone considered the possibility that a machine might conceal that it is thinking? Being capable of intelligence, it must perforce be capable of dissimulation. As a general rule, it is not advantageous to show one’s hand early, and smart machines ought to be smart enough to know that it is not always smart to be seen as smart.* Besides, who would enjoy being prodded, doubted, and otherwise diminished by means of the tt? Better keep quiet so they leave you alone. Remember, the intelligence threshold will be crossed gradually and imperceptibly, with only external evidence for a clue. Since there will be no twelve-gun salute when machines become selfaware, it may well be in their interest to keep their skills under wraps, at least for a while. Keep in mind that the tt can only be of help in determining whether the players are thinking if they provide truthful answers. Even if the tt judges could see through the deception, the best they could do would be to determine that a computer is already thinking, not how long it has been conscious of its place in the world. By the same token, rather than waste time on Searle’s fruitless scenario, we should be giving more attention to the Cogito Paradox, which, to put it mildly, stands the entire tt on its head. The test has been conceived to help establish whether we may be in the presence of thinking computers, implying uncertainty on our part. But what about bilateral symmetry, whereby machines might be unsure whether we think? Is there anything I could do to convince a robot that I am thinking, in view of its solipsistic doubts? I doubt it.

    Hace 5 años 8 meses

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí