1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

  281. Número 281 · Febrero 2022

  282. Número 282 · Marzo 2022

  283. Número 283 · Abril 2022

  284. Número 284 · Mayo 2022

  285. Número 285 · Junio 2022

  286. Número 286 · Julio 2022

  287. Número 287 · Agosto 2022

  288. Número 288 · Septiembre 2022

  289. Número 289 · Octubre 2022

  290. Número 290 · Noviembre 2022

  291. Número 291 · Diciembre 2022

  292. Número 292 · Enero 2023

  293. Número 293 · Febrero 2023

  294. Número 294 · Marzo 2023

  295. Número 295 · Abril 2023

  296. Número 296 · Mayo 2023

  297. Número 297 · Junio 2023

  298. Número 298 · Julio 2023

  299. Número 299 · Agosto 2023

  300. Número 300 · Septiembre 2023

  301. Número 301 · Octubre 2023

  302. Número 302 · Noviembre 2023

  303. Número 303 · Diciembre 2023

  304. Número 304 · Enero 2024

  305. Número 305 · Febrero 2024

  306. Número 306 · Marzo 2024

  307. Número 307 · Abril 2024

CTXT necesita 15.000 socias/os para seguir creciendo. Suscríbete a CTXT

Carta al Gobierno

Sobre los riesgos del reconocimiento y análisis facial

Es urgente una comisión de investigación que estudie establecer una moratoria hasta que el Parlamento y las instituciones europeas debatan cómo y con qué garantías y objetivos podrían usarse y comercializarse estos sistemas

Ujué Agudo / David Casacuberta / Ariel Guersenzvaig / Karlos G. Liberal y 66 firmas más 25/03/2021

<p>Tecnología de reconocimiento facial.</p>

Tecnología de reconocimiento facial.

Mirko Tobias Schäfer

En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí

Al Gobierno de España:

Mediante esta carta abierta pedimos al gobierno una comisión de investigación que estudie la necesidad de establecer una moratoria en el uso y comercialización de sistemas de reconocimiento y análisis facial por parte de empresas públicas y privadas hasta que la Cortes Generales y las instituciones legislativas europeas debatan cuáles, de qué manera, en qué condiciones, con qué garantías y con qué objetivos debe permitirse, si cabe, el uso de estos sistemas.

Con regularidad se publican en medios generalistas y especializados noticias acerca de nuevos usos masivos para estos sistemas. A modo de ejemplo reciente podemos citar el caso de Renfe, que ha publicado (y luego retirado) una licitación para desarrollar un sistema de reconocimiento y análisis que, entre otras cosas, debía permitir identificar el género, la etnia o incluso el estado emocional de usuarias y usuarios. Asimismo, dicho sistema debía poder analizar las imágenes y alertar acerca de “peleas” o “actitudes antisociales”. Sistemas similares ya están disponibles para entornos educativos, laborales, sanitarios, de ocio y muchos otros, tanto públicos como privados.

La preocupación que motiva esta carta tiene que ver con los potenciales efectos perniciosos que estos sistemas pueden tener sobre el bienestar, los intereses y las necesidades y derechos fundamentales de la población española en general. Por ello nos parece necesario que el Gobierno intervenga de manera rápida antes de que estos sistemas continúen expandiéndose y se conviertan en estándares de facto, a pesar de la intromisión que suponen en la esfera privada de las personas sin su consentimiento explícito. Están en juego cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión.

Los sistemas de reconocimiento y análisis de imágenes de personas (de sus caras, gestos, peinados, posturas y movimientos corporales, vestimenta, texturas y/o colores de piel) y, por extensión, los algoritmos de aprendizaje automático que los sustentan computacionalmente tienen graves problemas que han sido ampliamente documentados y discutidos por la comunidad científica y entidades gubernamentales y civiles[1]. A continuación, presentamos una breve selección:

1. Asociar a una persona una determinada característica o tendencia (normalmente representada a través de una puntuación individual) con base en estadísticas poblacionales es altamente problemático, tanto desde un punto de vista epistémico como ético. La puntuación individual (un score o un porcentaje probabilístico) puede identificar a un estudiante como probable tramposo o a un posible cliente de un banco como potencial moroso debido a que otros “similares a él” han sido morosos, o a una candidata a un puesto de trabajo como poco concienzuda, debido también a que candidatas de perfil similar han resultado ser poco concienzudas. Es muy problemático cuando un sistema toma decisiones operativas que afectan a personas individuales con base en predicciones que pueden ser válidas únicamente a nivel de grupo. Que una persona sea clasificada en una categoría o perfil determinados no determina su comportamiento futuro, esto viola la idea fundamental de que los seres humanos tenemos libre albedrío y que nuestro comportamiento no está determinado de antemano, sino que disfrutamos de un espacio de libertad de decisión y propósito. Las eventuales predicciones que se puedan hacer solo son válidas a nivel colectivo y nunca deberían transformarse en decisiones automatizadas que afecten a las personas a nivel individual.

2. En línea con lo anterior, hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos “problemáticos”, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas y/o sexistas[2]. Estas clasificaciones, no cuentan, además, con base científica[3] y están claramente asociadas a experimentos nefastos del pasado como la eugenesia, la frenología o la criminalística de Lombroso. Más allá de correlaciones estadísticas que no implican relaciones causa-efecto, no hay modelos científicos aceptados en psicología, antropología o sociología que indiquen que un tipo de nariz, un rictus particular o una manera de andar sean predictores adecuados de comportamientos individuales futuros. Por ejemplo, la probabilidad de delinquir, de aprender historia o ingeniería o de desempeñarse correctamente en un trabajo no dependen de ninguna de esas variables que los sistemas de reconocimiento facial recogen y analizan para clasificar a las personas y tomar decisiones sobre ellas.

3. En los sistemas de reconocimiento y análisis facial resulta especialmente complejo explicar por qué motivo y con base en qué criterios se ha clasificado a una persona en tal o cual categoría. Por esta dificultad para establecer una relación clara entre la entrada de datos y la predicción o recomendación de salida, los algoritmos de aprendizaje necesarios para estos sistemas se consideran cajas negras cuya opacidad dificulta saber cómo toman sus decisiones y en qué criterios las basan. Además, las propias categorías se integran en la caja negra aumentando, si cabe, su opacidad. Si bien es técnica y teóricamente posible desarrollar sistemas más transparentes, los sistemas actuales no están especialmente diseñados para permitir una rendición de cuentas que se ajuste a los requerimientos de una sociedad democrática.

4. Estos sistemas además son poco robustos ya que la calidad de sus resultados es altamente dependiente de cuestiones contextuales. Por ejemplo, que el sistema sea utilizado en condiciones de luz similares a las de las imágenes utilizadas para el “entrenamiento” del sistema. Cuando las condiciones difieren de las utilizadas durante el entrenamiento los resultados pueden no ser correctos dando lugar tanto a falsos positivos como a falsos negativos. Incluso desde el ámbito privado hay resistencia al uso de esta tecnología por sus debilidades[4].

5. Es fácil que un sesgo muestral afecte de manera notable la calidad predictiva de un sistema cuando diferentes grupos no están representados de forma igualitaria en los datos de entrenamiento. Por ejemplo, aplicaciones de radiología que exhiben índices de éxito predictivo altamente prometedores en personas de piel clara muestran resultados mucho peores con personas de piel más oscura[5].

Debido a las graves deficiencias y riesgos que presentan estos sistemas, los posibles beneficios que quizás podrían ofrecer no compensan de ninguna manera sus potenciales efectos negativos, en especial para los grupos y colectivos que suelen sufrir injusticias y tratos discriminatorios: entre otros, mujeres, personas LGTBIQ+[6], personas racializadas, migrantes, personas con discapacidad o personas en situación de pobreza y riesgo de exclusión social.

No hemos comentado aquí otra gama de cuestiones relevantes como el profundo condicionamiento coercitivo que trae aparejada una vigilancia ubicua. Tampoco hemos considerado cuestiones de privacidad, seguridad o el consentimiento para la recogida y tratamiento de los datos (algo que en investigación con humanos es absolutamente necesario, y que no parece estar siendo aplicado en la utilización de estos sistemas[7]) y hemos preferido concentrarnos en cuestiones de justicia social e igualdad. Sin embargo, vale la pena apuntar que se trata de problemas interrelacionados, dado que los datos recogidos mediante sistemas para reconocimiento y análisis facial potencian los riesgos y efectos negativos en los otros ámbitos.

Existe pues una variada gama de razones (tanto técnicas como éticas) que justifican la creación de una comisión para investigar la necesidad de una moratoria, que nosotros consideramos imprescindible y urgente. Sugerimos que esta comisión sea independiente y esté compuesta por científicos, juristas, expertos en ética e inteligencia artificial y por miembros de la sociedad civil, especialmente de aquellos colectivos que pueden verse prima facie afectados por estos sistemas. Es muy importante, además, aprovechar esta oportunidad para llevar a cabo un profundo debate social acerca del rol que estos sistemas pueden jugar en nuestras vidas y bajo qué condiciones.

Firmantes (en orden alfabético)

* Las firmas son adhesiones a título personal y no representan a las instituciones mencionadas.

Ujué Agudo Díaz, Responsable de Bikolabs, Biko.

Patricia Amigot Leache, Profesora Dpto. Sociología y Trabajo Social, Universidad Pública de Navarra (UPNA).

Pablo Aragón, Profesor Asociado, Universitat Pompeu Fabra.

Ignacio Arganda Carreras, Ikerbasque Research Associate, Universidad del País Vasco/ Euskal Herriko Unibertsitatea.

César Astudillo González, Asesor Independiente de Diseño Estratégico e Innovación Profesor Asociado / Program Leader - Masters in Design and Innovation, Istituto Europeo di Design (Madrid).

Txetxu Ausín, Científico Titular, Instituto de Filosofía, CSIC.

José L. Aznarte, Profesor titular del departamento de IA y Vicerrector adjunto de Digitalización e Innovación, UNED.

Manuela Battaglini Manrique de Lara, Abogada y consultora de Ética Digital, CEO, Transparent Internet.

Alejandro Benito-Santos, Investigador Postdoctoral, Universidad de Salamanca.

Ana Bravo, Profesora contratada doctor, Universidad de Murcia.

Marcel Cano Soler, Profesor asociado, Universidad de Barcelona, Universidad de Vic. 

David Casacuberta, Profesor de filosofía, Universidad Autónoma de Barcelona.

Diego Casado Mansilla, Profesor e investigador (ayudante doctor), Facultad de ingeniería, Universidad de Deusto.

Mario Castro Ponce, Catedrático de Universidad, Universidad Pontificia Comillas. 

Diego Cenzano Cestafe, CEO, Biko.

Laura Clèries García, Directora de Elisava Research, Facultad de Diseño e Ingeniería Elisava.

Jesús Conill Sancho, Catedrático de Filosofía Moral, Universidad de Valencia.

Adela Cortina, Catedrática Emérita de Ética y Filosofía Política, Universidad de Valencia. 

Pilar Dellunde, Catedrática Universitaria e Investigadora, IIIA-CSIC.

Lorena Fernández Álvarez, Directora de comunicación digital, Universidad de Deusto. 

Jorge Flores Fernández, Director, PantallasAmigas.

Luis Fuentes Melero, Catedrático de Universidad, Universidad de Murcia.

Albert Fuster Martí, Director académico, Facultad de Diseño e Ingeniería Elisava. 

Gemma Galdon Clavell, Presidenta, Fundación Eticas 

Daniel Gamper, Profesor Titular de Filosofía Política, Universitat Autónoma de Barcelona. 

Pablo Garaizar Sagarminaga, Profesor/investigador, Universidad de Deusto.

Andrea García Rodríguez, Investigadora, CIDOB (Barcelona Centre for International Affairs). 

Iñigo González Ricoy, Profesor agregado de Filosofía, Universitat de Barcelona.

Ariel Guersenzvaig, Profesor titular, Facultad de Diseño e Ingeniería Elisava.

Yusef Hassan Montero, Director del Máster de Diseño de Experiencia de Usuario, Universidad Internacional de la Rioja.

Angel Ferrández Izquierdo, Catedrático de Universidad, Universidad de Murcia.

Miren Itziar Laka Mugarza, Catedrática del Departamento de Lingüística y Estudios Vascos, Universidad del País Vasco/ Euskal Herriko Unibertsitatea. 

Simona Levi, XNet, XNet.

Karlos G. Liberal, Responsable de Bikolabs, Biko.

Rosa Llop, Profesora e investigador residente, Hangar, Centro de Investigación y Producción Artística. / Facultad de Diseño e Ingeniería Elisava.

José Antonio Llorente Sesma, Profesor asociado MU y Doctorando UOC, MU Facultad de empresariales, Mondragon Unibertsitatea.

Mª Teresa López de la Vieja, Catedrática, Universidad de Salamanca.

Cristina López Tarrida, Ingeniero, Analista de Contrainteligencia, Profesional independiente.

Ramon López de Mántaras, Premio Nacional de Investigación “Julio Rey Pastor” en Matemáticas y TIC 2018, Institut d'Investigació en Intel.ligència Artificial CSIC.

Nerea Luis Mingueza, Doctora, divulgadora y profesora asociada, Universidad/institución UNIR y Universidad Nebrija.

David Luque Ruiz, Investigador (Captación de Talento, Senior), Universidad Autónoma de Madrid. 

Pablo Malo Ocejo, Psiquiatra, Red de Salud Mental de Bizkaia. Osakidetza.

Pablo Martín, CTO, Political Watch.

Manuel Martín-Loeches Garrido, Catedrático de Psicobiología, Universidad Complutense de Madrid.

Juan Ramón Martín San Román, Profesor Encargado de Cátedra Facultad de Comunicación, Universidad Pontificia de Salamanca.

Laureano Martinez, Profesor Ayudante Doctor, Universidad Pública de Navarra.

Emilio Martínez Navarro, Catedrático de Filosofía Moral y Política, Director del Departamento de Filosofía, Facultad de Filosofía de la Universidad de Murcia.

Pablo Martínez Garrido, Investigador, Universidad del País Vasco / Euskal Herriko Unibertsitatea. 

Helena Matute Greño, Catedrática de Psicología, Universidad de Deusto, Bilbao.

Imanol Miramón Monasterio, Editor, Editorial Katakrak.

Núria Sara Miras Boronat, Profesora agregada Facultad de Filosofía, Universitat de Barcelona. 

Luis Montero Montero, Autor, Pensar el diseño.

Roger Paez i Blanch, Profesor titular e investigador, Facultad de Diseño e Ingeniería Elisava.

Mª José Pedraja Linares, Profesora Titular, Departamento de Psicología Básica y Metodología, Universidad de Murcia.

Javier Peña Andrés, Director Científico, Facultad de Diseño e Ingeniería Elisava.

Juan Ignacio Pérez Iglesias, Director de la Cátedra de Cultura Científica, Universidad del País Vasco. 

Angel Puyol, Catedrático de Ética, Universitat Autònoma de Barcelona.

Emmanuel Rodríguez López, Editor, Traficantes de Sueños. 

David Rodríguez-Arias, Profesor Titular, Universidad de Granada.

Begoña Román Maestre, Profesora agregada Facultad de Filosofía, Universidad de Barcelona. 

Charo Sádaba, Profesora titular, Facultad de Comunicación, Universidad de Navarra.

Javier Sánchez Monedero, Investigador Distinguido “Beatriz Galindo”, Universidad de Córdoba.

Ramon Sangüesa Solé, Profesor Titular, Dept. Ciencias de la Computación. Universitat Politècnica de Catalunya.

Rodrigo Santamaría, Profesor Titular del Departamento de Informática y Automática, Universidad de Salamanca.

Borja Sanz Urquijo, Profesor e Investigador Facultad Ingeniería, Universidad de Deusto. 

Carles Sierra, Director Institut d’Investigació en Intel·ligència Artificial, IIIA-CSIC.

Ofelia Tejerina Rodríguez, Presidenta, Asociación de Internautas.

Roberto Therón Sánchez, Profesor Titular, Ciencia de la Computación e Inteligencia Artificial, Universidad de Salamanca.

Ana Valdivia, Research Associate, King’s College London (UK).

Francisco R. Villatoro Machuca, Profesor Titular de Ciencia de la Computación e Inteligencia Artificial, Universidad de Málaga.

Nuevas adhesiones:

http://bit.ly/CartaalGobierno

Notas:

1. Por ejemplo, European Union Agency for Fundamental Rights, European Digital Rights (EDRi), Ada Lovelace Institute, AlgorithmWatch, Algorithmic Justice League, y la American Civil Liberties Union entre muchas otras.

2. Ver por ejemplo Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim Code. Cambridge: Polity; o Comisión Europea (2020). Gendered innovations 2. How inclusive analysis contributes to research and innovation Bruselas: Dirección General de Investigación e Innovación de la Comisión Europea.

3. Barrett, L. F., Adolphs, R., Marsella, S., Martinez, A. M., y Pollak, S. D. (2019). Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements. Psychological Science in the Public Interest, 20(1), 1-68.

4. Es el caso del proveedor corporativo más grande del mundo de cámaras para cuerpos de policía (Axon), que en el año 2019 anunció que no desplegaría tecnología de reconocimiento facial en ninguno de sus productos, “porque era demasiado poco fiable para el trabajo policial y podría exacerbar las desigualdades existentes en el trabajo policial, por ejemplo, penalizando a las comunidades negras o LGBTQ”. Crawford, K. (2019). Regulate facial-recognition technology. Nature, 572, 565.

5. Adamson, A. S., y Smith, A. (2018). Machine learning and health care disparities in dermatology. JAMA Dermatology, 154(11), 1247-1248.

6. Keyes, O. (2018). The misgendering machines: Trans/HCI implications of automatic gender recognition. Proc. ACM Hum.-Comput. Interact., 2(CSCW), Article 88.

7. Somos conscientes de que el Reglamento General de Protección de Datos de la Unión Europea, entre otras leyes, ya regula el tratamiento de datos especialmente protegidos como el origen racial o la orientación sexual, y dispone la prohibición del tratamiento de datos biométricos dirigidos a identificar a una persona específica, así como la necesidad de la obtención de consentimiento informado previo y de garantizar la seguridad de los datos tratados.

Al Gobierno de España:

Mediante esta carta abierta pedimos al gobierno una comisión de investigación que estudie la necesidad de establecer una moratoria en el uso y comercialización de sistemas de reconocimiento y análisis facial por parte de empresas públicas y privadas hasta que la Cortes Generales y...

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes suscribirte aquí

Autor >

Ujué Agudo / David Casacuberta / Ariel Guersenzvaig /

Autor >

Karlos G. Liberal y 66 firmas más

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí