1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

  281. Número 281 · Febrero 2022

  282. Número 282 · Marzo 2022

  283. Número 283 · Abril 2022

  284. Número 284 · Mayo 2022

  285. Número 285 · Junio 2022

  286. Número 286 · Julio 2022

  287. Número 287 · Agosto 2022

  288. Número 288 · Septiembre 2022

  289. Número 289 · Octubre 2022

  290. Número 290 · Noviembre 2022

  291. Número 291 · Diciembre 2022

  292. Número 292 · Enero 2023

  293. Número 293 · Febrero 2023

  294. Número 294 · Marzo 2023

  295. Número 295 · Abril 2023

  296. Número 296 · Mayo 2023

  297. Número 297 · Junio 2023

  298. Número 298 · Julio 2023

  299. Número 299 · Agosto 2023

  300. Número 300 · Septiembre 2023

  301. Número 301 · Octubre 2023

  302. Número 302 · Noviembre 2023

  303. Número 303 · Diciembre 2023

  304. Número 304 · Enero 2024

  305. Número 305 · Febrero 2024

  306. Número 306 · Marzo 2024

CTXT necesita 15.000 socias/os para seguir creciendo. Suscríbete a CTXT

seguridad

Los riesgos del reconocimiento facial

Ante la inminente aprobación de la ley europea sobre Inteligencia Artificial, las autoras alertan sobre los sesgos en el entrenamiento algorítmico y la posible intromisión en la intimidad de las personas

Simona Levi / Miriam Carles / Sanne Stevens 13/06/2023

<p>Lectura biométrica de la cara mediante líneas láser.<strong> / Cottonbro Studio. Pexels</strong></p>

Lectura biométrica de la cara mediante líneas láser. / Cottonbro Studio. Pexels

En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí

Hay multitud de identificadores biométricos. Algunos son de comportamiento, como el reconocimiento de la firma, la voz, la escritura o la manera de andar. Otros son fisiológicos, como la huella dactilar, el iris o la retina, el reconocimiento vascular, facial o de la geometría de la mano. Estos últimos se han hecho populares a modo de código para identificar a las personas de forma unívoca, entendiendo el cuerpo como un recurso de exactitud y precisión que puede funcionar como “contraseña”.

En lo que respecta a la biometría para el reconocimiento personal, cualquier característica biológica o de comportamiento es utilizable como identificador biométrico si cumple al menos cuatro requisitos básicos: coleccionabilidad (el elemento se puede capturar), universalidad (el elemento existe en todas las personas), unicidad (el elemento debe ser distintivo por cada persona) y permanencia (la propiedad del elemento permanece en el tiempo).

Las organizaciones internacionales de referencia en la defensa de los derechos humanos en el ámbito digital coincidimos en que “el acelerado crecimiento en el uso de tecnologías biométricas para la identificación (…) plantea una serie de cuestiones relativas no sólo al impacto de estas tecnologías sobre la libertad de expresión y de acción en espacios públicos, sino a la autonomía y a la identidad del individuo”, como explica este informe de Marianne Díaz para derechos digitales.

A diferencia de una contraseña, los indicadores biométricos no pueden simplemente restablecerse o cambiarse según sea necesario

Los datos biométricos son vulnerables a ataques, al igual que otros métodos de autenticación. Sin embargo, a diferencia de una contraseña, los indicadores biométricos no pueden simplemente restablecerse o cambiarse según sea necesario. Esto plantea un mayor riesgo de seguridad, puesto que se hace cada vez más difícil reparar el daño causado por fugas o ataques y restaurar el buen funcionamiento de los sistemas basados en biometría y la integridad física de las personas involucradas.

No son más seguros. Recientemente, el riesgo que comporta el uso malicioso de esta información se ha agravado con la suplantación de identidad mediante deep fakes o deep voices en los que interviene la IA. Ya es posible incluso crear “huellas maestras” que combinen las características comunes de varias personas permitiendo su identificación con una sola huella.

Es prácticamente imposible recuperar la privacidad del individuo ya que no se puede cambiar de identidad de la cara, una información permanentemente expuesta

Así pues, el principal inconveniente del uso de estas tecnologías es que, una vez se pierde el control, es prácticamente imposible recuperar la privacidad del individuo ya que no se puede cambiar de identidad ni de cara, una información permanentemente expuesta, ni las huellas dactilares, que, a pesar de no estar tan expuestas, tienen la peculiaridad de que pueden ser recogidas también sin que el individuo se dé cuenta, tal y como ha enfatizado incluso la Comisión Nacional de la Informática y las Libertades.

Nada es más personal que la propia cara. Reúne varios elementos que configuran nuestras identidades únicas. La recogida, análisis y almacenamiento de datos personales innatos es altamente invasiva e incluso puede revelar más información sobre una persona, como sus datos de salud.

Los programas de reconocimiento facial, incluidos los sistemas de verificación e identificación, crean, recogen, comparan y retienen plantillas faciales de las personas. Aunque el reconocimiento facial eclosionó hace tiempo en el ámbito de la investigación privada y académica, recientemente las administraciones, gobiernos y legisladores le han empezado a prestar atención.

La magnitud de los problemas con la tecnología de reconocimiento facial resuena por las muchas ciudades que han decidido prohibirla. Sin embargo, otras ciudades y pueblos han invertido grandes cantidades en esta tecnología y empresas como Clearview AI, TrueFace, AnyVision, Affectiva, Kairos, Accenture, BioID o Leidos han hecho su agosto.

El reconocimiento facial tiene un alto riesgo de automatizar sesgos ya penetrantes en las sociedades

En palabras del Comité Europeo de Protección de Datos, “el reconocimiento facial puede socavar el derecho al respeto de la vida privada y la protección de los datos personales, pero también otros derechos y libertades fundamentales (en particular la libertad de expresión e información, la libertad de reunión y asociación y la libertad de pensamiento, conciencia y religión). Además, puede afectar a la expectativa razonable de anonimato de los individuos en los espacios públicos y plantea cuestiones más amplias desde el punto de vista ético y social”. También se ha demostrado que estos sistemas tienen muchos problemas de precisión, por ejemplo, tienden a ser menos precisos para identificar a personas negras. En las pruebas que realizó la policía de Londres con esta tecnología para buscar a sospechosos se produjeron gran cantidad de errores y falsos positivos.

El procesamiento de datos biométricos se basa en estimaciones estadísticas de coincidencia entre los elementos comparados. Por tanto, es intrínsecamente falible. La respuesta que ofrece un sistema de comparación biométrica nunca es binaria (sí o no); sino que es una probabilidad de coincidencia. Además, las plantillas biométricas calculadas son siempre distintas en función de las condiciones en las que se calculan (luminosidad, ángulo, calidad de la imagen, resolución de la cara, etc.). Así pues, cualquier dispositivo se caracteriza por un rendimiento variable en función, por un lado, de los objetivos que se le asigne y, por otro, de las condiciones en las que se recogen las imágenes y se comparan. Esto significa además que el reconocimiento facial tiene un alto riesgo de automatizar sesgos ya penetrantes en las sociedades.

Algunos ejemplos:

– Policía de Londres. Después de escanear las caras de 8.600 personas para buscar criminales, de ocho identificaciones realizadas, siete resultaron erróneas.

– Congresistas de Estados Unidos. En 2018, la tecnología de reconocimiento facial de Amazon confundió a 28 congresistas con criminales condenados cuando la American Civil Liberties Union (ACLU) cruzó una base de datos con 25.000 fotos públicas de delincuentes con las fotografías de 535 miembros del Congreso.

– Registro nacional de personas buscadas por la policía. En Buenos Aires se puso en marcha un sistema de reconocimiento facial en vivo para encontrar a prófugos. Un niño de cuatro años fue considerado sospechoso de haber cometido “delitos de lesiones graves contra las personas”.

– Fútbol. Una cámara controlada por inteligencia artificial confundió la cabeza de un árbitro (calvo) con la pelota.

– Estudio sobre la influencia de la demografía en el rendimiento de los algoritmos de reconocimiento facial. Los resultados demuestran que los algoritmos son menos precisos en la identificación de mujeres, personas negras y entre las edades de 18 a 30 años.

Además, debe considerarse la desviación de la utilización de datos altamente sensibles. La paulatina ampliación del uso de datos, de una tecnología o sistema más allá de la finalidad para la que estaba pensada originalmente, es un problema habitual, lo que a menudo conduce a una posible invasión de la privacidad y mal uso de la información. Este riesgo es aún mayor, ya que a menudo existe una colusión entre registros públicos delicados y empresas privadas que construyen estas herramientas y bases de datos. Son notorios los casos recientes de empresas que no cumplen las normas básicas de privacidad de datos y que utilizan imágenes sin consentimiento para entrenar sus algoritmos.

La posible intromisión ilegítima en la intimidad de las personas implican que los riesgos siguen siendo mayores que los beneficios obtenidos

En resumen, como señala la Comisión Nacional de la Informática y las Libertades francesa, “el reconocimiento facial, como otras técnicas biométricas, nunca es un tratamiento completamente inofensivo. Incluso el uso muy encuadrado puede, en caso de ciberataque, compromiso o error, tener consecuencias especialmente graves”.

A la vista de lo expuesto, creemos que los sistemas que incluyan reconocimiento biométrico y/o facial basados en IA pueden suponer un grave ataque a los derechos y libertades fundamentales, aún cuando cumplen con los criterios de usabilidad, transparencia, auditabilidad y rendición de cuentas.

En concreto, la posibilidad de causar perjuicios discriminatorios a consecuencia de los sesgos en el entrenamiento algorítmico y la posible intromisión ilegítima en la intimidad de las personas implican que los riesgos siguen siendo mayores que los beneficios obtenidos con su uso.

Creemos que la IA puede mejorar la vida de las personas y la organización social. Pero deben tener tenerse en cuenta criterios éticos, así como los derechos humanos, el derecho de elección, la minimización desde el diseño y por defecto o la titularidad no monetizable, entre otras muchas salvaguardias como base de cualquier protocolo si no queremos que el efecto sea justo el contrario.

---------------------

Este texto es la adaptación de una parte de la contribución de Xnet al Proyecto Gavius, para la EU Urban Innovative Actions (marzo 2023).

Licencia Creative Commons 4.0 BY SA.

Hay multitud de identificadores biométricos. Algunos son de comportamiento, como el reconocimiento de la firma, la voz, la escritura o la manera de andar. Otros son fisiológicos, como la huella dactilar, el iris o la retina, el reconocimiento vascular, facial o de la geometría de la mano. Estos últimos se han...

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes suscribirte aquí

Autor >

Simona Levi / Miriam Carles / Sanne Stevens

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí