ciberacoso
Inteligencia artificial al servicio de la pornografía: cuando tu cara está en un vídeo falso
Los nuevos algoritmos permiten revivir a Lola Flores o crear un Tom Cruise ‘fake’. Pero, sobre todo, se usan en el porno. El 96% de los vídeos manipulados son pornografía y el 100% de las víctimas, mujeres
Gabriela Martínez 13/04/2021
En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí
Un día la activista y abogada australiana Noelle Martin descubrió que circulaban en internet desde hace meses dos vídeos porno con su rostro. Parecía ella pero no era ella. Alguien había tomado y manipulado las fotos de sus redes sociales y creado falsos vídeos porno con ellas. Tenía entonces 17 años.
Martin, que tiene ahora 26 años, acudió a la policía pero no consiguió nada. “No había ninguna ley específica en ese momento”, recuerda. Intentó entonces retirar el material pero este seguía difundiéndose en la red y cada vez era más difícil controlarlo.
“Sentí que no tenía otra opción más que hablar”, asegura.
La poeta inglesa Helen Mort también decidió hablar luego de que le ocurriera algo similar. La mujer se llevó una terrible sorpresa cuando vio su rostro en vídeos sexuales explícitos y violentos. Su cara y su nombre circulaban con total libertad en una página de pornografía. Pero, por más reales que parecieran, esas imágenes eran falsas. Ella nunca había compartido fotos íntimas. Alguien había editado esos vídeos con imágenes suyas tomadas a lo largo de los últimos tres años de fotos con su familia y de vacaciones que había compartido en sus redes sociales.
La policía en Reino Unido tampoco hizo nada por ella.
Mort, también locutora, maestra y madre, fue a la policía en Reino Unido. Pero esta no pudo hacer nada por ella. Aunque algunas formas de pornovenganza son ilegales en este país, no existe una regulación propia para los videos falsos, o deepfakes, como aquellos en los que aparecía ella. “Mi calvario me dejó asustada, avergonzada, paranoica y devastada”, ha asegurado en una campaña que lanzó para cambiar las leyes.
Hechos con herramientas de inteligencia artificial, los deepfakes permiten hacer que la gente diga cosas que nunca dijo y que haga cosas que nunca hizo. Como hacer revivir a la fallecida cantante Lola Flores o crear un falso actor Tom Cruise hablando en TikTok y jugando golf.
Las páginas más importantes de pornografía recibieron más de 134 millones de visualizaciones de vídeos con rostros de famosas de todo el mundo en febrero de 2018
El término fue empleado por primera vez por un usuario de la red social Reddit en noviembre de 2017, quien creó un foro dedicado a utilizar un software para intercambiar caras de mujeres famosas en vídeos pornográficos. Un algoritmo de aprendizaje automático coloca el rostro en una imagen seleccionada mediante una técnica de mapeo facial, manteniendo las proporciones, y luego lo replica en los sucesivos fotogramas del vídeo.
Y desde entonces su principal uso es precisamente ese: crear contenido pornográfico sin consentimiento. Según un estudio de la startup de ciberseguridad Sensity AI con sede en Ámsterdam, el 96% de estos vídeos falsos es pornografía no consentida. Y el 100% de las víctimas son mujeres.
La empresa descubrió que ocho de los 10 principales sitios de pornografía tiene contenido falso. Las cuatro páginas más importantes recibieron más de 134 millones de visualizaciones de vídeos con rostros de mujeres famosas de todo el mundo en febrero de 2018.
Muchos de estos vídeos son creados para silenciar a las mujeres. “Habían creado estos vídeos como un arma para intimidarme porque yo era una activista que hablaba de estos abusos”, asegura Martin. “Creo que es solo cuestión de tiempo para que veamos que esto ocurre a una escala tan amplia que puede afectar a las mujeres de todo el mundo”, agrega.
Como advierte Nina Schick, especialista en ciberseguridad y tecnología en el libro Deepfakes: el próximo infocalipsis, cualquiera puede ser objeto de estos. Y su creación no para de crecer. La periodista asegura que en 2021 una proporción cada vez mayor de los vídeos en línea serán sintéticos, generados total o parcialmente con inteligencia artificial. Para Schick, los deepfakes son la última amenaza de un ecosistema informativo roto, caracterizado por la desinformación. Por ello, estos se desarrollarán más como armas de fraude y propaganda política, precisa.
Más de 100.000 mujeres han sido víctimas del bot. El 70% de las víctimas son mujeres cuyas fotos fueron tomadas de sus redes sociales
Cada vez es más fácil crear un deepfake de cualquier mujer desnuda. Tras la aparición de DeepNude, una aplicación que permitía a sus usuarios subir una foto de una mujer vestida y recibir una donde aparecía aparentemente desnuda, otro informe de Sensity AI descubrió un bot en la aplicación de mensajería Telegram que permite subir una foto y recibir una versión desnuda. Más de 100.000 mujeres han sido víctimas de dicho bot, incluyendo menores de edad. El 70% de las víctimas son mujeres cuyas fotos fueron tomadas de sus redes sociales.
Vacío legal
Al tratarse de una herramienta reciente, pocos países han regulado su uso. De acuerdo con el abogado Ricardo Oliva, experto en derecho digital y socio director de la firma Algoritmo Legal, la Unión Europea está trabajando una regulación integral de la inteligencia artificial pero todavía no existe una norma que sea jurídicamente vinculante. En concreto, la UE está estudiando tres proyectos aprobados por el Parlamento Europeo en octubre de 2020. “Uno de estos regula el marco ético de la inteligencia artificial. El segundo versa sobre la responsabilidad civil por los daños generados. Y el tercero es sobre la propiedad intelectual y la propiedad industrial de la inteligencia artificial”, detalla. Se espera que a finales de este año, la Comisión Europea ya haya aprobado estos proyectos, precisa Oliva.
Según este experto, de acuerdo con la legislación vigente, un deepfake podría considerarse un supuesto de “intromisión ilegítima” al derecho al honor, intimidad e imagen y da derecho a la víctima de solicitar una indemnización de daños y perjuicios y a pedir la retirada del contenido vejatorio. Esta acción habría que interponerla directamente contra el agresor (que sería la persona que creó el vídeo falso y/o la difundió por la red o a través de una plataforma).
La pornovenganza, la distribución en redes sociales de imágenes privadas de índole sexual de una persona sin su consentimiento, sí está regulada por el código penal. “Yo, por ejemplo, puedo autorizar a mi pareja o pude haber autorizado a mi expareja a que me grabe. Pero si esta persona, después de que nos separamos, lo difunde en internet, eso es delito, porque yo solamente le he autorizado a que lo vea, no a que lo difunda”, explica Oliva. “La intimidad, igual que la imagen, el honor, y los datos personales, son derechos fundamentales, hay que protegerlos”, enfatiza.
Sin embargo, Oliva hace hincapié en que las plataformas “no son responsables por los contenidos que compartan sus usuarios a no ser que sean manifiestamente ilícitos y que tengan conocimiento de esa ilicitud”.
En el mundo existen pocos avances. Australia prohibió la distribución de vídeos alterados de personas con connotaciones sexuales tras la lucha de Martin. Reino Unido prohíbe la pornovenganza pero no los materiales falsificados. En Estados Unidos, 46 estados también prohíben la primera pero solo dos estados toman en cuenta los contenidos falsos.
Qué hacer si esto me pasa a mí
“Denunciar, denunciar y denunciar”, enfatiza Encarni Iglesias Pereira, presidenta de la Asociación Stop Violencia de Género Digital. Mientras que Oliva señala que lo primero que tiene que hacer una mujer en una situación así es capturar la evidencia digital. “En un proceso judicial es muy importante porque es la prueba que tienes”, asegura. Enseguida tiene que dirigirse a la plataforma que publicó el vídeo para que lo elimine. Y en función de la gravedad del asunto, la víctima podría optar entre ir por la vía civil o penal contra el agresor.
“Nunca te culpes a ti misma”, dice Martin. Aunque considera que ya ha pasado por lo más difícil, confiesa que este abuso “puede causar un daño permanente”. Ella todavía siente que sigue lidiando con ello. “Saber que todos tus colegas, amigos y personas que conoces sabrán de esto es difícil”, asegura. Pero “si buscas ayuda y tratas de rodearte de gente que te apoye, entonces puedes salir adelante y puedes ser feliz”
Ciberacoso en época de pandemia
Este tipo de amenazas es una nueva cara del acoso que viven las mujeres en la red y que no ha hecho sino recrudecerse durante la pandemia. “Hemos aumentado muchísimo las horas que pasamos tras las pantallas con el confinamiento, los delitos se han triplicado o más en esta época”, asegura Iglesias.
Un 60% de niñas de entre 15 y 25 años ha sufrido acoso online. Como consecuencia una de cada cinco ha abandonado o reducido el uso de alguna red social
Y si el entorno digital ya es hostil para ellas, estos nuevos medios lo hacen aún más violento. “Cuanto más sofisticadas sean las herramientas y más mecanismos haya para discriminarlas, acosarlas o ejercer violencia contra ellas, si ellas no están preparadas y las plataformas de redes sociales tampoco tienen los mecanismos adecuados, las consecuencias pueden ser más graves”, señala Julia López, portavoz de Plan Internacional.
El acoso a las niñas y jóvenes es un fenómeno que del que ya alertaba esta ONG antes de la pandemia en un informe según el cual un 60% de niñas de entre 15 y 25 años ha sufrido acoso online. Y como consecuencia de este acoso, una de cada cinco niñas ha abandonado o reducido significativamente el uso de alguna red social. El informe concluye que “no existen los mecanismos adecuados de denuncia, de reporte y de seguimiento de estos casos de acoso”, explica López.
El ciberacoso “es una forma de silenciarlas, de expulsarlas [de la red], de hacerles sentir mal o menos”, señala, y se agrava cuando ellas muestran sus opiniones personales o políticas. “Es una especie de reacción y de discriminación por razón de género. Les ocurre porque son mujeres y porque son jóvenes en mayor medida”, concluye.
Un día la activista y abogada australiana Noelle Martin descubrió que circulaban en internet desde hace meses dos vídeos porno con su rostro. Parecía ella...
Autora >
Gabriela Martínez
Suscríbete a CTXT
Orgullosas
de llegar tarde
a las últimas noticias
Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí