VIOLENCIA ONLINE
Twitter solo eliminó el 7,5% del contenido de odio reportado por sus usuarios en 2023
Entre las cinco grandes redes sociales analizadas, el porcentaje de mensajes racistas, xenófobos, islamófobos, antisemitas y antigitanos denunciados por la propia comunidad que fueron retirados no llega ni al 20%
CTXT / Observatorio Social ‘la Caixa’ 2/07/2024
En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí
La presencia de discursos de odio en las redes sociales es una cuestión que ha adquirido una relevancia muy notable en el debate público. De hecho, se puede encontrar como elemento explicativo de ciertos fenómenos sociopolíticos de gran alcance, como podría ser la llegada al Parlamento Europeo de una nueva agrupación electoral española de extrema derecha. Como contribución a este asunto, el Observatorio Español del Racismo y la Xenofobia (OBERAXE) ha publicado su ‘Memoria anual de monitorización del discurso de odio en redes sociales’, correspondiente al año 2023.
Según expone el documento, se trata de un trabajo con dos objetivos principales. El primero es “evaluar la respuesta de las plataformas de prestación de servicios de alojamiento de datos respecto a la retirada de contenidos de discurso de odio ilegal que se les notifican”, y el segundo “analizar el discurso de odio racista, xenófobo, islamófobo, antisemita y antigitano y detectar sus tendencias en España, contribuyendo al análisis de la situación y a orientar el desarrollo de políticas públicas”. Y para ello ponen el foco en cinco de las redes sociales más utilizadas en el país: Facebook, Instagram, YouTube, TikTok y Twitter.
La principal conclusión que puede extraerse del estudio es que los actuales protocolos de retirada de los discursos de odio –aquellos que incumplen la legalidad o las normas de conducta de las propias plataformas– son del todo ineficientes. Tanto, que la mitad de los 2.655 contenidos denunciados se mantuvieron perfectamente visibles. Cabe aclarar que todos ellos fueron considerados, por parte de OBERAXE, contenidos “de odio racista, xenófobo, antisemita, antigitano o islamófobo, que podían ser constitutivos de delito, de infracción administrativa o que violan las normas de conducta de las plataformas de internet”.
Los actuales protocolos de retirada de los discursos de odio son del todo ineficientes
En total, se retiraron 1.313 de ellos, que conforman el 49,4% del total. Una cifra que, para mayor gravedad, no es del todo real. Existen dos tipos de reportes de contenido, según su procedencia: los realizados por usuarias normales de la red social y aquellos que vienen de los llamados trusted flagger (“alertador fiable”), “individuos o entidades acreditadas especialmente por el prestador de servicios de alojamiento de datos por entender que cuentan con la cualificación o conocimiento necesario para notificar contenido de discurso de odio”. Introduciendo esta diferenciación, el porcentaje de contenidos retirados tras ser denunciados por usuarios normales cae hasta un risible 18,8%, mucho menor que el 30,7% en el caso de los trusted flagger.
La metodología utilizada contempla un itinerario temporal para los reportes que sí tuvieron un resultado, con cuatro estadios: retirado a las 24 horas, retirado a las 48 horas, retirado a la semana y retirado trusted flagger. Así, todas las denuncias se hicieron primero desde una cuenta usuaria normal y, en el caso de no obtener resultados de ningún tipo, se repitieron desde un perfil de alertador fiable.
Twitter es, con diferencia, la plataforma que incumple con mayor gravedad la legislación referente a los discursos de odio, así como sus propias normas de conducta. Solo retiró el 31,5% de los contenidos reportados, porcentaje que cae hasta el 7,5% si no se tiene en cuenta la categoría “retirado trusted flagger”. Mejores cifras ofrecen YouTube, con un 42,2% (19,4% sin contar los trusted flagger), Facebook, con un 47,5% (11,9% sin contar los trusted flagger), e Instagram, con un 62,5% (22,5% sin contar los trusted flagger). Las mejores cifras, también con diferencia, están en TikTok, donde se eliminaron más de tres de cada cuatro contenidos denunciados (77,7%) y se dio más peso a las denuncias estándar que a las trusted flagger (46,4% frente a 31,3%).
Esta falta de contundencia es una negligencia que puede tener consecuencias graves. Del análisis del contenido no retirado se desprenden cifras preocupantes, puesto que en el 53% de los casos hay mensajes que deshumanizan o degradan a un colectivo, en el 24,2% se incita a su expulsión y en el 22,8%, a la violencia.
Con respecto al objetivo de esta violencia detectada por el OBERAXE, en casi ocho de cada diez casos estaba dirigida a un colectivo, y solo en un 21,4% mencionaba a una persona en concreto. El “grupo diana” más repetido es el de las personas procedentes del norte de África (33,7%), por delante de dos tipos de odio más genéricos en los que también se puede enmarcar a este grupo: la islamofobia (26,2%) y el rechazo a personas afrodescendientes (23,7%).
Autor >
CTXT / Observatorio Social ‘la Caixa’
Suscríbete a CTXT
Orgullosas
de llegar tarde
a las últimas noticias
Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí