En un contexto social cada vez más polarizado, donde el discurso de odio online no solo prolifera, sino que se traduce en agresiones y tensiones reales, los datos presentados por el Observatorio Español del Racismo y la Xenofobia (OBERAXE) —dependiente del Ministerio de Inclusión, Seguridad Social y Migraciones— son alarmantes: en 2024, de los 2.870 contenidos de odio xenófobo y racista notificados a las plataformas, solo se retiró el 35%. Esto supone 14 puntos menos que en 2023 y deja al descubierto una ineficacia creciente por parte de las grandes tecnológicas.
Un año después, la tendencia sigue igual de preocupante: en el primer semestre de 2025, pese a la implementación del sistema de monitorización FARO —que detectó más de medio millón de discursos de odio—, las plataformas apenas eliminaron el 33% del contenido denunciado.
Esta bajada en la tasa de retirada no es un simple dato técnico: significa que casi 2 de cada 3 mensajes denunciados como racistas o xenófobos permanecen visibles, amplificando el odio y normalizando la discriminación. El hecho de que estos contenidos puedan ser constitutivos de delito bajo el Código Penal y aun así permanezcan online invita a cuestionar si las plataformas están priorizando la moderación o los beneficios derivados del engagement, incluso cuando proviene de interacciones tóxicas.
Una reunión que suena a urgencia… y a presión
El 30 de julio, la ministra Elma Saiz reunió a representantes de Meta, X (antes Twitter), Google y TikTok. El motivo: exigir explicaciones y medidas reales ante la incapacidad sistemática para frenar la difusión de estos discursos.
En palabras de Saiz:
“El Gobierno no va a hacer oídos sordos porque lo que pasa en redes sociales tiene su traslación a la realidad. Ya lo hemos visto en Torre Pacheco.”
El encuentro concluyó con la creación de un grupo de seguimiento permanente que supervise periódicamente la evolución y respuesta de las plataformas. En la práctica, esto es un “control reforzado” —algo inusual en la relación con empresas privadas— que refleja la falta de confianza del Gobierno en el autocontrol corporativo.
El “trusted flagger”: un privilegio que destapa inconsistencias
Uno de los datos más reveladores es la diferencia abismal en la efectividad de las denuncias:
- Cuando las notificaciones se realizan vía trusted flagger (canales de comunicación prioritaria entre autoridades/plataformas), un 26% de los contenidos son eliminados.
- Cuando la denuncia se hace desde un perfil de usuario normal, la efectividad cae al 9%.
Esto plantea serias dudas:
- ¿Por qué los sistemas “automatizados” y las IA de moderación de las plataformas ignoran la mayoría de las denuncias ciudadanas?
- ¿Es una cuestión de capacidad técnica o de voluntad empresarial de actuar solo cuando la presión viene de un organismo oficial?
- ¿Se está dejando que el discurso de odio se mantenga vivo porque genera interacción y, por tanto, ingresos publicitarios?
La ministra lo dejó claro: aunque el contenido acabe siendo retirado, el tiempo que permanece online multiplica el daño. En redes, las primeras horas son clave para la viralización, y un mensaje racista puede alcanzar a millones de usuarios antes de ser borrado, incluso si después se elimina.
Aquí se asienta uno de los problemas más preocupantes:
La moderación reactiva y tardía es, en la práctica, una permisividad encubierta.
Permite que el contenido cumpla su función de impacto y polarización antes de ser eliminado, blanqueando así las estadísticas.
El caso español no es aislado: informes de la Comisión Europea y del Digital Services Act (DSA) advierten que las grandes plataformas tienden a relajar la moderación cuando los contenidos conflictivos generan altos niveles de interacción, lo que favorece su algoritmo y sus métricas de permanencia de usuario.
En lugares concretos como Torre Pacheco, el discurso de odio contra migrantes detectado online ha tenido derivadas en la vida real. Esto confirma que el problema no es abstracto: la violencia digital alimenta la violencia física.
Recomendaciones y exigencias para un cambio real
- Transparencia obligatoria: publicación trimestral de datos sobre denuncias, tiempos de retirada y criterios de moderación.
- Educación digital: programas masivos de alfabetización mediática para que los usuarios no sean simples consumidores pasivos de discurso tóxico.
- Sanciones efectivas: vincular la inacción de las plataformas a multas significativas bajo la Ley de Servicios Digitales de la UE.
- Refuerzo del canal ciudadano: que la denuncia individual tenga la misma tramitación y prioridad que las de trusted flaggers.
- Moderación preventiva y proactiva: detección predictiva de discursos de odio basada en IA, antes de que alcancen difusión masiva.
El descenso en la retirada de contenidos de odio en plena era de la hiperautomatización y de la IA suena a contradicción. Las plataformas tienen la infraestructura técnica, los recursos humanos y los algoritmos para actuar rápido. Si no lo hacen, la pregunta no es si pueden, sino si quieren.
El nuevo grupo de seguimiento creado por el Gobierno será la prueba de fuego: o se traduce en una moderación más rápida y efectiva, o quedará como otro gesto para la galería. Lo que está en juego no es solo la calidad del debate online, sino la seguridad y la cohesión social fuera de la pantalla.