A partir de 2026, el organismo rector del ciclismo mundial implantará un sistema basado en inteligencia artificial para detectar, analizar y perseguir el acoso y las amenazas dirigidas a corredores, equipos y personal del pelotón. Una medida que llega en un momento en el que el odio digital ha dejado de ser anecdótico para convertirse en un problema estructural .

El problema: redes sociales sin regulación efectiva
El crecimiento exponencial de la exposición digital ha traído consigo un efecto secundario evidente: más visibilidad, pero también más vulnerabilidad. Comentarios agresivos tras una caída, amenazas después de una polémica táctica o insultos por decisiones deportivas forman parte del día a día de muchos ciclistas. Gente anónima insultando impunemente y sin que los gestores de las redes sociales hagan nada para evitarlo.
Las plataformas, en muchos casos, reaccionan tarde o directamente no reaccionan. Y ahí es donde la UCI quiere marcar territorio.
Threat Matrix: así funcionará el sistema de inteligencia artificial
El nuevo marco de actuación se apoyará en una herramienta conocida como “Threat Matrix”, desarrollada por la empresa británica Signify Group y ya utilizada en otros deportes de primer nivel. Su funcionamiento combina automatización y supervisión humana:
- Analiza comentarios públicos y mensajes asociados a cuentas de ciclistas y equipos.
- Detecta palabras clave, símbolos y patrones relacionados con acoso, intimidación o discriminación.
- Clasifica la gravedad del contenido.
- Activa protocolos de respuesta proporcionales.
La UCI no se limita a borrar comentarios. El objetivo es ir más allá:
- Notificación directa a las plataformas digitales.
- Requerimiento de retirada de contenido.
- En los casos más graves, comunicación a las autoridades competentes.
Es, en esencia, un sistema disuasorio. Un mensaje claro: el anonimato no equivale a impunidad.