Parece que con demasiada frecuencia vemos noticias de que se cometió algún delito atroz en uno u otro sitio de redes sociales, incluidas publicaciones ilegales o la transmisión en vivo de contenido violento. Puede ser fácil preguntarse cómo, en esta era tecnológicamente avanzada, tales cosas pueden pasar desapercibidas.
Pero, el hecho es que es prácticamente imposible moderar los sitios de redes sociales de manera efectiva. ¿Por qué? Hay unas pocas razones.
Algunos sitios de redes sociales aún son incipientes o son más específicos. Sin embargo, los principales sitios de redes sociales tienen una amplia base de usuarios. Los sitios más grandes tienen entre cientos de millones y miles de millones de usuarios. Naturalmente, cualquier plataforma tan grande es difícil de monitorear.
La mayoría de las principales redes sociales manejan esto a través de una combinación de informes comunitarios, algoritmos (imperfectamente) entrenados para detectar contenido dañino y algunos moderadores humanos. Si bien un miembro de la comunidad o una IA pueden detectar y reportar información dañina, es un humano (o un grupo de humanos) quien tiene la última palabra. Y muchos sitios ofrecen un proceso de apelación.
Los sitios de redes sociales no solo son enormes en términos de su base de usuarios. Diferentes estados y diferentes países tienen diferentes leyes relacionadas con qué tipo de contenido debe informarse y cómo.
Por lo tanto, las empresas de redes sociales activas en diferentes áreas geográficas a menudo tienen que tener políticas diferentes para diferentes usuarios. Esto incluye diferentes políticas de desinformación y privacidad. De hecho, Twitter tuvo que aceptar términos específicos para ser desbaneado en Nigeria.
Aún más que eso, las redes sociales son un fenómeno global, pero no siempre sucede en los idiomas "globales". Esto puede dejar a las empresas de redes sociales luchando por encontrar moderadores de contenido que hablen idiomas regionales para brindar servicios a nivel mundial sin dejar a esos usuarios vulnerables a los malos actores.
Un buen ejemplo es el del propietario de Facebook, Meta. La empresa fue recientemente demandado por un ex moderador de contenido en Nairobi quien afirma que los moderadores de contenido en el área son engañados para asumir el papel.
3. Los moderadores caminan por la cuerda floja
La mayoría de los usuarios de las redes sociales quieren dos cosas: quieren sentirse seguros y quieren sentirse libres. Lograr un equilibrio entre estos dos deseos es la difícil tarea del moderador de contenido.
Si se aparta demasiado hacia un lado, los usuarios se sentirán vigilados. Si se aleja demasiado hacia el otro lado, los usuarios se sentirán abandonados. Una forma en que algunos sitios de redes sociales evitan esto es a través de los moderadores de la comunidad.
Los moderadores de la comunidad ayudan a expresar que la moderación es algo que se hace con pasión por promover discurso constructivo sin permitir contenidos nocivos y no por cualquier deseo de controlar u oprimir usuarios Este modelo es desafiante a escala, aunque diferentes plataformas lo hacen funcionar de diferentes maneras.
Parler volvió a estar en línea después de ajustar su política de moderación para cumplir con las políticas de terceros. Tienen algo así como un sistema de jurado comunitario que más o menos solo entra en juego después de que ya se ha informado de una publicación potencialmente problemática. Dar prioridad a los informes de los usuarios es otra forma en que Parler ayuda a aligerar la carga de sus moderadores.
4. Los moderadores tienen que seguir una línea dinámica
Los moderadores de contenido también operan en lo que puede parecer un área moral gris. Incluso las plataformas con una visión de moderación más libre de expresión tienen reglas contra el contenido potencialmente dañino o violento. Algunas publicaciones son obviamente dañinas o violentas, mientras que otras pueden parecer dañinas o peligrosas para algunos usuarios (o moderadores), pero no para otros.
Muchas plataformas también tienen reglas contra otras actividades como vender productos o servicios. Esta puede ser un área aún más complicada de navegar, particularmente dado el tamaño y el alcance de algunos sitios.
Considerar qué hacen los moderadores de la comunidad de Reddit. Cada vez que los usuarios se unen a una nueva comunidad, se les envían inmediatamente las reglas de esa comunidad. Esas reglas también se publican al costado de cada página de la comunidad. Esto permite que cada comunidad tenga un subconjunto de reglas adaptadas a ella en lugar de reglas generales para todo el sitio.
La idea de subreddits también ayuda a Reddit a usar moderadores comunitarios a gran escala. Los moderadores tienen la tarea de moderar su subreddit en lugar de intentar patrullar todo el sitio.
Finalmente, las redes sociales se mueven muy rápido. Cuando se entera de una publicación problemática, puede ser mucho después de que el autor original la haya eliminado. En el caso de que la publicación no haya sido reportada mientras estaba en vivo, responderla después del hecho puede ser complicado.
En un caso en 2015, se denunció a la policía una publicación en el sitio de redes sociales YikYak usando una versión alterada de la publicación original, que ya había sido eliminada. Lo que podría haber sido resuelto internamente por los moderadores de contenido en línea se convirtió en un prolongado drama legal que molestó a toda una comunidad.
Muchos sitios de redes sociales, incluido Facebook, tienen políticas para preservar publicaciones sospechosas en caso de que sea necesario hacer referencia a ellos en situaciones en desarrollo, incluso por parte de las fuerzas del orden.
Pero características como la transmisión en vivo significan que el contenido sube a medida que sucede, algo que los algoritmos pueden pasar por alto hasta que sea demasiado tarde.
Lance una moneda a su moderador
Si ve algo en línea que le preocupa, utilice los canales provistos para informarlo. Trate de evitar enojarse o sospechar porque moderar las redes sociales es difícil. Lo mismo ocurre si se denuncia a usted o a una publicación. Probablemente sea un movimiento bien intencionado para mantener seguros a los usuarios de las redes sociales.