Bluesky ha anunciado que ha ampliado su equipo de moderación de contenido, que pasa de disponer de 25 a 100 personas, de cara a mejorar la precisión de sus acciones de moderación ante el rápido crecimiento de usuarios registrados, que está ocasionando la aparición de contenido dañino.
La red social de 'microblogging' ha estado informando recientemente sobre el crecimiento de usuarios registrados en la plataforma, que durante este mes sumó cifras como 700.000 nuevos usuarios registrados durante una sola semana. Actualmente, ha alcanzado más de 22 millones de usuarios en total.
La afluencia de nuevos usuarios en Bluesky coincide con la reciente victoria de Donald Trump en las elecciones presidenciales estadounidenses, quien ha contado con el apoyo de Elon Musk, propietario de X y principal competidora de Bluesky.
En este marco, ante el aumento de usuarios en la plataforma, también se ha identificado el aumento de contenido que va en contra de las pautas de la comunidad de la red social, algo que, hasta ahora, estaba controlado por parte del equipo de moderación de contenido.
Como respuesta a estos hechos, la compañía ha anunciado ahora que ha ampliado su equipo de moderación, que pasará a contar con un total de 100 personas, cuadriplicando el tamaño de su plantilla, que antes contaba con 25 personas.
Así lo ha compartido Bluesky en declaraciones al medio Platformer, donde ha detallado que esta medida se ha llevado a cabo por el rápido crecimiento de Bluesky durante el último mes. «El aumento de nuevos usuarios ha traído consigo un crecimiento vinculado a la cantidad de casos extremos complicados, inquietantes y absolutamente extraños con los que el equipo de confianza y seguridad debe lidiar», ha manifestado el director de Confianza y Seguridad de Bluesky, Aaron Rodericks.
Algunas de estas publicaciones de contenido dañino muestran contenido relacionado «áreas de políticas de muy alta severidad» como el abuso sexual infantil. De hecho, tal y como ha explicado la compañía, durante el año 2023 Bluesky solo registró dos casos confirmados de publicaciones de abuso sexual infantil, sin embargo, la plataforma ha registrado hasta ocho casos confirmados solo durante el pasado lunes.
Siguiendo esta línea, la compañía ha señalado a través de una publicación en la plataforma que recientemente ha tomado algunas medidas de moderación a corto plazo para evitar el contenido dañino en la red social.
Estas medidas resultaron en suspensiones temporales de varios usuarios, aunque ha señalado que las cuentas de algunos usuarios ya han sido restauradas y que continúan analizando las apelaciones. Con todo ello, ha señalado que están ampliando su equipo de moderación a medida que crecen para «mejorar tanto la puntualidad como la precisión de nuestras acciones de moderación».