Roblox ha reforzado los trabajos de moderación con un nuevo sistema multimodal en tiempo real que en lugar de evaluar la escena de un juego en su conjunto en lugar de centrarse en elementos individuales, para determinar si se infringen las normas de la plataforma.
El sistema de moderación multimodal en tiempo real se ha implementado recientemente en respuesta a los problemas que presentan los sistemas de moderación de IA tradicionales, que tienen la capacidad de evaluar los objetos individualmente y no tienen contexto.
Esta forma de funcionar hace que los sistemas tradicionales pasen por alto combinaciones de objetos que pueden infringir las normas, pese a que de manera individual las cumplen.
La moderación multimodal, por su parte, evalúa en tiempo real una escena completa, lo que incluye avatares, texto y objetos 3D, como explica la compañía en un comunicado compartido en su blog. De esta forma, puede la plataforma puede actuar sobre instancias (servidores) y no necesariamente sobre el juego en sí.
Desde el lanzamiento de este sistema multimodal, Roblox afirma que han cerrado aproximadamente 5.000 instancias diarias que infringen su Normas de la Comunidad. Con este rendimiento, pretende que la nueva tecnología «registre y supervise el 100 % del tiempo de juego».
A los creadores les ha facilitado un nuevo panel para que puedan hacer un seguimiento de las instancias que han sido cerrada por el mal comportamiento de los usuarios de sus juegos.