Twitch ha actualizado su política de moderación de contenidos con el objetivo de frenar el acoso sexual en la plataforma, a fin de que su normativa sea más fácil de comprender, además de anunciar una novedad en la herramienta de moderación AutoMod.
La compañía ha subrayado que «el acoso sexual nunca está bien ni es aceptable», además de que perjudica a su comunidad, ya que puede hacer que las personas que la forman "se sientan inseguras y poco respetadas", lo que puede llevarles a dejar de utilizar Twitch.
Con el objetivo de frenar este tipo de comportamientos, ha hecho una serie de aclaraciones en su normativa de uso, con nuevas políticas diseñadas para que sean más fáciles de entender por parte de los usuarios.
En primer lugar, ha reconocido que, para que su política de acoso sexual sea eficaz, debe haber «un entendimiento común» de qué es el acoso sexual y de cómo se manifiesta, por lo que ha eliminado términos ambiguos que lo definan para evitar equivocaciones.
En primer lugar, ha indicado que define el acoso sexual «como el conjunto de comportamientos no físicos de naturaleza sexual que hacen que los usuarios se sientan incómodos, degradados, inseguros o disuadidos de participar», tal y como ha explicado en su blog.
De esa manera, prohíbe los comentarios no deseados, incluidos aquellos en los que únicamente se emplean emojis, y que estén relacionados con el cuerpo o el aspecto de alguien. También prohíbe las peticiones o insinuaciones sexuales, la cosificación sexual y las declaraciones o actividades sexuales percibidos de una persona, independientemente de cuál sea su sexo.
Por otro lado, Twitch ha recordado que no consiente que se graben o se compartan imágenes o vídeos íntimos no consentidos «bajo ninguna circunstancia». Asimismo, ha comentado que tiene la potestad de denunciarlos ante las fuerzas de seguridad.
Además ha animado a los usuarios a utilizar las herramientas de moderación disponibles si se encuentran en cualquier situación de acoso, incluido el sexual. En este sentido, ha señalado que se tendrá en cuenta «una serie de señales», como el tiempo de espera y la actividad de bloqueo de canales, así como los informes remitidos por parte de estas personas- para confirmar si se trata de comentarios no deseados o no consentidos.
Por último, ha anunciado una actualización de AutoMod para combatir mejor el acoso sexual. Se trata de una herramienta de moderación desarrollada para identificar de forma proactiva y limitar la visibilidad de los mensajes de chat que puedan ser dañinos.
Esto significa que si un 'streamer' utiliza esta solución en su canal, neutralizará las comunicaciones inapropiadas antes de que se muestren a otros espectadores en el chat y serán los moderadores de contenido quienes se encarguen de revisarlos. Si los aprueban, se mostrarán finalmente en el chat.
Twitch también ha introducido una nueva categoría AutoMod para filtrar los mensajes del chat que puedan considerarse acoso sexual y que proporciona «una capa adicional de protección».