Las plataformas 'online' y redes sociales cada vez se preocupan más por proteger a los usuarios menores en Internet de la exposición a contenido y acciones dañinas para su desarrollo, para lo que recurren al uso de medidas específicas para este público, como la limitación de la interacción con otros usuarios o del acceso al contenido no apto, al tiempo que ofrecen opciones como cuentas y servicios específicos para los más pequeños y funciones de control parental.
Por norma general, plataformas como YouTube, TikTok, Xbox o Instagram admiten perfiles de usuarios menores de 18 años, estableciendo un límite de edad para poder crear una que, en la mayoría de los países es de 13 años.
La edad es una de las principales cuestiones que las plataformas tienen en cuenta a la hora de implementar de crear una cuenta y usar sus servicios. De hecho, utilizan distintos métodos para verificar la edad, como en el caso de Instagram y TikTok que llegan a recurrir al 'videoselfi' --con sus limitaciones-- para comprobar que los usuarios tienen la edad mínima para usar sus servicios.
Una vez se ha identificado la edad del usuario, y se determina que es menor, las compañías agregan algunas limitaciones en las acciones que se pueden llevar a cabo dentro de las plataformas, de cara a asegurar su protección y privacidad hasta que alcancen la mayoría de edad.
Así, una de estas restricciones está relacionada con el contenido que se muestra en sus 'feeds'. Prácticamente la mayoría de las plataformas coinciden en que el tipo de contenido que se considera como peligroso o dañino para los usuarios menores está relacionado con los actos violentos, sexualización de menores, temas que ocasionen daño emocional, contenido familiar engañoso, acoso y lenguaje vulgar.
Igualmente, para las cuentas de menores también se imponen restricciones relacionadas con la interacción con otros usuarios en comentarios y mensajes para evitar casos de acoso por parte de adultos ('grooming'), con la capacidad para publicar información personal o con el nivel de privacidad del contenido publicado.
Por ejemplo, en el caso de TikTok, la cuenta permanece privada de forma obligatoria hasta los 15 años para evitar que usuarios desconocidos puedan acceder a su contenido, después, a partir de los 16 años, ya se puede configurar como pública. La red social de ByteDance tampoco recomienda cuentas de menores (entre 13 y 17 años) a otros usuarios, ni permite descargar sus vídeos.
Siguiendo esta línea, los usuarios de entre 13 y 15 años, no pueden enviar ni recibir mensajes directos de usuarios desconocidos en TikTok, y solo pueden comentar en vídeos de usuarios de los que son seguidores, de la misma forma, solo podrán recibir comentarios de amigos. En general, en la mayoría de las redes sociales quedan limitados servicios como los vídeos en directo o las funciones de monetización para los mayores de 18 años.
También se utilizan otros recursos para evitar que los menores accedan a funciones que puedan suponer algún riesgo para su seguridad. En el caso de Meta, propietaria de Instagram y Facebook, la compañía implementa tecnología de Inteligencia Artificial (IA) para evitar que los adolescentes entren en el servicio de citas Parejas de Facebook, que los adultos envíen mensajes a menores o que estos reciban contenidos publicitarios restringidos.
Opciones para menores de 13 años
Algunas compañías también disponen de una versión específica para los usuarios más pequeños, que tienen menos de 13 años. Es el caso de YouTube Kids, que incluye tanto vídeos populares como contenidos nuevos infantiles, publicados con un diseño de interfaz sencillo adaptado a la edad de su público.
Con esta 'app' no se pueden utilizar otras funciones que no sean buscar y reproducir vídeos, así como tampoco se permite acceder a sitios web, ni apps de YouTube hasta que se cumpla la edad mínima para administrar la cuenta de Google (14 años en España). Tras ello, se pasa a utilizar una cuenta de Google estándar.
Lo mismo ocurre con el servicio Messenger Kids de Facebook, una aplicación gratuita diseñada específicamente para que los niños se conecten, se comuniquen y jueguen con familiares y amigos. Así, permite a los niños enviar mensajes y 'stickers' o, incluso, hacer videollamadas, aunque actualmente no está disponible en España.
Por otra parte, redes sociales como TikTok también ofrecen una opción de cuenta para menores de 13 años, aunque en este caso solo está disponible en Estados Unidos.
Control parental
Además de todo ello, para asegurar que los menores hacen un buen uso de las plataformas, las plataformas disponen de opciones como el modo restringido, control parental o supervisión de la cuenta en perfiles de YouTube, TikTok, Instagram, PlayStation o Xbox.
La alternativa de control parental se utiliza sobre todo en aquellas plataformas que no disponen de medidas especiales ni incluyen cuentas específicas para usuarios menores, como es el caso de Xbox y PlayStation. Estas plataformas, permiten crear perfiles de menores, pero dentro de una misma cuenta de adulto. Por ejemplo, con PlayStation Network los usuarios de entre 7 y 17 años solo pueden crearse una cuenta, llevar a cabo compras, jugar 'online' o chatear con otras personas, si se lo permite un adulto responsable.
Una de las funciones que incluyen este tipo de cuentas es el modo restringido, que limita la exposición de los menores al contenido que los padres o tutores consideren inapropiado. Por ejemplo, Google permite activar este modo para sus plataformas, como YouTube, a través de la aplicación de control parental Family Link. Esta misma función está disponible en Xbox dentro de la aplicación Xbox Family Settings.
Continuando con el control parental, también se puede utilizar en plataformas y redes sociales que disponen de cuentas y servicios específicos para menores, con funciones como la sincronización familiar de TikTok.
En el caso de Instagram se necesita una invitación para supervisar la cuenta, o bien los padres invitan a sus hijos a inscribirse en una supervisión o viceversa. No obstante, ambas partes deben aceptar sus invitaciones. Así, los padres pueden estar al tanto de a qué perfiles sigue su hijo o quién le sigue de vuelta, así como recibir notificaciones sobre si han reportado un comportamiento de, por ejemplo, acoso por parte de otro usuario.
Infringir la política de protección de menores
"Si tenemos conocimiento de una situación de explotación de menores en nuestra plataforma, procederemos a bloquear la cuenta y cualesquiera otras cuentas a nombre de la misma persona", señala TikTok. De igual forma se manifiesta YouTube, que subraya que si el contenido infringe su política, se retirará y se enviará un correo para informar de ello al usuario en cuestión.
Esta normativa se puede aplicar a todas las plataformas que, en el caso de incumplir sus pautas de seguridad hacia usuarios menores, eliminan el contenido y, si se trata de una actividad reiterada, acaban eliminando la cuenta del usuario infractor.
Por ejemplo, en el caso de PlayStation, la compañía aclara que pueden inhabilitar la cuenta del usuario. Incluso, según señala, pueden informar a la policía en caso de acciones grabes como el acoso a otros usuarios.
Por otra parte, estas plataformas también aseguran en sus políticas eliminar las cuentas de los usuarios que no cuentan con la edad mínima para usarlas, si detectan que han mentido para poder crear un perfil, ya sea por sus medios automatizados o por la denuncia de otros usuarios.
Sin embargo, no siempre adoptan las medidas pertinentes, como se ha denunciado, por ejemplo, en el caso de Instagram.