SEGURIDAD

Discord ahora tiene nuevas medidas para supervisar la actividad de menores de edad

Se trata de un centro de seguridad en línea donde los padres pueden filtrar contenido, bloquear mensajes directos y solicitar ver todos los datos de la cuenta de sus hijos

BAE Negocios

El servicio de chat gratuito, Discord, es utilizado principalmente por jugadores de videojuegos adolescentes y adultos jóvenes. Desde 2015, creció hasta alcanzar los 150 millones de usuarios activos mensuales, y con su popularidad aumentaron las preocupaciones de los padres de menores que se encontraron con que sus hijos consumían contenido pornográfico, sufrían de bullying y además tenían contacto permanente con desconocidos. En un intento de reinventarse como un espacio más amigable, ahora Discord cuenta con supervisión parental para que los padres controlen la comunicación que tienen sus hijos a través de la red social.

Qué es Discord

Se trata de un sitio web de mensajería que permite realizar videollamadas, chatear y publicar contenido audiovisual como cualquier red social pero con la particularidad que cuenta con un “servidor”: una sala de chat privada a la que se accede a través de una invitación. La plataforma nació con el objetivo de acompañar a los que juegan videojuegos, y en Argentina, durante la pandemia, la aplicación fue furor especialmente en los usuarios que juegan Among Us, Fornite y Minecraft.

La aplicación es más utilizada por jóvenes y adolescentes que juegan videojuegos online

Pero, como toda red social en internet, se salió de control. La seguridad infantil fue la segunda categoría más alta de violaciones de la política de no spam en el último trimestre de 2022, según el informe más reciente de transparencia de Discord, luego de las actividades reguladas o ilegales. Su próximo informe debe presentarse a finales de este mes.

Descontrol

Si bien la plataforma estaba destinada a usuarios de más de 13 años, la red social no requería que los usuarios establecieran la edad para generar una cuenta. Y aunque podían bloquear mensajes no deseados, rechazar solicitudes de amistad y activar un filtro para bloquear el contenido explícito en los mensajes directos, los menores de edad tenían la posibilidad de navegar en conversaciones con contenido explícito.

 

Ante las críticas, la compañía dijo que no interferiría en un servidor a menos que alguien presentara una denuncia. “No entraremos en un servidor privado a menos que se nos informe algo. Creemos profundamente que la privacidad es un derecho y algo que debemos apoyar como empresa”, había respondido el jefe de marketing de Discord, Eros Resmini.

“Me registré en Discord para verlo por mí misma. No hubo indicaciones para ingresar mi edad o fecha de nacimiento. Solo tomó alrededor de 15 minutos encontrar pornografía y memes nazis, sin buscarlos específicamente. Ingresé fácilmente a servidores solo sin una invitación previa. Una vez dentro, podía acceder a contenido para adultos simplemente haciendo clic en un botón que decía que tenía al menos 18 años”, relató la columnista Julie Jerga en The Wall Street Journal.

Discord
Nuevo enfoque de Discord

Sin embargo, durante los últimos seis meses, el servicio comenzó a adaptar un enfoque más proactivo para buscar pedófilos y evitar que menores accedan a contenido pornográfico. Esto se da en un contexto donde en Estados Unidos las redes sociales están cada vez más en la mira de los políticos, tanto republicanos como demócratas. 

“Discord no se puso a salvo de inmediato. Fue un camino difícil para ellos reconocer que la confianza y la seguridad eran absolutamente fundamentales para su modelo de negocios porque, de lo contrario se quedan fuera”, dijo Stephen Balkam, director ejecutivo de la organización sin fines de lucro Family: Instituto de Seguridad en Línea. La organización, que trabaja con empresas tecnológicas y legisladores para hacer que Internet sea más seguro para los niños, permitió que Discord se convirtiera en miembro a principios de este mes.

Ahora Discord lanzó un centro de seguridad en línea donde los padres y los usuarios pueden filtrar el contenido explícito, bloquear mensajes directos de desconocidos y solicitar ver todos los datos de la cuenta del usuario compartido.

La aplicación se creó en mayo del 2015

Clint Smith, director legal de Discord, se unió a la empresa en agosto de este año y actualmente se encarga de administrar el equipo de confianza y seguridad. “Queremos ser una plataforma inclusiva para un compromiso saludable con amigos y comunidades, y no tenemos ningún problema en prohibir a las personas que no vienen aquí por ese motivo”, expresó con respecto al nuevo enfoque que tomó la compañía.

Cómo pueden acceder los padres

Los padres tienen que crear una cuenta propia en Discord, y desde allí se pueden conectar con sus hijos a través de una herramienta de Family. Esta les brinda información sobre la actividad del menor, luego de que éste les comparta un código QR y acepte la solicitud de supervisión.

Smith contó que realizó grupos de enfoque y sesiones de escucha con padres desde finales de 2021, a través de la Asociación Nacional de Padres y Maestros, y dijo que espera que la información a la que ahora tendrán acceso los padres proporcione una solución para la conversación sobre "qué están haciendo los nenes en Discord".

Ahora la plataforma limita el contenido al que pueden acceder los menores y aseguró que responderá a cualquier queja sobre seguridad infantil en un plazo de dos horas. El moderador también escanea imágenes en busca de desnudos y pornografía, con la colaboración del Foro Global de Internet para Contrarrestar el Terrosimo, que le proveyó ejemplos de contenido para entrenar sus filtros, y así bloquear el acceso de los menores. Además, Discord está trabajando en un sistema de aprendizaje automático que puede identificar el comportamiento inapropiado en los chats de los usuarios.

Esta nota habla de: