Los moderadores de TikTok se quejan del contenido que tienen que ver como parte del entrenamiento

Los moderadores de TikTok se quejan del contenido que tienen que ver como parte del entrenamiento

Moderadores de TikTok ven contenido erótico de menores de edad mientras hacen ejercicio

El tema de los moderadores de TikTok lo planteó Forbes, que recibió información de exempleados de una empresa externa encargada de moderar contenidos para una de las redes sociales más populares.

TikTok, como aplicación que consiste en publicar videos cortos (hasta 3 minutos), es un lugar que debe ser fuertemente controlado en el contexto de lo que aparece en los perfiles de los usuarios. Es por eso que TikTok se asoció con una empresa externa, Teleperformance, que se encarga de supervisar el contenido publicado.

Tengo una hija y no creo que esto sea normal. No deberían (editado por TikTok) usar algo como esto para la capacitación, dice un ex empleado de Teleperformance.

Al final resultó que, los empleados de Teleperformance tienen acceso a una tabla especial que contiene una enorme base de datos de contenido erótico (fotos) con niños. Esto debería servir como una especie de material didáctico. Lectura diaria requerida (DDR), como la llama la compañía, es una base de datos de cientos de materiales a los que acceden cientos de empleados, tanto empleados de TikTok como empleados de Teleperformance.

Hay «tutoriales» disponibles, pero la empresa se muestra reacia a comentarlos.

Los propios empleados de la empresa responsable de la moderación de contenido en TikTok dicen que «si los padres supieran sobre estos materiales, definitivamente quemarían TikTok». Sin embargo, el director de confianza y seguridad de Teleperformance dice que «la empresa no usa videos explícitos de abuso infantil en el entrenamiento ni los almacena en sus herramientas de calibración».

Sin embargo, eso es todo lo que Teleperformance tiene que decir sobre el abuso sexual de menores en una entrevista con Forbes. A otras preguntas se les negó respuesta y, en general, la empresa estaba babosa. También se desconoce qué son exactamente y qué contienen estas herramientas de calibración.

Se capacitará a empleados e inteligencia artificial

Naturalmente, en la era de las redes sociales, donde los usuarios publican millones de publicaciones al día, es necesario utilizar inteligencia artificial. La capacidad de procesar a las personas puede no ser suficiente para moderar rápidamente el contenido en curso.

La situación es completamente diferente en el caso de la inteligencia artificial. Las computadoras pueden reconocer fotos que están en contra de la ley y las reglas de la plataforma. Sin embargo, para esto necesitan materiales comparativos, contenido que le muestre al programa lo que está mal y lo que está bien.

Sin embargo, con todo esto, la víctima sigue siendo una persona que, a diferencia de una computadora, tiene moral y emociones. Por lo tanto, el contacto con un contenido tan extremadamente peligroso para la psique humana puede convertirse en tema de muchas discusiones. También es discutible si, en el caso de los materiales recopilados por Teleperformance (principalmente contenido subido por usuarios), es razonable dejar el acceso a cientos de empleados.

Fuente: Forbes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *