Barcelona, 6 oct (EFE).- Tres directivos de Majorel SP, empresa de Barcelona dedicada a moderar el contenido de Tiktok, han alegado este lunes ante la jueza que las imágenes más violentas de la red social, como decapitaciones o agresiones brutales, no se revisaban desde su compañía, sino desde otro centro situado fuera de España.
Según han informado fuentes jurídicas, los tres directivos -uno de ellos de recursos humanos- han declarado hoy como imputados ante la titular del juzgado de instrucción número 9 de Barcelona, que investiga la querella que presentó una extrabajadora contra ellos por las secuelas psicológicas que, asegura, le provocó el empleo de moderadora.
A esta moderadora de contenido se ha han sumado ya otros tres querellantes, según su abogado Francesc Feliu, que prevé que más perjudicados se unirán a la denuncia.
En su declaración como investigados, los responsables de la empresa moderadora se han escudado en que desde su centro de trabajo no se controlaba el contenido considerado como «altamente perturbador», una labor que, según su versión, correspondía a otras empresas situadas fuera de España, cuyos nombres no han especificado.
Tampoco han aclarado de qué forma discernían el contenido sensible que sí podía ser revisado por sus trabajadores o el extremadamente violento que debía ser controlado desde fuera de España y se han remitido a cuestiones técnicas de la red social.
Durante la comparecencia, a los directivos se les ha interrogado sobre el hecho de que la empresa careciera de un plan de evaluación de riesgos psicosociales hasta el año 2021, lo que dio pie a que Inspección de Trabajo emitiera un informe en el que señalaba que Majorel incumplía la normativa laboral.
Los directivos han explicado que entre los años 2019 y 2021 Tiktok era simplemente una aplicación de intercambio de vídeos musicales y que no fue hasta después de la pandemia cuando se popularizó como red en la que se publicaban todo tipo de contenidos, incluido de carácter violento y altamente sensible.
Asimismo, los investigados han reconocido que los trabajadores dedicados a revisar el contenido de Tiktok habían sido contratados como teleoperadores, lo que han justificado porque en ese momento no estaba regulada en la normativa laboral la figura del moderador.
A raíz de los interrogatorios de este lunes, el abogado de los querellantes ha afirmado que planteará ante la jueza instructora nuevas imputaciones de directivos de la empresa que se derivan de las declaraciones prestadas hoy.
Además de los tres responsables que han comparecido este lunes en el juzgado, en la causa está imputado un responsable de recursos humanos de la empresa, que declarará el próximo 3 de noviembre, y Tiktok, como responsable civil subsidiaria de eventuales indemnizaciones.
La jueza tomó declaración la semana pasada a la extrabajadora que presentó la primera querella y a otra exempleada, quien explicó que debían visionar cerca de 2.000 contenidos -entre vídeos y post-, algunos muy violentos, sin haber recibido previamente ningún tipo de formación sobre la labor que iban a desempeñar, hasta el punto de que hasta que no empezaron a trabajar en la empresa desconocían que iban a dedicarse a moderar contenidos para Tiktok.
En su querella, presentada el pasado 8 de abril, la extrabajadora denunciante aseguró haber estado cuatro años revisando vídeos de asesinatos, pedofilia, decapitaciones o terrorismo, todo ello en unas condiciones laborales «inhumanas e inaguantables».
La querellante, de origen alemán, empezó a trabajar en la empresa en 2019 filtrando contenidos en alemán y luego en español, pero no le advirtieron de que debería visualizar, de forma íntegra, entre 800 y 1.200 vídeos al día, algunos de hasta tres o cuatro minutos, que le sometían a «graves riesgos para su salud mental», según el escrito de la querella.