Actualizado el 15/04/2025

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Editoriales
  4. >
  5. La responsabilidad en la moderación de contenidos

La responsabilidad en la moderación de contenidos

Escrito por tecnonews el 08/04/2025 a las 19:05:29
1102

Cada día tenía que revisar entre 800 y 1.200 contenidos para determinar si eran adecuados para ser publicados en la red social Tik Tok. Solo tenía cinco minutos de descanso cada hora y algunos de los vídeos que visionaba eran asesinatos, suicidios, decapitaciones, violaciones, zoofilia, pornografía infantil, abusos a menores, desmembramientos y torturas. Una trabajadora de un centro de moderación de contenidos gestionado por Majorel SP Solution una empresa subcontratada por la red social de origen chino, ha denunciado a ambas firmas por las secuelas psíquicas que este empleo le ha dejado. Según la querella que se ha presentado en Barcelona esas consecuencias son ansiedad, vómitos, taquicardias o pesadillas. La trabajadora considera que entre 2019 y 2021 la empresa no brindó a sus trabajadores de ningún apoyo psicológico pese a que sabían qué clase de materiales estaban visionando sus trabajadores. Vaya como si una empresa de construcción no ofreciera cascos y arneses a sus obreros.  

 

La información pone, una vez más, a las redes sociales en entredicho. Pese a que se llenan la boca con el hecho de que la inteligencia artificial va a destruir millones de trabajos, todavía no son capaces de crear un sistema de moderación de contenidos automático que sea efectivo. Es cierto que hay un filtro, pero en última instancia las redes sociales dependen del ojo humano.

 

Al mismo tiempo, la información revela las prácticas de las grandes tecnológicas cuando se trata de sanear los contenidos que se publican en sus dominios. La contratación de terceros, más allá de optimizar costes, permite a Meta, X o Tik Tok eludir sus responsabilidades cuando se publican vídeos de aberraciones como las descritas. Se produce una paradoja extraña que podría resumirse del siguiente modo: las redes sociales imponen su criterio editorial (como se ha visto con X) pero luego no se les puede exigir responsabilidades por lo que publican sus usuarios.  

 

Y sí, no todo es culpa de las redes sociales. Cuando vivimos en un mundo en que una violación o una decapitación es contenido para ser visto es que vivimos en un mundo enfermo.