Una moderadora de Facebook explicó el costo de su trabajo "de pesadilla"

Ver contenido "horroroso" durante ocho horas al día es parte de una labor en el que asegura que no tienen el apoyo suficiente de parte de la compañía.

Isabella Plunkett, una moderadora que aún trabaja en Facebook, declaró ante un comité del parlamento irlandés para evidenciar los problemas que acarrea su tarea. Más aún, dejó en claro que la compañía no hace lo suficiente para proteger a sus moderadores.

Las autoridades escucharon cómo los moderadores tienen que ver contenido gráfico, en turnos que se extienden durante ocho horas al día.

Según la declaración de Plunkett, su tarea la lleva a revisar hasta 100 tickets de contenido denunciado en la plataforma. Esta puede incluir violencia gráfica, extremismo, abuso e incluso suicidios.

Pero su empresa, que es una subsidiaria de Facebook en Irlanda, con suerte entrega solo una hora y media de "tiempo de bienestar a la semana".

"He realizado este trabajo durante dos años y no creo que pueda hacerlo por mucho más tiempo debido a la tensión que causa en la salud mental",  explicó en declaraciones posteriores a la BBC. "Cada día es una pesadilla", agrega.

El costo de su tarea

De acuerdo al relato de la moderadora, el peso de su labor también tiene relación con un acuerdo de confidencialidad. El mismo contrato también advierte que el contenido revisado podría generar estrés postraumático.

Además, la moderadora califica la ayuda que recibe como insuficiente e inclusive asegura que las personas de bienestar no están calificadas. De hecho, según recoge Yahoo, algunos con suerte aconsejan tener actividades como la pintura o el karaoke para lidiar con su labor.

En ese sentido, dejó en claro que su trabajo no es como cualquier otro, ya que las cosas que ve en las publicaciones la impactan inclusive cuando duerme. "El contenido es horroroso, afectaría a cualquiera. Nadie puede estar bien al ver violencia gráfica durante siete o ocho horas al día", explicó en una conferencia.

Adicionalmente, como trabaja para una subsidiaria, y no directamente para Facebook, Plunkett explicó que durante la pandemia ha tenido que trabajar desde la empresa y por eso recibe los casos prioritarios. Y esos también pueden incluir publicaciones perturbadoras relacionadas con niños.

Facebook, por su parte, recalca que sus trabajadores reciben un programa de entrenamiento y la ayuda psicológica está disponible para todos sus moderadores las 24 horas del día. La compañía también ha dicho en el pasado que ahora depende más de la tecnología para lidiar con la carga de moderación que se gestó por la pandemia de COVID-19.

Pero Plunklett plantea que esos avances son insuficientes y que inclusive las quejas en canales internos han sido eliminados, por lo que las personas temen perder sus trabajos por los acuerdos de confidencialidad existentes.

Temas Relacionados

COMPARTIR NOTA