La agotadora rutina de los moderadores de Facebook que deben ver publicaciones de contenido violento

Contenido violento en Facebook.

Contenido violento en Facebook.

Contenido violento en Facebook.
Contenido violento en Facebook.

Un grupo de amigos prende fuego a un perro de la calle; unos adolescentes son obligados a tener sexo oral; una niña con una cuchilla de afeitar anuncia su suicidio en un video en vivo; un recién nacido es golpeado por un pariente en la cuna…

La lista es interminable. Todo lo peor que puede haber en Facebook durante ocho horas, de lunes a viernes, a cambio de un salario mínimo.

Sergio, un joven brasileño que pidió no ser identificado, vivió esta rutina durante casi un año, hasta que abandonó su empleo como revisor de denuncias sobre violencia y odio en la página en portugués de la red social.

Desde entonces, dice, se ha convertido en una persona más “fría e insensible” en la vida fuera de internet.

“Veía vídeos en directo por si alguien iba a matarse”, explica.

Su función era decidir lo más rápido posible si las publicaciones agresivas que otros usuarios denunciaban eran tolerables o pasaban de los límites establecidos por Facebook.

En su oficina, la meta para cada revisor era evaluar 3.500 fotos, videos y textos denunciados al día. Más de siete por minuto o uno cada 8,5 segundos.

“Imposible no tener error humano en ese ritmo”, dice Sergio, que hoy trabaja como freelancer y decidió apagar sus rastros en la red social después de conocerla “por dentro”.

Rutina

Según Sergio, el empleo de los que trabajan de esta forma para el imperio de Mark Zuckerberg nada tiene que ver con la imagen común que tenemos de las oficinas de Silicon Valley.

En un edificio con largas filas de ordenadores distribuidos en varios pisos, Sergio y aproximadamente 500 colegas de todo el mundo pasaban días evaluando denuncias sobre pedofilia, desnudos, necrofilia, suicidios, asesinatos, asedios, amenazas, armas, drogas y violencia animal en más de 10 idiomas.

Según el extrabajador, en estos centros de revisión de la red social más utilizada del planeta, los teléfonos móviles están prohibidos, las pausas para la comida o el baño son monitoreadas y los contratos de trabajo prevén multas y procesos judiciales contra la fuga de información.

“Era como una central de atención telefónica, sin los teléfonos. La gente estaba allí para atender al cliente: en este caso, Facebook y todos sus usuarios”, dice.

En su computadora, Sergio tenía acceso a una línea de tiempo “alternativa” que mostraba solo las entradas objetivo de denuncias de los usuarios, al azar, junto a un menú sobre posibles violaciones.

Los moderadores solo visualizan el nombre del autor de las publicaciones y no tienen acceso a sus perfiles completos. Su misión es eliminar, ignorar o enviar la publicación a una evaluación superior, lo que ocurre especialmente en casos de suicidio o pedofilia, que a su vez son enviados a las autoridades.

Los moderadores

Los revisores de contenido, según Sergio, son normalmente jóvenes profesionales que viven en el extranjero o que no encuentran trabajo en sus áreas. La mayoría no completa un año en el puesto.

La presión para cumplir las metas aparecía, según Sergio, en reuniones recurrentes con supervisores.

“Tenían informes periódicos sobre metas de moderación. Los jefes a veces parecían porristas e intentaban motivarnos diciendo que habíamos salvado a X personas de suicidios o agresiones en el mes “, cuenta.

“Pero también decían siempre que la continuidad de nuestros empleos dependía del cumplimiento de las metas diarias y citaba otros lugares con resultados mejores que el nuestro, la gente nunca sabía cuánto tiempo duraría la oficina”, agrega.

Hace una semana, al anunciar un aumento del 47% en la facturación anual de Facebook, que superó por primera vez en la historia la marca de US$10.000 millones de dólares en un trimestre, Mark Zuckerberg prometió invertir en “personas y tecnología para identificar mal comportamiento y eliminar noticias falsas, discurso de odio y otros contenidos problemáticos ” de la red.

En mayo, la jefa de Política Global de Facebook, Monika Bickert, comentó el trabajo de revisores como Sergio en un texto sobre los desafíos de la moderación de contenidos.

“Ellos tienen un obstáculo: entender el contexto, es difícil juzgar la intención detrás de una entrada, o el riesgo implícito en otra. Alguien publica un video violento de un ataque terrorista, que inspirará a las personas a imitar la violencia, o a hablar “¿Alguien escribe una broma sobre el suicidio, es un mero comentario o un grito de ayuda?”

El brasileño confirma las dificultades, pero dice que no conseguía discutir decisiones con superiores. “No tenía espacio para pensar críticamente, el trabajo tenía que ser automático y acelerado, era seguir el manual, apretar botón y no hacer muchas preguntas”, dice.

Tras una solicitud de la BBC antes de la publicación de esta historia, Facebook respondió que había decidido “no comentar” las declaraciones del extrabajador.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *